记者16日从中国科学院自动化研讨所得悉,该所李国齐研讨员、徐波研讨员团队联合清华大学、北京大学等,提出“根据内生杂乱性”的类脑神经元模型构建办法,改进传统模型核算资源耗费问题,为有用使用神经科学展开人工智能供给了示例,相关研讨发表于《天然核算科学》。
构建愈加通用的人工智能,让模型具有更广泛和通用的认知才能,是当时AI范畴展开的重要方针。
“现在盛行的大模型途径是根据标准规律构建更大、更深和更宽的神经网络,可称之为根据外生杂乱性的通用智能完成办法。”李国齐说,这一途径面临着核算资源及能源耗费难以为继、可解释性缺乏等问题。
别的一方面,人类大脑有1000亿神经元,1000万亿左右的突触衔接,每个神经元有着非常丰厚且形态万千的内部结构,但功耗仅20瓦左右。因而学习大脑神经元动力学特性,向内丰厚神经元结构探究通用智能潜力巨大,这条途径可称之为“根据内生杂乱性”的通用智能完成办法。
李国齐表明,试验成果验证了内生杂乱性模型在处理杂乱使命时的有用性与可靠性,为将神经科学的杂乱动力学特性融入人工智能供给新办法和理论支撑,也为实践使用中的人工智能模型优化和功能提高供给可行的处理方案。
现在,研讨团队已展开进一步研讨,有望提高大模型核算功率与使命处理才能,完成在实践使用场景中的快速落地。(记者宋晨)