人工智能的记忆形成机制被发现与大脑惊人相似

导读 由基础科学研究所 (IBS) 认知与社会性中心和数据科学组的研究人员组成的跨学科团队发现,人工智能 (AI) 模型的记忆处理与人脑海马体之...

由基础科学研究所 (IBS) 认知与社会性中心和数据科学组的研究人员组成的跨学科团队发现,人工智能 (AI) 模型的记忆处理与人脑海马体之间存在惊人的相似性。这一新发现为记忆巩固提供了新的视角,记忆巩固是人工智能系统中将短期记忆转变为长期记忆的过程。

在开发通用人工智能 (AGI) 的竞赛中,在 OpenAI 和 Google DeepMind 等有影响力的实体的引领下,理解和复制类人智能已成为一个重要的研究兴趣。这些技术进步的核心是 Transformer 模型 [图 1],其基本原理现在正在得到新的深度探索。

强大的人工智能系统的关键是掌握它们如何学习和记忆信息。该团队将人脑学习原理(特别是通过海马体中的 NMDA 受体巩固记忆)应用于人工智能模型。

NMDA 受体就像大脑中的一扇智能门,促进学习和记忆形成。当大脑中存在一种叫做谷氨酸的化学物质时,神经细胞就会受到兴奋。另一方面,镁离子充当挡住门的小守门人。只有当这个离子守门人退到一边时,物质才允许流入细胞。这是大脑创造和保存记忆的过程,而看门人(镁离子)在整个过程中的作用是非常具体的。

该团队有了一个令人着迷的发现:Transformer 模型似乎使用了类似于大脑 NMDA 受体的看门过程(见图 1)。这一发现促使研究人员研究 Transformer 的记忆巩固是否可以通过类似于 NMDA 受体门控过程的机制来控制。

在动物大脑中,低镁水平会削弱记忆功能。研究人员发现,Transformer 中的长期记忆可以通过模仿 NMDA 受体来改善。就像在大脑中一样,镁含量的变化会影响记忆强度,调整 Transformer 的参数以反映 NMDA 受体的门控作用可以增强 AI 模型的记忆力。这一突破性的发现表明,人工智能模型的学习方式可以用神经科学的既定知识来解释。

该研究所神经科学家主任 C. Justin LEE 表示:“这项研究在推进人工智能和神经科学方面迈出了关键一步。它使我们能够更深入地研究大脑的运行原理,并根据这些见解开发更先进的人工智能系统。”

该团队和韩国科学技术院的数据科学家 CHA Meeyoung 指出:“与需要大量资源的大型人工智能模型不同,人类大脑以最少的能量运行是非常出色的。我们的工作为低成本、高性能的人工智能系统开辟了新的可能性,这些系统可以像人类一样学习和记住信息。”

这项研究的与众不同之处在于它主动将受大脑启发的非线性纳入人工智能结构中,这标志着在模拟类人记忆巩固方面取得了重大进展。人类认知机制和人工智能设计的融合不仅有望创建低成本、高性能的人工智能系统,而且还可以通过人工智能模型提供对大脑工作方式的宝贵见解。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢

最新文章

<