📢 转载信息
原文链接:https://www.sciencedaily.com/releases/2026/01/260120000308.htm
原文作者:The Hebrew University of Jerusalem
人脑处理语言的方式可能比预期的更像人工智能
一项新研究表明,人脑理解口语的过程与先进人工智能语言模型的操作方式非常相似。通过记录人们收听一段口述故事时的大脑活动,研究人员发现大脑对语言的反应阶段与AI系统的深层结构相匹配,尤其是在布洛卡区等著名的语言区域。研究结果对长期以来关于语言理解的基于规则的观点提出了质疑,并且得到了新发布的公共数据集的支持,该数据集为研究大脑中意义的形成提供了一种强大的新方法。
这项发表在《Nature Communications》上的研究由希伯来大学的Ariel Goldstein博士领导,合作者包括谷歌研究院的Mariano Schain博士以及普林斯顿大学的Uri Hasson教授和Eric Ham。研究团队共同发现了一个令人惊讶的相似之处:人类如何理解语音与现代人工智能模型如何处理文本之间存在关联。
研究人员使用从参与者收听三十分钟播客过程中记录的皮层脑电图(ECoG)数据,追踪了语言处理过程中大脑活动的时序和位置。他们发现,人脑遵循的结构化序列与大型语言模型(如GPT-2和Llama 2)的分层设计密切匹配。
大脑如何随时间构建意义
当我们倾听某人说话时,大脑并不会一下子完全掌握意义。相反,每个词都经过一系列神经步骤。Goldstein及其同事表明,这些步骤随时间展开的方式,恰好反映了AI模型处理语言的方式。AI中的早期层关注基本的词汇特征,而更深的层则整合了上下文、语调和更广泛的意义。
人脑的活动遵循了相同的模式。早期的神经信号与AI处理的早期阶段相匹配,而较晚的大脑反应则与模型的深层相吻合。这种时间上的匹配在较高级别的语言区域(如布洛卡区)表现得尤为强烈,在这些区域中,与更深层AI连接的反应达到峰值的时间较晚。
据Dr. Goldstein称:"最让我们惊讶的是,大脑意义的时间展开方式与大型语言模型内部的转换顺序如此紧密地匹配。尽管这些系统的构建方式截然不同,但两者似乎都朝着理解的方向趋同于一种相似的分步构建过程。"
这些发现为何重要
这项研究表明,人工智能的作用不仅限于生成文本。它也可能帮助科学家更好地理解人脑是如何创造意义的。多年来,人们一直认为语言主要依赖于固定的符号和僵化的等级结构。这些结果挑战了这种观点,转而指向一个更具弹性和统计性的过程,在这个过程中,意义是通过上下文逐渐涌现出来的。
研究人员还测试了传统的语言学元素,如音素和词素。这些经典的特征在解释实时大脑活动方面,不如AI模型产生的上下文表征有效。这支持了这样一个观点:大脑更多地依赖于流动的上下文,而不是严格的语言构建块。
语言神经科学的新资源
为了推动该领域的发展,研究团队已将全套神经记录和语言特征公开。这一开放数据集使全球的研究人员能够比较语言理解的理论,并开发出更贴近人类思维运作方式的计算模型。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区