谷歌探索大模型与人脑语言处理关联
谷歌的最新研究,意外揭开了大模型与人脑语言处理机制之间的神秘联系。此次研究,谷歌引入统一计算框架,旨在探究人脑中日常对话的神经基础。
研究过程中,谷歌一方面用皮层电图记录参与者在开放式真实对话里语音生成和理解时的神经信号,时长累计达100小时;另一方面从Whisper中提取低级声学、中级语音和上下文单词嵌入。之后开发编码模型,将嵌入词线性映射到大脑活动上,此模型能精准预测新对话中语言处理层次结构各层次的神经活动。
大模型与人脑语言处理的相似性
研究有了有趣发现。对于听到或说出的每个单词,从语音到文本模型中提取语音嵌入和语言嵌入两种类型。通过估计线性变换,可依据语音到文本的嵌入预测大脑神经信号。
例如听到特定语句时,大脑对语言理解的神经反应序列有特定模式。在语音生成和理解过程中,不同阶段语音嵌入和语言嵌入分别预测不同脑区的皮层活动,这种动态变化反映了神经处理顺序。
大模型与人脑的异同及意义
从理论上讲,大语言模型和人类的符号心理语言学模型计算框架不同。但谷歌研究院与多所大学合作研究发现,深度语言模型的嵌入可作为理解人脑如何处理语言的框架。
此前多项研究已证明两者在一些基本计算原理上相似,不过底层神经回路架构明显不同。基于这些成果,其目标是创建受生物启发的人工神经网络,提升其在现实世界处理信息的能力。
© 版权声明
文章版权归作者所有,未经允许请勿转载。