当众多大语言模型能相对准确预测大脑对语言任务的反应时,人们不禁思考:这是否意味着大语言模型捕捉到了大脑语言认知加工的深层机制?GPT的预测与人脑语言反应的高度相关,究竟是“认知本质”,还是“统计巧合”?
预测编码理论 在大脑信息加工研究中占据重要地位。20世纪90年代,心理学家KarlFriston提出该理论,认为大脑会不断预测未来事件,并将预测与观测对比,出现不匹配时调整预测以减少预测误差。该理论不仅适用于视觉加工,还为感知、注意等认知功能提供统一框架。在语言加工方面,大脑会对未来词句进行预测,且相关研究也发现了支持证据。
神经网络语言模型(NNLM)是用于单词预测任务的人工神经网络,能基于语料库生成下一个单词的概率分布。其优势在于可使用大量自然语言文本训练,学习不同类文本的统计规律。近年来,NNLM催生了语言模型微调范式,微调后的模型表现更优。目前先进的NNLM包含一系列加工模块(transformers),采用点积注意力 机制有选择性地加工输入元素。
神经科学家利用NNLM预测大脑对自然语言的反应,建立了基于语言模型的编码模型。该模型表现优于使用非情景化词嵌入空间表征的编码模型,原因可能是其与大脑有相同目标——单词预测。但德克萨斯大学奥斯汀分校的Antonello和Huth对此提出质疑。
Antonello和Huth开展研究,提出了不同于预测编码理论的解释——表征普遍性。他们认为基于语言模型的编码模型捕捉到了普遍信息,因此在预测大脑反应时表现良好。研究发现,模型的编码表现与对下一个词语的预测表现、表征的普遍性以及面向多种语言任务的迁移能力都存在高相关。此外,对GPT- 2 Small和GPT – 2 Medium模型的分析也未为预测编码理论提供支持。
综上所述,Antonello和Huth的研究为语言模型表现良好提供了另一种可能解释。未来研究应寻找能明确区分大脑是否进行预测编码的独特可测量现象。