Meta AI的Brain2Qwerty模型:革新脑机接口非侵入性解码技术

AI快讯2周前发布 niko
30 0
AiPPT - 一键生成ppt

脑机接口(BCI)技术领域迎来新进展,MetaAI全新发布的Brain2Qwerty模型成为焦点。一直以来,BCI致力于为言语或运动障碍人群搭建沟通桥梁,然而传统方式多需侵入性手术,像植入电极,不仅伴有医疗风险,后续长期维护也较为麻烦。为此,研究者将目光投向非侵入性替代方案,基于脑电图(EEG)的方法备受关注。可惜的是,EEG技术存在信号分辨率低的问题,对其准确性产生了不利影响。

机芯大脑 人工智能

为攻克这一难题,Brain2Qwerty模型应运而生。该深度学习模型能够从EEG或脑磁共振成像(MEG)捕捉的脑活动中,解码出参与者输入的句子。研究过程中,参与者在QWERTY键盘上输入短暂记忆的句子,同时脑活动被实时记录。与以往依靠集中注意力于外部刺激或想象运动不同,Brain2Qwerty借助自然的打字运动,提供了更为直观的脑电波解读途径。

Brain2Qwerty模型架构包含三个关键模块。先是卷积模块,负责从EEG或MEG信号里提取时间与空间特征。随后是变换器模块,对输入序列进行处理,优化理解与表达。最后是语言模型模块,作为预训练的字符级语言模型,用于修正并提高解码结果的准确性。

在对Brain2Qwerty模型性能评估时,研究者采用字符错误率(CER)作为衡量指标。结果表明,基于EEG的解码CER为67%,相对偏高;而使用MEG的解码效果明显提升,CER降至32%。实验中,表现最佳的参与者CER达到19%,展现出该模型在理想条件下的巨大潜力。

尽管Brain2Qwerty在非侵入性BCI领域前景向好,但仍面临诸多挑战。其一,当前模型需处理完整句子,无法实现逐个按键的实时解码。其二,虽然MEG性能优于EEG,但其设备便携性差且普及程度有限。其三,该研究主要在健康参与者中开展,未来还需深入探究其对运动或言语障碍者的适用性。

© 版权声明
智谱清言 - 国产最强AI模型