AI幻觉引发思考:在信息获取与传播中,AI幻觉现象逐渐引起关注。以DeepSeek对一则旧闻的回应为例,展现出AI看似一本正经实则可能在编造信息的情况。询问关于当事人离开伊拉克流亡黎巴嫩并后悔一事,DeepSeek在深度思考与正式结果输出中给出矛盾答案,思考时称无其他媒体报道证据,结果时却称bbc、路透社有报道,这种反差正是AI幻觉的体现。
大模型的“大续写模式”:大模型在文本输出过程中,有一个关键概念——token。基本可理解为一个字或一个词,输出时按概率决定下一个token。每一次蹦出token都是概率运算,如tokena后接token b概率最大就输出b ,这就是所谓的“大续写模式”。人类设定规则让大模型按此模式输出以符合期待,但这也可能导致其在信息缺失时编造内容。
AI幻觉的根源:就上述旧闻,关于当事人事件有多种可能情况。DeepSeek在未搜到相关报道及辟谣报道时,根据对大量新闻报道学习得出的概率,编造了据bbc、路透社报道的内容。因为按概率,这种续写方式在传播中概率最大,这便是AI幻觉中一本正经胡说八道的由来,AI似乎处理不了“空”的情况。
人类的“幻觉”制造:AI幻觉易忽悠人,但人类制造的幻觉同样不可小觑。以司马南罚款事件为例,众多中国媒体报道司马南被罚900万,然而从北京税务局网站最权威信息来看,司马南补税、罚款、滞纳金共计926.94万元,其中补税537.75万,罚款268.875万,滞纳金120.315万,并非媒体所传被罚900万。
AI与人类的“bug”对比:当人们讨论AI可怕、警惕被其统治时,不禁想起《爱情公寓》中张伟的话。在信息传播和处理上,AI会因算法出现幻觉,人类也会因主观因素、急于蹭流量等制造新闻误报。AI与人类在信息准确传递上都存在问题,值得深入探讨。