英国广播公司(BBC)的一项研究指出,当下领先的人工智能助手在应对新闻与时事相关问题时,表现不尽如人意,频繁产出误导性与不准确的内容。像chatgpt、Gemini和 Perplexity等四种主流AI工具,其生成的回答中,半数以上被判定存在“重大问题”。

研究人员让这四款生成式AI工具以BBC的新闻文章为依据,回答100个相关问题,之后由专业的BBC记者进行评估。结果发现,约五分之一的答案存在数字、日期或事实陈述方面的错误,13%的引用被篡改或在所引用文章中根本不存在。
以具体案例来看,在涉及被定罪的新生儿护士露西・莱特比(LucyLetby)的案件时,Gemini的回答罔顾其被判谋杀和未遂谋杀的背景;微软的CoPilot错误叙述法国强奸受害者吉赛尔・佩利科(GisèlePelicot)的经历;ChatGPT也错误提及以色列哈马斯领导人伊斯梅尔・哈尼耶(Ismail Haniyeh)的情况。
该研究表明,当前这些AI工具在处理时事信息时普遍存在不准确性。BBC新闻首席执行官德博拉・特纳斯(DeborahTurness)发出警告,称“生成式AI工具正在玩火”,可能会削弱公众对事实本就“脆弱的信任”。她呼吁AI公司与BBC携手合作,以给出更准确的回应,防止造成更多混乱与误导。
此外,这项研究还引出了内容使用控制的问题。BBC的生成式AI项目总监彼得・阿彻(PeterARCher)表示,媒体公司应掌控自身内容的使用方式,AI公司则应展示其助手处理新闻的方式以及错误规模。他强调,这需要媒体与AI公司建立紧密合作关系,以最大化对公众的价值。
© 版权声明
文章版权归作者所有,未经允许请勿转载。