警惕!AI竟成造谣“帮凶”,“谎言流水线”如何斩断?

AI快讯2个月前发布 niko
29 0
AiPPT - 一键生成ppt

AI谣言频发,危害几何

今年2月,一位股民在雪球论坛看到一张AI问答截图,称某公司投资AI巨头DeepSeek,股价将暴涨,便跟风买入,结果次日公司辟谣,股价下跌。类似事件屡见不鲜,从“某公司投资DeepSeek”到“凉山山体滑坡”,AI生成的虚假信息呈病毒式扩散,背后是黑灰产操控的“AI谣言流水线”。

AI为何沦为造谣者“嘴替”

造谣者有组织、有计划地进行AI造谣。他们利用AI批量生产谣言,如“慈星股份投资了DeepSeek”等,再操控水军账号高频传播,让AI援引虚假信息,充当嘴替。而且,造谣者还会将AI回答以截图形式继续传播,形成“谣言—AI回答—更多谣言”的循环,让谣言无限增殖。

AI存在语料污染与AI幻觉等短板。AI大模型训练依赖海量数据,但数据真实性无担保,少量虚假信息就能导致模型出错,就像“精神投毒”。此外,有的AI为完成逻辑自洽会胡编乱造,出现“AI幻觉”。

传统造谣成本高,而AI将成本压缩至近乎为零且效率极高,利益丰厚。一些黑产从业者开发“谣言KPi系统”,在利益驱使和AI加持下,造谣演变成“工业化生产”。同时,部分AI工具和平台在标注AI内容方面存在欠缺,给造谣者可乘之机。

多方发力,共斩“谎言流水线”

要减小谣言发生概率,AI工具需严格检测数据来源和真实性,如豆包审慎投喂合成数据,强调数据来源独立可靠。用AI检测AI生成内容也是有效办法,国内外多个团队正投入相关技术开发。

内容平台要担负起“信息守门人”责任,如抖音等平台强制添加AI生成水印,今日头条建设谣言库等。用户要学会辨别虚假信息,追问AI回答细节,交叉验证信息。相关法律也需跟上,填补“AI投喂”问题的空白。

AI应是“真相守护者”,各方需合力构建“共治防火墙”,让AI真正照亮真相,而非成为造谣者的“白手套”。

© 版权声明
Trea - 国内首个原生AI IDE