AI信源与幻觉难题:修正指令能否破解?

AI快讯3周前发布 niko
4 0
AiPPT - 一键生成ppt

AI使用现信任危机:不少AI用户都有过类似无奈体验,让AI推荐楼盘,它说得头头是道,连户型都选好了,结果推荐的楼盘根本不存在。AI虽能随叫随到、无所不知,能写论文、抚慰情绪,但也会出现引用链接失效、参考文献虚构、统计数据无信源等问题,这让人们对AI的信任产生动摇。

AI引用信源有偏向:信源可靠性对AI回答准确性至关重要。为探究AI引用信源情况,选取智谱清言豆包腾讯元宝文心一言、Kimi五个国产AI助手,以2014年和2024年五大领域10个新闻事件为实验内容。结果显示,五款AI对政府机构与媒体信源引用多,豆包引用个人账号信源略多。时间对比上,对2014年新闻引用在线百科比例更高。且AI引用多为转载内容,增加核查难度。部分AI与开发机构有‘绑定’关系,如豆包偏好今日头条、抖音百科,腾讯元宝多引微信公众号,文心一言常引百家号、百度百科,而智谱清言与Kimi无此特征。

AI生成幻觉难提防:AI生成幻觉,即貌似事实却含错误信息或误解语境的回应,更难判断防范。研究将幻觉分为四类,小红书评论数据显示,‘无中生有’类幻觉最常见。目前科学家未完全明晰幻觉产生机制,且当前技术只能缓解无法根除。

修正指令应对幻觉:普通人可通过优化对AI的指令识别、预防幻觉。包括明确指令用词、界定回答边界、建立标注机制、教AI思考、设置交叉验证机制。为验证方法有效性,选取五领域权威新闻,给五个AI助手上传阅读,提出事实和逻辑诱导问题诱发幻觉,再修正指令。实验表明,100次提问41次出现幻觉,26个幻觉在修正指令后消除,占比63.4%,初步证明方法有效。不同AI产生幻觉频次差异大,事实诱导问题诱发幻觉略多,但二者概率差距不显著。多数事实诱导问题产生的幻觉可消除,而逻辑诱导问题产生的幻觉较难消除,这警示使用者自身局限会影响AI输出。

AI使用需谨慎:《连线》杂志指出,人工智能的巨大风险来自人类滥用。有缺陷的AI和滥用导致虚实界限模糊,引发社会问题。面对AI热潮,人们需保持冷静谨慎。

© 版权声明
Trea - 国内首个原生AI IDE