李彦宏批DeepSeek-R1幻觉高,大模型幻觉问题何去何从?

AI快讯3周前发布 niko
4 0
AiPPT - 一键生成ppt

大模型幻觉问题凸显,李彦宏点名DeepSeek-R1。在2025百度ai开发者大会开幕上,李彦宏指出全民AI大模型DeepSeek-R1“只支持单一模态、幻觉率较高、又慢又贵”。这款年初新晋的国产开源大模型,凭借强大推理能力和贴合国人的文笔,在苹果美区App免费下载排行榜超越chatgpt,但也饱受“胡说八道”的批评。

幻觉成大模型通病。AI数据服务公司Vectara的HHEM幻觉评估显示,DeepSeek-R1幻觉率高达14.3%,远超前代DeepSeek-V3的3.9%。不仅如此,业内众多先进大模型都面临幻觉挑战,OpenAI的o3、o4- mini,阿里通义的Qwen3等,幻觉现象都较为严重。推理模型多轮思考策略可能放大幻觉,导致事实准确性与生成内容一致性难以兼顾。

应对幻觉有手段。尽管幻觉问题棘手,技术开发者仍有应对之策。主流方式是检索增强生成(RAG),即模型先检索资料再作答,像百度的iRAG技术,结合图片资源库解决文生图幻觉问题。另一个方法是严格控制训练数据质量,腾讯混元深度思考模型T1训练Critic批判模型筛选数据,降低幻觉率。但OpenAI也承认,模型规模变大、推理能力增强后幻觉增多的原因尚不清楚。

幻觉并非全无益处 。大模型的幻觉分为事实性和忠实性幻觉,可能产生“外箱式创意”。刘慈欣用DeepSeek续写小说,认为其成果不错。OpenAICEO奥特曼也提及幻觉在创作领域有积极意义。不过,在高风险或涉及伦理的领域,大模型幻觉限制了商业应用。或许我们应换种思路研究AI,赋予其区分虚构与现实的能力。

© 版权声明
Trea - 国内首个原生AI IDE