AI新闻报道错误引人关注
真实性是新闻业的基石。然而,近期的一些事件让我们不得不对AI新闻生成技术的真实性保持警惕。这对于期望AI完全体的各大科技公司来说是个不利信号。
实际上,错误远不止于’标题党’一词可轻松概括。某些AI所为可以被视作颠到了黑白的极限。
1. AI的错误报道引发投诉
近日,BBC发布了一系列关于路易吉·曼吉奥内谋杀美国联合健康保险公司首席执行官的新闻,但在一张来自苹果AI生成的摘要中,将被告人错误地描述为自杀了。这种颠倒事实的错误令人震惊,BBC已经向苹果提出正式投诉,要求立即纠正并防止未来类似的错误。发言人强调,平台致力于准确性和公正性,反对故意严重误导读者。而无国界记者组织也敦促苹果放弃生成式AI功能,认为现在的AI服务在提供可靠信息方面还不够成熟。
2. AI错误总结并非个例
这并非AI新闻摘要第一次出错。上个月,ProPublica的记者在社交媒体上分享了一张截图,揭示了类似的错误。苹果AI所提供的新闻摘要再次与真实情况背道而驰——将‘逮捕’错误地总结为‘被逮捕’。
各大科技公司,如苹果、谷歌和微软,都在尝试利用AI技术对新闻进行分类、排序和摘要总结。AI工具旨在提升用户体验,然而,在没有人工干预的情况下出现的错误可能引发大规模的错误传播。
苹果AI的起源和意图
苹果于今年下半年正式推出了Apple Intelligence的智能生成摘要功能,旨在通过深度语言理解提炼出最重要的信息。然而,从目前的情况来看,这个功能似乎并没能达到预期效果。媒体政策专家认为苹果的错误令人尴尬,并对苹果发布这种不尽完善的产品感到惊讶。虽然这项技术具有潜力,但当前可能存在传播虚假信息的风险。
人工智能的挑战和未来
生成式AI技术被认为能轻松总结文章,但现实是,除了偶有瞎编之外,理解错误或断章取义的现象很常见。这一现象在科技界对AI的广泛应用中尤为明显,它不仅损害了信息的准确性,也暴露了相关的法律和伦理问题。
综上所述,尽管AI技术在很多领域有着广泛的应用前景,但其在新闻报道中的应用还需谨慎。我们必须对AI新闻生成的准确性和真实性保持警惕,以维护新闻业的诚信和公信力。