近日,谷歌旗下DeepMind实验室发布了一份长达145页的人工智能安全报告。报告指出,具备人类智能水平的通用人工智能(AGI)可能在2030年左右出现,且存在“永久毁灭人类”的严重风险。
在这份全面剖析AGI风险的报告里,研究人员明确表示,AGI带来的人类永久灭绝风险属于极端危害,此重要议题需全社会共同探讨,涉及可接受风险程度及对潜在危害的定义与理解。
不过,谷歌在论文中未具体说明AGI导致人类灭绝的方式,报告重点放在风险防控措施上。
DeepMind联合创始人谢恩·莱格多年来预测AGI将在2028年出现,另一位创始人戴密斯·哈萨比斯也认为AGI可能在未来5到10年内出现,最早2030年问世。
AGI存在四大风险,谷歌批评竞争对手安全策略投入不足
谷歌论文将高级AI风险分为四类:滥用风险,即人类故意利用AI实施危害;错位风险,指系统产生非预期有害行为;失误风险,因设计或训练缺陷导致意外故障;结构性风险,源于不同主体间的利益冲突。
研究人员还阐述了DeepMind的风险缓解策略,重点是防止滥用,强调尽早识别危险能力的重要性。值得注意的是,论文对AnthroPic和OpenAI等竞争对手的安全策略含蓄批评,认为前者训练、监督投入不足,后者过度关注对齐研究。
AGI定义模糊,人类或难掌控
该报告引发AI安全领域专家争论。未来生命研究所联合创始人安东尼·阿吉雷赞赏DeepMind团队努力,但认为应对AGI风险需更全面措施。他指出,超人类AI可能引发社会政治动荡,AGI具有不可预测性,人类难以掌控。
同时,有专家质疑AGI的时间表、可行性及定义。非营利组织AI NowInstitute首席科学家海迪·克拉夫称,当前AGI定义模糊,难以科学评估。谷歌发言人回应,论文方法和措施适用于多种AGI定义框架,风险评估考虑长期能力,旨在提供构建技术的解决方案。
AGI出现时间存分歧
谷歌研究团队表示,对强大AI系统研发进度不确定,但认为2030年出现是可能的。这一时间表比其他实验室预测稍长。Anthropic首席执行官认为AI将在“未来两到三年”超越人类,OpenAI首席执行官山姆·奥特曼称已掌握AGI构建方法,OpenAI前政策研究员预言AI将在2027年超越人类智能。