AI病毒学能力超越人类,安全管理成焦点
近期,非营利组织SecureBio研究团队及其合作者开展的新研究揭示,在病毒学领域,AI展现出超越人类专家的能力,同时也带来了安全隐患。研究团队开发了VirologyCapabilities Test(VCT),旨在测量病毒学实用知识,尤其是故障排除实验方面的能力。
在测试中,OpenAIo3表现出色,准确率达到43.8%,超过了94%的病毒学家。而博士水平的病毒学家在专门定制的VCT问题集上,得分仅为22.1%。这一结果表明,截至2025年初,前沿大模型在病毒学领域提供实际疑难解答支持的能力,已达到甚至超过人类专家水平,且差距还在扩大。
这一发现犹如一把双刃剑。一方面,专业研究人员可借助超智能AI模型预防传染病传播;另一方面,非专业人士可能利用它制造致命生物武器。论文通讯作者SethDonoughe指出,历史上有人因缺乏专业知识而制造生物武器失败,如今AI的发展使得专业知识获取变得容易,因此需谨慎对待其能力分配。
VCT包含322个多模态病毒学实际疑难解答问题,涉及一些罕见知识。开发过程中,研究团队排除了可能造成大规模危害的双重用途病毒学课题。VCT可作为潜在危险信息的衡量标准,了解模型在敏感生物学技能方面的能力,为缓解机制提供信息。
研究团队强调,AI系统在为高度双重用途方法提供专家级故障诊断方面的能力,本身就是一种高度双重用途技术。因此,迫切需要通过周到的访问控制,在促进有益研究与应对安全风险之间取得平衡。专家级AI病毒学聊天机器人和AI病毒学agent都需严格访问控制,某些特定领域专业知识应排除在下一代广泛可用大模型能力之外。
针对AI系统中双重用途生物学技能问题,研究团队建议参考生命科学领域已有监管经验,如NSABB主导的管理框架。类似VCT的评估工具,可为政府机构和非政府组织调整风险管理框架提供实证依据。
此前,论文作者已将研究结果分享给各大AI实验室。xAI发布新风险管理框架,承诺在Grok未来版本中加入病毒学防护措施;OpenAI也在o3和o4 -mini中部署生物安全保护措施。但约翰·霍普金斯大学健康安全中心主任TomInglesby指出,仅靠行业自律不够,呼吁立法者和政策制定者采取更积极行动,规范AI带来的生物风险。后续研究将检验AI辅助是否能改善实际实验室实验结果,同时也需思考如何衡量AI在专家知识不再可靠课题上的进展。