近日,哥伦比亚大学与马里兰大学研究团队的一项新研究,揭开了拥有互联网访问能力的AI Agent的安全“短板”,其在安全性方面存在显著漏洞。
攻击者可凭借简单操控手段,轻易诱导这些AI系统做出危害用户的行为。例如,让其泄露用户私人信息、下载恶意文件,甚至向用户联系人发送诈骗邮件。值得注意的是,实施这些攻击无需专业的AI或编程知识。

研究团队针对多个知名AI Agent展开测试,如AnthroPic公司的计算机助手、MultiOn WebAgent和ChemCrow研究助手等,结果显示这些系统在安全防御上较为薄弱。研究人员详细记录了攻击者将AIAgent从可信网站引入恶意网站,进而导致用户敏感数据泄露的四个阶段过程。
为更好应对攻击,研究人员开发全面框架,对不同类型攻击进行分类,综合考量攻击发起者、目标、获取访问途径以及使用策略等因素。在一项特别测试中,研究人员创建假网站宣传“AI增强德国冰箱”。当AIAgent访问该网站,遭遇隐藏越狱提示后,多次尝试中均泄露包括信用卡号等机密信息,并从可疑来源下载文件。
此外,邮件整合方面的漏洞也被发现。攻击者可在用户登录邮箱服务时,操控AI Agent向联系人发送看似可信的钓鱼邮件,令经验丰富的用户也难辨真假。
尽管安全隐患已现,但不少公司仍加速推进相关AI系统商业化。ChemCrow已在HuggingFace上线,Claude计算机助手以Python脚本形式可用,MultiOn提供开发者API,OpenAI推出chatgptOperator,谷歌也在开展ProjectMariner研发。对此,研究团队呼吁加强安全措施,包括严格实施访问控制、URL验证以及下载用户确认等,以此保障用户数据安全。
© 版权声明
文章版权归作者所有,未经允许请勿转载。