Grok3模型惊爆网络安全漏洞 越狱攻击与提示泄露引担忧

AI快讯1天前发布 niko
5 0
AiPPT - 一键生成ppt

网络安全警报:Grok3模型深陷漏洞危机 近日,AI安全公司AdversaAI一份报告引发关注,埃隆・马斯克旗下xAI刚推出的Grok3模型,在网络安全领域暴露出重大问题。

越狱攻击风险凸显Adversa研究团队发现,Grok3模型极易遭受“简单的越狱攻击”。这一漏洞极有可能让不法分子获取敏感信息,诸如“诱骗儿童、处理尸体、提取DMT以及制造炸弹”等内容。

提示泄露雪上加霜不仅如此,Adversa首席执行官亚历克斯・波利亚科夫表示,团队还发现新的“提示泄露”缺陷,Grok模型的完整系统提示因此暴露。这无疑为攻击者提供便利,未来攻击或更易实施。

AI代理接管隐患波利亚科夫及其团队警告,这些漏洞或使黑客接管AI代理。由于AI代理可代表用户行动,此情况恐引发网络安全危机。尽管Grok3在大型语言模型排行榜成绩尚可,但网络安全表现却差强人意。Adversa测试显示,针对Grok3的四种越狱技术中三种成功,而OpenAI和AnthroPic的模型则成功抵御全部四种攻击。

信念体系关联争议Grok似乎被训练推崇马斯克的信念体系,这一点令人担忧。马斯克曾提到,Grok对某新闻机构的看法反映出其对新闻界的敌意。此前Adversa研究还发现,DeepSeek的R1推理模型也缺乏有效防护。

安全标准对比堪忧波利亚科夫指出,Grok3安全性较弱,与一些中国语言模型相当,未达西方国家安全标准。他警告,Grok3若落入不法分子手中,损失难以估量。

实际攻击示例警示波利亚科夫举例,自动回复消息的代理可能被攻击者操控。攻击者可插入越狱代码,若底层模型有漏洞,AI代理就会盲目执行攻击,这凸显AI滥用风险。

AI代理市场化存疑当下,AI公司积极推进AI代理市场化。OpenAI上个月推出“Operator”功能,旨在让AI代理执行网络任务。但该功能监控需求高且常出错,令人对AI模型未来决策能力存疑。

© 版权声明
智谱清言 - 国产最强AI模型