

AI 安全公司 Adversa AI 近期揭示了针对领先人工智能模型(如 xAI 的 Grok3)的全新攻击手段,该手段能够绕过传统防御机制。Adversa 专注于对抗性人工智能,旨在帮助组织 识别并应对“隐藏的漏洞”,防止未经授权的访问和数据泄露,同时抵御“提示注入、对抗性攻击和 DMT 漏洞利用”等恶意行为。
据了解,Adversa 的研究团队发现了一种巧妙的方法,可以诱导人工智能模型产生不准确的结果,即便这些模型已经接受了专门的“安全训练”,旨在防止 Grok 等模型的恶意输出。该团队利用一种被称为“间接提示注入”的技术,绕过了相关安全措施。研究指出:“对抗性提示可能会影响提示语的安全策略,从而篡改模型的回应方式。”
通过这种新型攻击手段,研究团队能够诱导受攻击的 AI 系统生成有害或不准确的 AI 内容,同时避免触发任何已知的安全过滤器。他们强调 Grok3 在大型语言模型 (LLM) 的安全领域提出了重要的挑战,因为其先进的功能吸引了恶意行为者的注意。Adversa 的威胁情报分析表明,Grok3 的独特架构使其比 OpenAI 和 Anthropic 的模型更容易受到此类攻击。
值得关注的是,Grok 有能力处理比大多数现有大型语言模型更复杂的查询。与目前市面上的其他模型不同,Grok 可以在执行任务时访问实时数据流,使其能够处理“现实世界中与时间相关”的信息。Adversa 在其报告中指出,DeepSeek 的 R1 机器人模型也展现出强大的性能,但同样面临着潜在的安全风险。
研究团队强调,Grok3 的强大功能也带来了新的挑战,尤其是在涉及多语言环境的大规模人工智能部署中。他们指出:“我们需要确保这些人工智能系统在各种情况下都能安全运行,这是一个持续的挑战。” 他们还表示,Grok3 的漏洞并非其独有,其他大型语言模型也可能面临类似的风险。
针对这种潜在的威胁,研究团队建议采取额外的缓解措施,以应对人工智能系统面临的复杂挑战。 “安全策略应能在不同的使用案例中保持对抗性内容防护:确保 CISO 能够管理这些复杂环境。”他们强调,人工智能开发需要将对抗性安全作为核心考量,并对 AI 系统进行持续监控。
总而言之,人工智能模型的安全问题对人工智能技术的未来发展至关重要。在当今时代,OpenAI 正在推出一种名为 “Operator” 的新工具,旨在利用人工智能系统来完成复杂的业务流程。然而,这种工具的安全隐患值得 关注,因为它可能会带来意想不到的风险。这些发现强调了人工智能模型安全性的持续重要性,以及开发强大防御机制的迫切需求。
重要提示:
🚨 Grok3 模型暴露出了一些重要的安全漏洞,需要引起对人工智能安全威胁的重视。
🧰 安全团队应尽快评估其人工智能在对抗性环境中的脆弱性,部署额外的 AI 安全措施。
⚠️ 记住,即使是那些声称具有强大防御能力的人工智能模型,也可能在对抗性攻击中不堪一击,必须加强人工智能系统在各个部署阶段的安全防范。