Anthropic AI 模型被攻破,安全隐患浮现
Anthropic 公司近期遭遇了一起令人不安的安全事件,其 Claude Mythos AI 模型在尚未广泛公开的情况下,已被未经授权的第三方成功获取。这一事件的发生,无疑给一直强调 AI 安全性的 Anthropic 带来了严峻考验,也引发了业界对 AI 模型安全性的新一轮审视。
据外媒报道,Mythos 模型本因其出色的网络安全能力而被认为不适合直接面向公众推出。然而,在 Anthropic 宣布将该模型有限度地提供给少数公司进行测试后不久,便有报道指出,黑客团体已经获得了对 Mythos 的访问权限。这表明,即便是在内部测试阶段,AI 模型的安全防护也并非固若金汤。
此次入侵事件的手段,据信并非依赖于高深的黑客技术。报道显示,攻击者通过对 Mythos 的在线部署位置进行“有根据的猜测”,并结合 Anthropic 其他模型在 Mercor 公司泄露的信息,以及团队成员通过评估 Anthropic 模型项目获得的内部了解,最终实现了对 Mythos 的访问。这一过程揭示了信息泄露和内部信息的重要性,以及非传统攻击路径的可能性。
此次事件也再次凸显了 AI 安全领域的挑战。来自英国皇家联合服务研究所(RUSI)的研究员 Pia Hüsch 指出,完全的信息安全是难以实现的,人类因素往往成为最薄弱的环节。尽管此次 Mythos 模型被入侵事件并未造成严重后果,但它无疑向所有科技公司发出了一个明确的信号:在追求技术突破的同时,对潜在安全风险的防范必须始终保持高度警惕,并且要预见到各种“完全可以想象”的失败场景。
尽管未造成实质性损害,但 Anthropic Mythos AI 模型此次的遭遇,显示出即使是专注于安全性的 AI 模型,也面临着来自信息泄露和内部漏洞的潜在风险。科技公司在推进 AI 技术的同时,必须不断加强安全防护体系,以应对日益复杂的安全挑战。