据彭博社4月21日晚报道,一小群未经授权的用户已成功访问了 Anthropic最新推出的 Mythos AI 模型。
该模型被公司内部评估为威力极强,能够自主发现并利用各种系统漏洞,从而实施危险的网络攻击。知情人士向彭博社透露,这群用户(约几人)在一个私人在线论坛(多为 Discord 群组)中,于 Anthropic 首次宣布将 Mythos 模型有限开放给少数公司进行测试的同一天,就获得了访问权限。他们通过第三方承包商/供应商环境,并结合对 Anthropic 以往模型 URL 命名模式的“educated guess”(有根据的猜测),成功进入系统。此后,该群用户已定期使用 Mythos,但目前尚无证据显示他们将其用于网络安全攻击目的。知情人士通过截图和模型实时演示向彭博社证实了这一情况。
Anthropic 目前正积极调查此事。公司表示,没有证据显示其核心系统遭到入侵或数据泄露,访问仅限于供应商侧的环境。此次事件凸显了 Anthropic 在控制其最强大前沿 AI 技术扩散方面面临的重大挑战——如何确保该模型仅限于已获批准的合作伙伴使用,而非意外泄露到外界。
Mythos 是 Anthropic 最新一代“frontier”级模型。此前,Anthropic 已明确表示该模型在推理能力和网络安全领域实现了“step change”(重大飞跃),其自主发现零日漏洞并完成完整攻击链的能力远超以往模型。正因如此,公司采取了严格的“可控发布”策略(Project Glasswing),仅限约 40 家经过严格审查的组织进行防御性测试,帮助银行、政府机构等提前加固系统,防范潜在 AI 驱动的网络威胁。
此次未经授权访问事件迅速引发广泛讨论。科技圈和 AI 关注者普遍质疑 Anthropic 的安全措施:“继上个月 Claude 源代码泄露后又来?”“公司安全团队是不是被 noobs(菜鸟)管理?”部分用户嘲讽称,仅靠 URL 猜测就能在发布当天绕过限制,“安全措施太‘amazing’了”。
此事也打破了 Anthropic 精心构建的“可控发布”模式,可能引发监管机构更多关注,甚至影响整个行业对前沿 AI 风险的管控策略。目前尚未有官方证据显示该模型已被用于实际恶意攻击,但事件已让外界对“强大 AI 能否真正被有效控制”产生更大担忧。
Anthropic 尚未就最新调查进展发表公开声明,其官方账号也未对事件做出回应。彭博社及其他媒体的跟进报道显示,美国网络安全局(CISA)目前仍未获得 Mythos 的访问权限,而多家金融机构和政府部门正密切关注事态发展。
原文:https://www.bloomberg.com/news/articles/2026-04-21/anthropic-s-mythos-model-is-being-accessed-by-unauthorized-users
声明:本文来自百年未有,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。