回头看,人类历史上很多重大技术治理转折,往往不是靠长期抽象讨论推动,而是由某些真正震撼各国的关键事件触发。
比如,1962年的古巴导弹危机,以及1950年代高当量核试验带来的平民辐射事故,最终推动了《部分禁止核试验条约》和《核不扩散条约》的形成;1986年的切尔诺贝利核事故,则直接促成国际社会建立核事故通报与核安全合作机制。
进入互联网时代之后,也是类似逻辑。2013年的斯诺登“棱镜门”,实际上打碎了欧美之间原有的数据安全信任基础,并开启了后来的“数据主权”时代;2018年的剑桥分析事件,则给欧盟推动 GDPR 提供了非常强的政治正当性;2019年新西兰基督城枪击案的大规模网络直播,则进一步推动了《基督城倡议》以及后来欧盟《数字服务法》对大型平台的强监管。
从目前外界能够拼凑出的信息看,Mythos 很可能正在扮演类似角色。
据传,这个模型不仅拥有极强的漏洞挖掘能力,还能够快速生成真正可运行的攻击利用链。也就是说,它不只是“发现问题”,而是已经接近能够自动化完成部分网络攻击流程。某种程度上,它让全球互联网和关键基础设施一下变成了到处漏风的筛子。这种规模化网络攻击潜力,甚至让拥有全球最强网络战能力的美国政府都感到不安。
Anthropic 现在的态度也非常能说明问题。他们已经明确表示,目前发现的大部分漏洞仍处在未修补或未完成披露周期,因此不能公开太多细节,也不能像普通商业模型那样直接开放。现在能够接触 Mythos 的,主要还是内部研究团队、少数合作机构,以及经过严格筛选的安全研究人员。
这意味着,Mythos 的管理方式已经越来越不像传统互联网产品,反而更像某种高危工业设施,甚至带有一点敏感军工技术的味道。
据报道,美国政府一直非常希望使用 Mythos,并且正在和 Anthropic 持续协商。甚至连 Anthropic 想扩大 Mythos 的使用范围,都曾遭到美国政府反对,因为政府担心,如果开放客户过多、算力资源被占用,反而会影响联邦机构自身使用该模型。
而美国之外,其他国家其实也已经开始紧张起来。比如新加坡网络安全局最近已经正式致函本国所有关键信息基础设施机构董事会和高级管理层,要求它们重新评估 AI 驱动型网络威胁对现有安全体系的影响。
从目前情况看,Mythos 的出现,很可能正在明显提升 AI 安全议题在中美关系中的分量。
2024年5月,中美在日内瓦举行了人工智能政府间对话首次会议。具体情况参见“对中美第一次人工智能政府间对话的感受”。在那次会上,美国“提出了对人工智能被滥用的担忧”,还特别强调了“包括中国滥用人工智能的情况”。中方则“就美方在人工智能领域对华限制打压表明严正立场”。
但据说,美方对那次对话整体并不满意。他们私下抱怨,中方派出的团队更多偏外交和综合事务背景,而讨论重点也没有真正聚焦在AI的安全风险和治理问题。之后几个月,美国很快在旧金山组织了一场 AI 安全研究所网络会议,而中国并未被邀请。
再后来,特朗普总统重新上台,外界一度以为美国可能会重启中美 AI 安全对话机制,但实际情况是,美国政府对此一直比较冷淡。过去这段时间,中美在 AI 领域真正的谈判重点,依然还是围绕芯片出口管制、算力限制这些更现实的问题展开。
虽然官方层面对话停滞,但中美智库、专家、企业围绕AI安全治理问题的交流相对还比较活跃。最近,民主党进步派的领袖桑德斯参议员甚至公开邀请了清华大学薛澜教授、中科院曾毅研究员,一起讨论AI安全和中美AI合作问题。
我有幸参加过一些这类中美AI二轨交流,一个很深的感受是,双方对AI安全的理解和关切差别非常大。
中方政策界和产业界现在最关心的,很多还是比较现实、已经落地的问题,比如美国的 AI 芯片限制、模型备案、内容合规、拟人化 AI 服务监管、训练数据版权等等。很多中国专家还会觉得,中国现在其实已经形成了一套多部门、分领域、覆盖全产业链的 AI 监管体系,而美国连联邦层面的基本 AI 法律框架都还没真正建立起来,在这种情况下,美国凭什么总来和中国谈 AI 安全?
而美方的关注重点则主要是前沿模型、灾难性风险,以及智能体未来可能出现的失控问题。
美方专家通常会解释说,美国并不是不关心就业、隐私、版权这些现实问题,而是认为前沿模型正在产生一些现有法律体系根本覆盖不了的新型风险。比如,他们会认真讨论:模型会不会逐渐形成某种“自主意识”、会不会学会欺骗人类;智能体一旦结合工具调用、长期记忆和开放网络环境之后,会不会突破人类设定的边界,擅自调用资源、执行异常行为,甚至出现真正意义上的失控。他们的核心逻辑很简单:这类风险不能等真正发生之后再处理。因为如果 AI 真进入某种灾难性阶段,到时候再治理可能已经来不及,现在就应该建立统一的预警机制、事件上报机制,以及跨国信息共享体系。
很多美国专家还会反复强调一个观点:AI灾难性风险没有国界。即便最早在美国爆发,也会非常快地扩散到中国,中国不可能独善其身。所以在他们看来,中美现在提前开展 AI 安全治理研究、建立协同防控机制,并不是谁对谁让步,而是符合双方共同安全利益的现实选择。
对于“中国说美国根本没有 AI 监管”,美方通常也会反驳。他们会强调,美国虽然还没有联邦层面的统一 AI 法律,但并不意味着完全没监管。比如加州已经有 SB53 这样的州级 AI 法规;同时,很多现有法律其实也已经适用于 AI,包括 FTC 的消费者保护规则、FCC 的网络安全要求等等。
一些美方专家还就中美AI安全合作提出十分具体的设想:他们觉得,中美未必要共享核心模型或者敏感技术,但可以在技术检测、安全防护和标准化方面合作,比如交流风险框架、测试方法、评估体系、防护原则等等。像红队测试、生物安全风险评估、智能体权限管理,都可能成为比较现实的合作切入口。甚至还有一些比较激进的想法。比如,有美国专家提出,中美未来或许应该一致同意,在前沿模型里预埋某种硬编码“杀死开关(Killing Switch)”,以便在模型真正出现失控迹象时,人类仍然有能力强制关闭系统。
美国官方对该问题的沉寂,直到最近才被打破。4月24日,美国财政部一名官员通过媒体透露,5月的中美元首会晤将首次把 AI 正式列为议题,双方将讨论可能的合作领域,并探索在 AI 安全以及应对非国家行为体威胁方面的协作机制。
某种程度上,这让人想起冷战时期核武器的发展。正是因为核武器真正具备了毁灭性,美苏才最终不得不坐下来谈判。同样,Mythos 所展现出的强大能力,以及这类能力未来可能被恐怖组织、黑客组织等非国家行为体滥用的风险,或许正在成为推动美国主动寻求与中国开展 AI 安全对话的重要原因。
美国内部现在可能判断:即便美国目前领先,中国顶级模型真正追上Mythos的时间,未必会很久。Anthropic的 CEO Dario Amodei 最近接受 CNBC 采访时表示,中国AI与Mythos 的差距,大概也就只有6到12个月。
关于中美前沿模型能力差距,美国内部现在其实也没有完全统一的判断,而是存在多个不同版本的评估。
最近,美国 AI 标准与创新中心(CAISI,也就是原来的美国 AI 安全研究所)对 DeepSeek V4 做了一轮测评,结论是其整体能力大约落后美国最前沿模型 8 个月左右。
Stanford HAI《AI Index 2026》的判断更激进一些。报告显示,截至2026年3月,Anthropic 的顶级模型虽然仍然排名第一,但领先中国顶级模型的幅度已经只剩下约 2.7%。报告还提到,自2025年以来,中美模型其实已经多次交替领先,整体差距基本都维持在个位数以内。
而另一家知名 AI 分析机构 Epoch AI 的测算,则认为中国模型平均落后美国约7个月,但不同模型差异较大,最小差距约4个月,最大约14个月。
如果再往具体 benchmark 上看,这种快速逼近的趋势会更明显。
比如 LMArena 的真人盲测结果,现在双方差距大概只有 27.7 Elo,基本属于“90分和94分”的区别,普通用户很多时候未必能明显感觉出来。但一旦进入 Expert 类高难度问题,差距会重新拉大到 46.3 Elo,更接近“85分和95分”的差距。这意味着,在普通场景下双方已经越来越接近,但在极限推理、复杂智能体和高难度任务上,美国模型仍然存在较大优势。
不过,另一个更值得注意的 benchmark 是 SWE-bench Verified。它测试的是模型在真实软件工程场景里修 bug、改代码、完成工程任务的能力。最新结果显示,美国顶级模型的任务解决率是79.2%,中国顶级模型是78.8%,差距只有0.4个百分点。换句话说,在“真实代码工程效率”这种最容易直接转化为产业生产力的领域,中美顶级模型其实已经接近打平。
而这一系列结果,某种程度上都在印证 Dario Amodei 最近的判断——中国和美国 frontier AI 的差距,可能已经缩短到只有数月,而不再是过去那种“代际差距”。
正因如此,美国现在的紧迫感在明显上升。在他们看来,如果中国真正追上 Mythos级别的能力只是时间问题,那么AI安全就不再只是美国自己的问题,而会迅速变成一个全球性问题,需要把中国一起拉进来。
首先,如果美国真的开始对 Mythos 这类模型搞前置审查,那么美国前沿模型的发布和部署速度势必会受到影响,中国模型追赶的速度就会相对加快。因此,从美方角度看,它一定会希望中方也建立类似的前置安全机制,避免出现只有美国自己踩刹车、而中国继续全速推进的局面,以确保中美企业的公平竞争。
其次,如果美方开始把 Mythos 这种模型当作“战略级能力”进行防扩散式管控,那么中方大概率也需要同步建立类似机制。因为这类模型真正令人担心的,不只是国家之间的竞争,而是向非国家行为体扩散的风险。如果美国严控、中国不管,那么恐怖组织、极端势力或者跨国犯罪网络,即便拿不到美方的模型,也可能从中方获得类似能力;反过来也是一样。最终结果,很可能是谁都没法真正控制扩散,所谓管控体系也会失去意义。
第三,美国未来可能会希望和中国建立某种双边层面的AI安全护栏,尤其是在军事和高危用途上。例如,双方可能会尝试明确限制将 Mythos 这类大模型用于网络战、生物武器研发或其他高危攻击场景;甚至不排除参考奥巴马时期中美网络安全协议的思路,形成某种默契,比如双方都不使用这类模型攻击彼此的民用关键基础设施。
文章仅做学术探讨和研究交流使用,相关判断不代表任何公司或机构立场,也不构成任何商业或投资建议。转载请注明出处。
声明:本文来自东不压桥研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。