发报告指责中国AI公司蒸馏自己的模型几天后,Anthropic倒了大霉。

特朗普今天表示,美国政府将把 Anthropic 列入黑名单,美国国防部也宣布该公司为“供应链风险”。五角大楼将终止与 Anthropic 的合同(价值最高达 2 亿美元),并要求国防部的承包商证明其工作流程中不再使用 Claude。通常来说,这是中国公司才最容易“享受”的待遇。

特朗普发的Truth Social全文:

美利坚合众国绝不会允许一家激进左翼、“觉醒主义”的公司来决定我们伟大的军队如何作战、如何赢得战争!这一决定权属于你们的三军统帅,也属于我任命来领导我们军队的卓越将领们。

Anthropic那帮左翼疯子试图对“战争部”施压,强迫其遵守他们的服务条款,而不是遵守我们的宪法,这是一个灾难性的错误。他们的自私行为正在将美国人民的生命置于风险之中,让我们的部队陷入危险,使我们的国家安全岌岌可危。

因此,我已指示美国政府的每一个联邦机构,立即停止使用Anthropic的所有技术。我们不需要它,我们不想要它,也不会再与他们做生意!对于像“战争部”这样在不同层级使用Anthropic产品的机构,将设立为期六个月的过渡退出期。Anthropic最好在这段退出期内改正自身问题,并提供配合,否则我将动用总统的全部权力迫使其遵守,届时将面临重大的民事与刑事后果。

我们将决定我们国家的命运——而不是一家失控的、由对现实世界一无所知的人运营的激进左翼人工智能公司。感谢你们对此事的关注。让美国再次伟大!

唐纳德·J·特朗普

美国总统


简单说一下事情的来龙去脉。Anthropic 和美国国防部签了一份大约 2 亿美元的合同,通过国防部的首席数字与人工智能办公室来执行。这个部门专门负责把 AI 技术整合进军方体系。

和其他 AI 公司不同,Anthropic 不是外围供应商,而是已经深度嵌入军方系统的正式承包商。

国防部有多个网络层级:NIPRNET(非密)、SIPRNET(秘密级)、JWICS(最高机密)。目前,Anthropic 是唯一一家在涉密网络上提供大模型能力的公司。其他公司——包括谷歌、xAI、OpenAI——虽然也与国防部合作,但大多还停留在非密环境。涉密网络才是实战、情报和敏感行动真正发生的地方。

换句话说,Claude 现在是五角大楼内部最核心的大模型能力之一。

而且它不仅仅是试验性部署,已经用在实战中了。据《华尔街日报》报道,支持抓捕委内瑞拉前总统马杜罗的行动就使用了 Anthropic 的 AI 能力。考虑到 Claude 在代码和网络安全方面的优势,很可能涉及攻防一体的网络能力。

五角大楼官员私下也承认这一点。一位匿名高级官员对 Axios 说,其他模型在政府场景中“就是落后”,突然换供应商会非常痛苦。

确实,普通用户更换 AI 模型几乎没有成本,但军方不是普通用户。一旦基于 API、大规模系统集成和自动化代理构建作战能力,切换成本极高。这也是国防部对 Anthropic 如此恼火的一个现实原因。

问题出在合同重新谈判的时候。

争议主要围绕“服务条款”。Anthropic 一直强调“安全优先”和“宪法式 AI”。哪怕是给政府客户的版本,也坚持保留两条底线:不能用于大规模国内监控,不能部署为针对有人目标的致命性自主武器。公司并不是说永远不能研究这些技术,而是认为现在技术还不成熟,不适合实战部署。

五角大楼的回应则非常直接:军方必须拥有在所有合法场景下使用工具的自由。军事用途是否正当,应由民选政府和军方自己决定,而不是由一家承包商通过合同条款设限。如果某种武器或战术有争议,就像越战时期关于凝固汽油弹的争议,那应该在国会或公共政策层面讨论,而不是写进服务条款里,由生产公司单方面限制。

在他们看来,当国家安全面临威胁、军人处于战场时,军方必须保有最大程度的灵活性。

谈判因此僵住了。随后局势迅速升级。国防部长赫格塞斯向 Anthropic CEO 下达最后通牒:要么取消这些限制,要么面临终止合同、被认定为“供应链风险”,甚至被依据《国防生产法》强制执行。

“供应链风险”听上去像是个技术词汇,但在国防语境中,这几乎是核选项。通常只有跟外国敌对势力有关联的公司才会被贴上这种标签。一旦被认定,国防部不能再和你合作,所有跟国防部有业务的公司也不能和你往来。这不仅是终止合同,而是几乎从国家安全生态系统中被清除。

至于《国防生产法》,那原本是用于战争或紧急状态下强制企业优先生产关键物资的法律。如果对一家 AI 公司动用这部法律,就意味着政府可以要求它按军方要求提供技术。

讽刺的是,这两个威胁之间本身存在矛盾:一边说你是供应链风险,不可信;另一边又说你对国家安全至关重要,必须强制服务。逻辑上很难自洽。

这场风波让人想起 2018 年谷歌退出 Maven 项目。当年谷歌因内部抗议退出一个相对温和的军事 AI 项目,曾让军方和硅谷关系陷入低谷。如今情况:一家顶尖 AI 公司不仅参与,而且深度参与涉密作战支持,却因为坚持两条伦理红线而面临强硬压力。

如果此时采取极端手段,对整个 AI 行业释放的信号会非常清晰:与国防部深度合作,本身就可能带来巨大政治风险。这对美国试图保持 AI 领先地位来说,并不是一个轻松的代价。

人工智能本身就是两用技术。Claude 在代码生成和网络能力方面非常强,这些能力既可以用于防御,也可以用于进攻。军方自然希望最大化能力空间;公司则担心失控使用会损害自身使命和公众信任。双方其实都有可以理解的理由。

但Anthropic确实太硬刚了,就变得很不好看。相比之下,Open AI就更油一些。

它跟五角大楼谈了个规则,五角大楼已经同意了,虽然双方还没有签署正式合同。

OpenAI 首席执行官 Sam Altman 在一份深夜发给员工的内部邮件里,把公司的立场讲了一下。

首先,他明确,OpenAI 和 Anthropic 一样,不赞成把 ChatGPT 用于大规模监控,也不支持把它直接用于自主武器系统。同时,公司希望在实际部署过程中,能够不断优化和加强安全机制和监测体系。

OpenAI 还提出,希望有具备安全许可的研究人员参与其中,专门负责跟踪模型在军方系统里的使用情况,并及时向政府提供风险评估和建议。

在技术层面,OpenAI 也要求设置一些“安全护栏”。比如,模型应该主要运行在云端,而不是被直接部署在类似自主武器这样的边缘设备上。

目前已经有300多个谷歌的员工和60多个OpenAI的员工写了公开信声援Anthropic。信函全文:

国防部正在威胁:

动用《国防生产法》,强制 Anthropic 向军方提供模型服务,并按照军方需求“定制”模型;

将Anthropic列为“供应链风险”;

而这一切,都是因为 Anthropic 坚持自己的底线——拒绝让模型被用于国内大规模监控,以及在没有人类监督的情况下自主杀伤。

与此同时,五角大楼也在与 Google 和 OpenAI 谈判,试图说服他们接受 Anthropic 已经拒绝的那些条件。

他们的策略很明显:利用彼此之间的竞争和不确定性,制造恐惧,分化各家公司。只要我们彼此不知道对方的立场,这种策略就可能奏效。而这封信的目的,就是在战争部施加压力的情况下,建立共同认知和团结。

我们是 Google 和 OpenAI 的员工——全球最顶尖的两家 AI 公司之一。

我们希望我们的领导层能够放下分歧,团结一致,继续拒绝战争部目前的要求——拒绝允许我们的模型被用于国内大规模监控,或在没有人类监督的情况下进行自主杀伤。

声明:本文来自礼士蛮,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。