编者按:美国人工智能巨头Anthropic与特朗普政府围绕军事AI伦理的冲突最终以决裂告终,导致美国政府宣布对该公司实施限制和制裁。该事件将导致美国防部在关键情报与作战领域面临短期“能力真空”,更引发了业界对政府以极端手段干预技术伦理、破坏军民合作生态的广泛担忧,标志着硅谷与美国政府在AI军事化道路上的矛盾达到了空前尖锐的程度。
此次公开对峙的立场分歧核心在于:美国防部要求获得Anthropic公司Claude模型的“无限制的访问权”,以便将其用于“所有合法目的”;Anthropic则坚持保留Claude模型中关于“大规模国内监控”和“全自主武器”的两项限制,拒绝“昧着良心”做出让步。美国防部强调,不会允许科技公司“凌驾于国会法律之上”来制定使用政策,美军需要根据自身“合法”应用场景设置护栏,而非接受企业预设的限制;Anthropic公司则坚称,该公司已主动将Claude模型部署于国防部及情报机构的机密网络、国家实验室,并用于支持情报分析、作战规划、网络作战等关键任务,而两个例外情况迄今为止并未阻碍美军加快采用和使用Claude模型。此外,Anthropic改变Claude安全护栏还存在技术层面的根本性矛盾:安全限制并非后期添加,而是从模型训练初期即深度嵌入其核心架构;移除限制将是对模型的“根本性改变”,而非简单操作;若为美军单独调整模型,Anthropic需运行两套独立训练流程,成本高昂,且可能对所有版本Claude的后续行为产生连锁影响。
因Anthropic公司拒绝让步,特朗普政府实施了三级报复措施:一是美国总统特朗普签发全面禁用指令,指责该公司为“激进左翼、觉醒主义”,要求所有联邦机构立即停用Anthropic技术,给予国防等相关机构6个月过渡期,要求该公司配合并威胁否则将追究民事及刑事责任;二是美国防部长皮特·赫格塞斯将Anthropic列为“国家安全供应链风险”,禁止任何国防承包商与其开展商业活动,指责其“企图攫取对军方作战决策的否决权”;三是美国总务管理局、国务院、卫生与公众服务部等机构同步行动,将Anthropic从采购平台移除并禁用企业级Claude系统,全面切断其与联邦政府的业务往来。
美国防部对Anthropic存在深度技术依赖,因为Claude是美国防部机密网络上唯一的前沿生成式AI模型,已通过Palantir深度整合于Maven系统等机密工作流程,广泛应用于情报分析、作战规划及网络作战等关键领域。Anthropic产品在美国防部的广泛应用源于与其AWS的紧密绑定,该公司工具最适配美国防部“联合作战云能力”所依托的AWS云架构,且使用亚马逊专有Trainium芯片训练。外界评估,若全面禁用,美军可能需3至12个月才能完成替换,期间相关作战能力可能出现真空和断层。虽然OpenAI 公司2月27日宣布达成美国防部机密网络部署协议,但其伦理限制条款与Anthropic的差异尚未明确,且Claude在进攻性网络能力等特定领域仍具领先优势。美国防部自身对Claude使用程度也掌握不清,正摸排各司令部使用情况,其中印太司令部是主要用户之一。供应链风险认定将触发数据重构、实时共享中断及模型验证等连锁反应,Palantir公司须从Maven系统撤回Anthropic部件,其深远后果难以预估。
此次事件标志着美国防部对本土科技企业采取史无前例的极端施压,可能对前沿人工智能产业产生深远的“寒蝉效应”。前美国国防高级官员评论称,此举“超越惩罚范畴、近乎霸凌”,将“供应链风险”这一通常针对外国敌对势力的标签用于美国公司,不仅逻辑自相矛盾,且升级程度前所未见;此外公开冲突将导致美军AI应用面临停滞风险,可能为国际竞争对手提供战略窗口。业界人士警告称,此举向科技生态系统释放危险信号,即与联邦政府合作意味着放弃独立伦理保障或承担巨大声誉风险,长期恐阻碍领先AI企业与军方合作,削弱国防创新及美国整体技术竞争力。
奇安网情局编译有关情况,供读者参考。

美国人工智能巨头Anthropic与特朗普政府围绕军事AI伦理的冲突最终以决裂告终。因Anthropic拒绝为美军取消其Claude模型中关于“大规模国内监控”和“全自主武器”的两项核心伦理限制,美国总统特朗普下令将所有Anthropic技术从联邦机构中移除,美国防部长皮特·赫格塞斯做出该公司构成“供应链风险”的认定。
1►
事件背景与核心矛盾
2026年2月底,AI初创公司Anthropic与美国政府间的长期紧张关系演变为公开对峙。冲突的核心在于,Anthropic拒绝满足美国防部的要求,即取消其AI模型Claude在军事应用中的特定伦理限制。
消息人士还透露,美国防部与Anthropic公司之间的对话一直进行得比较正常,Anthropic公司愿意做出各种让步,但讨论公开后,双方语气发生了变化。

美国防部的要求
美国防部2025年7月与Anthropic公司签订了一份价值2亿美元的合同,该部希望该公司解除限制,允许军方将该公司Claude模型用于“所有合法用途”。以美国国防部长皮特·赫格塞斯为首的军方官员要求获得“无限制的访问权”,以便将Claude用于“所有合法目的”。美国防部认为,在面对外部竞争对手时,美军不能被私人公司的条款“束缚”。
皮特·赫格塞斯2月24日在一次气氛紧张的会议上告诉Anthropic首席执行官达里奥·阿莫迪,美国防部要么会切断与Anthropic的联系并宣布该公司为“供应链风险”,要么会援引《国防生产法》迫使该公司调整其模式以满足军方的需求。
供应链风险认定将禁止与军方签订合同的公司在其任何军事项目中使用Anthropic的产品。考虑到许多大型企业都拥有军方合同,这项认定可能会对这家人工智能公司造成重大打击,尤其是在该公司正试图拓展企业业务之际。通常情况下,只有被视为外国敌对势力延伸的企业才会被列入此类认定范围。《国防生产法》赋予美国政府为维护国家安全而强制私营公司接受并优先履行国防所需的特定合同而影响企业的权力,特朗普政府近期在新冠疫情期间援引了该法。但该法律很少以如此明目张胆的对抗方式被使用,即迫使Anthropic公司在没有任何保障措施的情况下,调整其模型以适应美国防部的需求。
美国防部负责研究和工程的副部长埃米尔·迈克尔表示,美国防部在加快美军采用前沿人工智能(AI)技术的同时,将遵守与监控、安全和民主进程相关的现有法律法规,但不会允许提供技术的公司决定其运行规则;AI公司可扮演各种角色,但是美国防部希望不同的业务和指挥部门来决定如何使用这些模型,而不是让公司告诉军方能做什么和不能做什么;任何公司不能既向美国防部出售AI产品,又不让AI产品实施美国防部该做的事;美国防部需要专为军事应用而设计的护栏,这些护栏应根据国防部的“合法”应用场景进行调整;美国防部遵守所有经过民主程序的、健全的监控法律,也颁布了许多规定来规范自主武器的部署,但“绝不会允许任何一家公司凌驾于国会通过的法律之上,制定一套新的政策”;美国防部希望能能充分利用AI“改变世界的能力”,希望私营公司能“跨越卢比孔河”(比喻破釜沉舟、打破常规),就AI产品在用于军事目的方面做出选择。

Anthropic公司的红线
Anthropic首席执行官达里奥·阿莫迪2月26日针对该公司与美国防部谈判发表声明称,利用人工智能来保卫美国和其他民主国家,并击败对手,具有关乎存亡的重要意义,因此Anthropic积极主动地将模型部署到美国防部和情报机构;Anthropic是首家将模型部署到美国政府机密网络的尖端人工智能公司,也是首家在国家实验室部署模型的公司,更是首家为国家安全客户提供定制模型的公司;Claude模型已广泛应用于美国防部和其他国家安全机构的关键任务应用,例如情报分析、建模与仿真、作战规划、网络作战等。
声明称,Anthropic公司明白军事决策是由美国防部而非私营公司做出的,从未对任何具体的军事行动提出异议,也从未试图以任何临时性的方式限制公司技术的使用;但在少数情况下,Anthropic公司认为人工智能可能会破坏而非捍卫民主价值观;某些用途也完全超出了现有技术能够安全可靠执行的范围,其中两种用途从未被纳入该公司与美国防部的合同中,现在也不应该纳入,即“大规模国内监控”和“全自主武器”;这两个例外情况迄今为止并未阻碍美军加快采用和使用该公司模型。
声明称,美国国防部已声明,只会与同意“任何合法用途”并在上述情况下移除安全措施的人工智能公司签订合同;美国防部威胁称,如果该公司继续保留这些安全措施,就会将公司产品从其系统中移除;美国防部威胁要将该公司列为“供应链风险”,这一标签通常用于美国的敌对势力,此前从未用于美国公司,并援引《国防生产法》强制移除这些安全措施;后两项威胁本身就自相矛盾,一项将该公司视为安全风险,另一项则将Claude视为国家安全不可或缺的一部分;这些威胁并不会改变该公司的立场,该公司“不能昧着良心答应美国防部的要求”。
Claude模型改变的难度
非营利组织“公民人工智能安全计划” 联合创始人 卢卡斯·汉森表示,“从Anthropic的角度来看,这里牵涉的利益远比美国国防部认为的要大得多。Anthropic公司训练其模型时,会使其具备他们认为最安全的部署特性。这是Anthropic从训练之初就着重强调的,模型的设计也充分考虑了这种特性。安全防护措施并非在训练的最后时刻才临时添加,而是从一开始就重点关注这些防护措施。移除这些防护措施并非像拆掉自行车的辅助轮或关掉开关那么简单。这将是对模型的一次深刻而根本性的改变。

卢卡斯·汉森指出,“Claude的章程规定了其行为准则,其中强调了Anthropic公司不会要求Claude执行某些特定操作。Anthropic公司为履行对Claude的这些承诺付出了相当大的努力。要求Claude执行美国防部提出的要求,就等于违背了这些承诺,这可能会对所有版本的Claude今后的行为产生重大影响。”
消费者版本的Claude模型也可能受到影响。为了移除这些限制,Anthropic公司需要为该模型设计一套完全不同的训练流程。他指出,如果Anthropic每次发布新模型时都要运行两个独立的训练流程,那成本可能会非常高昂,因此该公司很可能需要对所有版本的Claude进行一些根本性的改变。
2►
美国政府的强制措施与制裁
由于Anthropic公司在2月27日的截止日期前拒绝让步,特朗普政府采取了一系列严厉的报复措施。
全面禁用指令
美国总统特朗普在社交媒体上发文称:
“美国绝不允许一家激进左翼、觉醒主义的公司来左右我们伟大的军队如何作战和赢得战争!这项决定属于你们的美军总司令,以及我任命的杰出军队领导人。
Anthropic公司的左翼疯子们犯了一个灾难性的错误,他们试图强迫美国防部部遵守他们的服务条款,而不是我们的宪法。他们的自私自利正在将美国人的生命置于危险之中,将我们的军队置于危险之中,并将我们的国家安全置于岌岌可危之中。
因此,我指示美国政府所有联邦机构立即停止使用Anthropic公司的所有技术。我们不需要它,我们不想要它,并且不会再与他们有任何业务往来!对于像美国防部这样在不同层面使用Anthropic产品的机构,将有6个月的过渡期。Anthropic最好认真对待此事,并在过渡期内提供协助,否则我将动用总统的全部权力迫使其遵守规定,并追究其严重的民事和刑事责任。”

“供应链风险”认定
美国防部长皮特·赫格塞斯在特朗普发布措施强硬的声明后也在社交媒体发文称“本周,Anthropic公司展现了傲慢和背叛的典型案例,也为如何与美国政府或国防部开展业务树立了反面教材。
我们的立场从未动摇,也永远不会动摇:美国防部必须拥有不受限制地使用Anthropic公司模型的权限,用于所有合法的保卫国家的目的。
然而,Anthropic及其首席执行官达里奥·阿莫迪选择了虚伪。他们披着‘有效利他主义’这套伪善的外衣,企图强迫美国军方屈服——这是一种懦弱的企业道德作秀,将硅谷的意识形态置于美国民众的生命之上。
Anthropic公司这种有缺陷的利他主义的‘服务条款’永远无法凌驾于战场上美军的安全、战备和生命之上。
他们的真实目的昭然若揭:攫取对美国军方作战决策的否决权。这是不可接受的。
正如特朗普总统在Truth Social网站上所说,只有美军总司令和美国民众才能决定我们军队的命运,而不是那些未经选举的科技高管。
Anthropic公司的立场与美国的原则从根本上说不通。因此,他们与美国武装部队和联邦政府的关系已经发生了永久性的改变。
鉴于总统指示联邦政府停止使用Anthropic公司的所有技术,我指示美国防部将Anthropic公司列为国家安全供应链风险。即日起,任何与美国军方有业务往来的承包商、供应商或合作伙伴均不得与Anthropic公司开展任何商业活动。Anthropic公司将继续为美国防部提供服务,期限不超过6个月,以便顺利过渡到更优质、更符合爱国精神的服务。
美国的战士绝不会被大型科技公司的意识形态所左右。此决定为最终决定。”

采购限制
目前,多个美国政府机构已采取行动。美国总务管理局、国务院以及卫生与公众服务部立即在公开声明、评论或内部邮件中表示,他们正着手将Anthropic公司排除在外。
美国总务署表示,与特朗普的声明一致,该机构将把Anthropic从USAi.gov沙盒测试平台及其多项奖励计划采购机会中移除。美国务院发言人表示,该机构“正在立即采取措施执行该指令,并使我们的项目完全合规”。美国卫生与公众服务部副首席人工智能官阿曼·夏尔马向员工发送电子邮件称,根据该指令,该机构将“禁用企业级Claude系统”。
3►
业务与技术影响分析
据多位熟悉美国防部与人工智能制造商之间斗争的消息人士透露,如果美国防部真的将Anthropic公司的Claude人工智能平台列入黑名单,那么美国军方可能需要3个月甚至更长时间才能在其机密网络上重新获得对这种强大工具的访问权限。
美国防部的依赖度
2025年夏天,美国防部领导人公布了与 OpenAI、Anthropic、谷歌和xAI 的单独合同——每份合同价值高达 2 亿美元——用于“前沿人工智能项目”。此后,美国政府一直在机密网络、国家实验室中使用Anthropic公司的模型,并为国家安全客户创建定制模型。
在这四家公司中,目前只有Anthropic的Claude模型通过与Palantir的合作被整合到美国国防部的机密工作流程中。其余公司主要面向非机密系统。
Claude是美国防部在机密网络上公开的仅有的两个大型生成式人工智能模型之一,也是唯一一个属于前沿模型领域的尖端模型。
前沿人工智能指的是最先进、规模最大、功能最强大的基础模型,它们正在迅速推动机器智能的边界。新兴且具有颠覆性的生成式人工智能领域就属于这一范畴,它应用模型根据训练数据和用户提示中的模式,创建出令人信服但不总是正确的软件代码、文本、图像和其他类似人类的输出。生成式人工智能不仅能够分析内容,还能生成内容,其能力蕴藏着巨大的潜力,足以变革包括国防在内的诸多行业。
Anthropic公司成立于2021年,其开发的模型和工具已被美国联邦政府广泛使用,这主要得益于其与领先的云服务提供商亚马逊网络服务(AWS)的合作,Anthropic最初正是通过这种合作在国防部和情报机构站稳了脚跟。一位美国国防官员表示,Anthropic 的工具最容易部署在由AWS提供支持的云网络上,而AWS为美国防部的“联合作战云能力”贡献了最大的份额。
Anthropic和AWS两家公司关系尤为密切。AWS是Anthropic的主要云服务提供商,Anthropic使用亚马逊专有的Trainium芯片来训练其模型。相比之下,谷歌在其自有云平台上运行 Gemini,并使用TPU v5p 芯片进行训练。xAI与Oracle合作,其Grok的大部分训练都在NVIDIA H100 GPU上完成。OpenAI与微软Azure保持着“主要”合作关系,但最近也宣布与AWS建立“战略训练”合作伙伴关系。
美国防部并未透露如何使用人工智能模型,但美国防部负责研究和工程的副部长埃米尔·迈克尔暗示,美国防部的AI应用案例分为三个主要层级:一是体系应用案例,任何大型组织都会为了提高效率而采用这些案例,以在更短时间内完成更多工作;二是情报,即如何利用美国防部拥有的所有情报和数据,并从中提炼出有意义的信息,使其发挥实际作用;三是作战,即美国防部如何进行建模仿真,如何了解作战需求和差距,以及如何利用材料科学、物理学和空气动力学,以前所未有的方式和AI的速度来创建新系统。

替换难度
目前,美国国防部使用Claude进行情报分析、建模与仿真、作战规划和网络作战。专家指出,由于Claude已深度整合进现有的工作流(如Palantir的Maven系统),完全替换该能力可能需要3到12个月,甚至更长时间。
美国防部自身也也并不清楚Claude的使用程度。据报道,美国防部正在向各司令部询问他们使用 Anthropic 的程度。埃米尔·迈克尔曾表示,美国印太司令部“可能是主要用户之一”。
知情人士表示,美国防部将Anthropic公司认定为供应链风险,将会引发一系列漫长且可能代价高昂的保护措施。他们表示,操作人员必须重新配置输入到模型中的数据,重新审视如何与广泛使用Claude的情报界实时共享数据,并重新验证替代模型是否按军方预期运行。
美国某前高级国防官员表示,供应链风险认定后果将十分深远,几乎可以肯定的是,会对军方造成意想不到而且是糟糕的后果。首先,Palantir公司将不得不从Maven智能系统中撤回Anthropic公司提供的部件。
值得关注的是:埃隆·马斯克的xAI 最近签署了一份合同,将其模型 Grok应用于机密环境,但目前还不清楚它是否能够完全取代 Claude。据Axios报道,消息人士透露,美国防部一直在加快与OpenAI和谷歌的对话,讨论将他们已经可以用于非机密用途的模型转移到机密系统中。一位熟悉相关讨论的消息人士称,目前看来,Claude在一些与军事相关的应用领域,例如进攻性网络能力,似乎领先于其他领域。
2月27日深夜,OpenAI首席执行官萨姆·奥特曼宣布,OpenAI已达成协议,将公司模型部署到美国防部的机密网络中,该协议将尊重OpenAI“禁止国内大规模监控”以及“使用武力应承担的人类责任”。但他并未解释其伦理限制与Anthropic的有何不同。
4►
潜在后果与风险评估
消息人士,美国防部的举动将标志着该部采取极端应对措施,可能会对更广泛的前沿人工智能产业产生“寒蝉效应”。
某前美国高级国防官员称,“这已经超越了惩罚的范畴,简直是霸凌。将一家美国大型科技公司列为供应链风险,这种做法简直令人难以置信,我甚至难以理解他们竟然会考虑这样做。虽然我个人赞同他们‘负责任的人工智能’的理念,但人们或许并不认同,然而,采取这种做法的升级程度是我之前从未想象过的。”
该前美国高级国防官员还称,“我认为将Anthropic公司列为供应链风险的威胁十分荒谬。一方面,美国防部长声称Anthropic公司的Claude模型对国家安全至关重要,因此要求在军方范围内不受限制地使用;另一方面,他又威胁说,如果得不到满足,就要将其列为供应链风险。这两件事完全自相矛盾。”
有美国国防官员警告称,这种内部冲突可能导致美军在AI应用上出现停滞,从而给国际竞争对手留下可乘之机。

“信息技术与创新基金会”(ITIF)副总裁丹尼尔·卡斯特罗表示,如果动用非常规权力向企业施压,迫使其放弃风险控制措施,“这可能会向整个科技生态系统发出令人不寒而栗的信号。企业可能会认为,与联邦政府合作意味着放弃独立的保障措施或承担巨大的声誉风险。长此以往,这可能会阻碍领先的科技公司与美国军方合作——这将削弱国防创新和美国的整体技术竞争力。美国防部越来越依赖商业开发的军民两用人工智能系统。因此,透明度至关重要。企业需要可预测的规则,军方需要作战确定性,公众则需要确信监督机制持久且透明。”
声明:本文来自奇安网情局,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。