作者 | 肖恩

编辑 | 德新

哈梅内伊被确认死亡后,一篇标题耸动的文章开始在外网传播:《揭秘首个由AI主导的高级别刺杀行动:Claude和Palantir如何杀死哈梅内伊》。

文章给了一个戏剧性的结论:2月28日对伊朗最高领袖哈梅内伊的斩首打击,是"人类历史上第一次由人工智能在杀伤链中完全主导的高级别刺杀行动"。

这篇文章描绘了一条完整的“AI 杀伤链”:

  • Palantir的数据平台是"战场大脑";

  • Anthropic的Claude AI 将截获的波斯语通信和特工报告瞬间整理成可执行目标;

  • SpaceX的Starshield卫星提供加密通信;

  • 以色列的Lavender系统完成目标追踪;

  • Anduril和Shield AI的无人机执行最后的"软件定义打击"。

文章迅速被各大外媒平台转载。印度媒体WION甚至提出了一个耸人听闻的问题:"如果Claude AI能帮助杀死一个国家的领导人,你真的觉得你的正常工作是安全的吗?"

在国内的网络上,"AI杀死哈梅内伊"成了当周最热的科技话题。各种自媒体在此基础上二次创作,AI被描绘成了一个无所不能的战争之神,它看见一切,分析一切,杀死一切。这个故事传播得很快,因为它足够简单,足够爽,完全符合社交媒体的节奏。

那天早晨,在德黑兰帕斯特街到底发生了什么?这场行动,真的像网络上所说的那样——由AI主导吗?

帕斯特街上空的30枚"麻雀"

2026年2月28日,德黑兰时间上午约9点40分。在德黑兰市中心帕斯特街的一座官邸内,伊朗最高领袖阿亚图拉·阿里·哈梅内伊正在参加一场例行的周六早餐会议。与他同桌的还有数十名伊朗高级官员。

几分钟后,天空中出现了30枚导弹。这是被称为“麻雀”(Sparrow)的空对地武器,从以色列战机上发射,几乎同时击穿了这座建筑。86岁的哈梅内伊当场身亡。与他一同遇难的,还有约40多名伊朗高级官员,其中包括他的女儿、女婿和孙辈。他的妻子曼苏雷·霍贾斯特·巴盖尔扎德在两天后因伤去世。

这次打击是一场更大规模军事行动的一部分。

以色列方面的行动代号是"咆哮雄狮"(Operation Roaring Lion),美国方面称其为"史诗之怒"(Operation Epic Fury)。据CNN和NPR报道,行动开始后24小时内,美以联军对伊朗境内超过1000个目标实施了打击,动用了战斧巡航导弹、B-2隐身轰炸机和攻击无人机。但这场斩首行动中最关键的一步,确认哈梅内伊的具体位置,并不是算法完成的。

CBS新闻援引多名美国情报官员的说法称,在行动开始数月前,CIA已开始追踪哈梅内伊的行踪,情报网络逐步深入,最终一名高级人力情报源提供了关键确认:哈梅内伊将出席2月28日的那场早餐会。这条情报随后被迅速共享给以色列方面,并直接推动了行动时间表的确定。

与此同时,以色列方面的情报渗透已经持续了更长时间。

《金融时报》的调查显示,摩萨德在数年前就已成功入侵德黑兰的大量交通监控摄像头。这些画面被加密后实时传回以色列服务器。其中一个摄像头正对哈梅内伊官邸附近的街道,它捕捉到了一个细节——保镖们停放私家车的位置发生了变化。在情报行业里,这是一个经典信号:保镖的车停在哪里,要人往往就在哪里。

在另一条线上,美国国家安全局(NSA)破解了伊朗伊斯兰革命卫队(IRGC)使用的加密手机和无线电通信网络,美以两国因此能实时监听高层会议的安排调度。行动当天,帕斯特街的蜂窝信号被切断,安保人员无法接到预警电话。

哈梅内伊本人可能对危险有所感知,但他做了一个和2024年在贝鲁特地下掩体中被炸死的真主党领导人纳斯鲁拉相反的选择:他拒绝转入地下。据多家媒体援引伊朗方面消息,他将潜在的被刺杀视为一种"殉道"。

那么,在这场行动中,AI究竟扮演了什么角色?

据《金融时报》和《耶路撒冷邮报》的报道,以色列军事情报的核心技术部门Unit 8200,负责这次行动中大量信号情报的收集和处理。一些独立研究机构甚至将Unit 8200的技术能力与美国国家安全局(NSA)相提并论。在以色列科技行业,大量顶级公司的创始团队都出身于这个部门。

Unit 8200的算法系统为哈梅内伊安保团队建立了一套"生活模式"(pattern of life)模型,这套模型会持续追踪多个维度的信息:保镖的住址、值班时间、通勤路线,以及不同官员与安保人员之间的对应关系。社交网络分析工具随后从数十亿个数据点中筛选信息,用来识别决策网络中的关键节点。

但《金融时报》的调查也指出了一个关键事实:AI系统确实加速了情报的处理与分析,但决定性情报,哈梅内伊的确切位置和行程,仍然来自人力情报源和多年积累的情报渗透网络。

以色列前摩萨德官员西玛·夏因在接受《金融时报》采访时提到,以色列对伊朗的战略情报关注可以追溯到2001年,当时,总理沙龙指示情报局长梅尔·达甘将伊朗列为首要目标。那是25年前。

真正终结哈梅内伊的,是蛰伏了四分之一个世纪的特工暗线、持续数年的网络渗透,以及最终跨越红线的政治决断。AI确实完成了数据提纯,也优化了打击时间表,但它只提供了瞄准镜,真正主导战局的,依然是人的意志。

从SAGE到Maven的七十年

AI在军事领域的作用,远不是从帕斯特街那次行动才开始的。计算机与战争的纠缠,比大多数人想象的要早得多。而驱动这一切的逻辑,从一开始就没有改变过:谁能更快做出决策,谁就赢。

早在1950年代,美国就已经尝试用计算机参与战争决策。1951年上线的SAGE防空系统,通过遍布全国的雷达和电话线路连接成一个巨大网络,用来探测苏联轰炸机并指挥拦截。这套系统由MIT林肯实验室设计、IBM制造硬件,总成本甚至超过了曼哈顿计划。SAGE一直运行到1984年才退役。

美国空军上校约翰·博伊德后来把这种逻辑总结为著名的OODA循环:

观察(Observe) → 判断(Orient) → 决策(Decide) → 行动(Act)。

在博伊德看来,战争胜负往往不取决于武器本身,而取决于谁能更快完成这一循环。这个理论至今仍然是五角大楼讨论军事AI时最常引用的概念之一。

1991年的海湾战争第一次大规模验证了这种逻辑。精确制导武器只占全部投弹量的 8%,却产生了不成比例的打击效果。GPS导航和无人侦察机也开始在战场上广泛使用。但真正改变游戏规则的,是之后出现的人工智能。

转折点出现在2017年。当年4月26日,美国国防部正式启动Project Maven——“算法战跨职能团队”。Maven的目标很简单:用机器学习分析无人机视频,从海量影像中自动识别车辆、人员和异常活动。在此之前,大量情报分析师必须逐帧观看无人机视频。Maven试图让算法完成这项工作。

Maven最早的合作伙伴是Google。但合作消息曝光后,引发了硅谷历史上最激烈的一次内部抗议。数千名员工签署请愿信,要求公司退出军事AI项目。至少12名员工因此辞职。最终,Google选择不再续约。Palantir联合创始人彼得·泰尔(Peter Thiel)当时说了一句很直白的话:你Google不干,有的是人干,而且会干得很开心。

他说的那个人就是他自己。2019年,Palantir接手了Maven项目。这家公司从创立之初就与情报界关系密切,CIA投资机构In-Q-Tel是其早期投资者之一。Maven在Palantir手中迅速膨胀:合同金额从最初的4.8亿美元涨到13亿美元,2025年5月时已有超过2万名活跃用户,覆盖美军五大战区司令部和各军种。2025年8月,Palantir又签下了100亿美元的陆军企业协议,把75份独立合同打包成一笔交易。截至2026年2月,Maven系统运行在AWS云上,集成了Anthropic的Claude AI。

Maven项目很快催生出一个新的军事AI产业生态。2017年,帕尔默·拉基(Palmer Luckey)创立了Anduril Industries。拉基是Oculus VR的创始人,2017年被Facebook/Meta扫地出门后转向国防科技。Anduril的核心产品Lattice是一个AI驱动的战场管理平台,把传感器、无人机、摄像头、雷达和地面车辆连接成一张实时网络。2024年营收10亿美元;2025年2月估值280亿,半年前这个数字还是140亿。

另一家Shield AI在圣地亚哥做得更极端,它的Hivemind系统让无人机在没有GPS、没有通信的环境中自主飞行和决策。V-BAT是目前唯一穿透乌克兰和俄罗斯双方电子干扰的长航时平台,2025年在乌克兰执行了超过35次实战任务。以色列那边,Elbit Systems手握252亿美元订单积压,正在为IDF部署第五代数字地面部队系统Tzayad;Rafael的铁穹自2011年以来拦截了5000多枚火箭,成功率超过90%。

这些公司有一个共同特征。它们的创始人和投资者在硅谷和国防界之间反复横跳:泰尔从PayPal到Palantir,拉基从Oculus到Anduril,In-Q-Tel同时投资情报工具和消费科技。并不是巧合。军事AI和民用AI共享同一个人才池、同一套算法基础、同一批GPU。区别只在于训练数据从商品推荐变成了目标识别,从用户画像变成了生活模式建模。

当我们讨论"AI军事化"的时候,其实忽略了一个最根本的事实:军事AI和民用AI之间的边界,从一开始就不存在。

让这条模糊边界产生真实后果的,是在加沙战场。

20秒的道德假装

2024年4月,以色列记者尤瓦尔·亚伯拉罕在《+972》杂志和 Local Call 上发表了一篇调查报道。报道基于6名以色列军事情报官员的匿名证词,揭露了以色列军方在加沙战争中使用的一套AI目标生成系统。

这套系统被称为Lavender。Lavender使用机器学习算法,为加沙地带的每一名居民分配一个评分——这个人属于哈马斯或巴勒斯坦伊斯兰圣战组织成员的概率。据亚伯拉罕的报道,Lavender一度将37000名巴勒斯坦男性标记为潜在打击目标。系统整合了视频监控、截获的通信、卫星影像、社交媒体数据和社交网络分析,交叉比对后给出评分。

这套系统自己承认的误差率约为10%。换句话说,每10个被标记的人里,可能就有1个是错误的目标。更令人震惊的是审批流程。根据那6名情报官员的证词,军方审核每一个打击目标平均只花约20秒。一名参与项目的情报官员说得很直接:“这20秒不是在做判断。这20秒只是走个流程。”

和Lavender配套的还有另一套追踪系统,名字叫"爸爸在哪?"(Where"s Daddy?)。这个讽刺的名字却做着最狠的事:追踪被Lavender标记的目标什么时候回家,下一秒让目标明白谁才是“爸爸”。一名情报官员向《+972》杂志解释:军方往往更倾向于在目标回到家中时发动打击。原因很简单——人在自己家里的概率最高,位置最容易确认。但是炸弹落在一栋住宅楼上时,里面不会只有目标一个人。

第三套系统叫Gospel(希伯来语名Habsora),它的任务不是寻找某个人,而是生成建筑物级别的打击目标。Gospel会自动分析监控数据,并把建筑物分成四类:

  • 军事设施;

  • 地下隧道;

  • 被标记武装分子的住宅;

  • 以及所谓"权力目标":用来制造震慑效果的民用建筑。

这套系统每天可以生成约100个打击目标。在此之前,人类情报分析师一年大约只能生成50个。

到2023年11月,以色列国防军宣布,Gospel系统已经帮助轰炸了超过12000个目标。在某些高强度阶段,军方每天发动多达250次打击。IDF发言人海军少将丹尼尔·哈加里(Daniel Hagari)对媒体说了一句后来被反复引用的话:在加沙,重点是破坏力,而不是精确度。一名前情报官员后来把这整套系统称为:“一个大规模暗杀工厂。”

后果可以用几个数字来说明。到2025年5月,加沙的总死亡人数已经超过53000人。其中以色列军方估计约8900人是武装人员。简单计算一下:超过80%的死者是平民。

在战争早期,军方内部的政策允许每打击一名被Lavender标记的低级成员,可以接受 15到20名平民的附带伤亡。如果目标是高级指挥官,数百名平民死亡也被认为是可以接受的代价。

这不是算法的问题,这是人做出的政策选择。算法只是让这些选择能够以工业化的速度被执行。

没有名字的新战争形态

加沙并不是孤例。观察AI军事化最清晰的窗口,在乌克兰战场。

乌克兰的无人机生产规模在短时间内急剧膨胀。2024年,乌克兰生产约220万架无人机。到2025年,这个数字已经接近450万架。

欧盟的评估甚至认为,在更大规模的对俄冲突中,仅仅防御立陶宛一个国家,每年就需要约300万架无人机。这些数字背后,是战场形态的根本变化。无人机正在从遥控飞行器,变成自主作战单元。

德国公司Helsing AI向乌克兰提供的一些无人机系统,已经能够在没有持续数据链的情况下自主识别目标并发动攻击。2025年,Auterion发布了Nemyx蜂群打击系统。这套系统可以协调不同型号、不同厂商的无人机组成一个统一的AI攻击编队。

美国国防部推出的Replicator计划,目标是在2026年前为每个现役作战师部署约1000架无人机。全球军用无人机市场也在迅速扩大。2023年规模约144亿美元,预计到2032年将增长至471亿美元。

一位前美国国防部官员曾这样总结这种变化:“在美国,我们仍然强调人在决策链路中。但我们的对手,可能不会那么在意。”

国际社会其实早已意识到这个问题。联合国从2014年开始讨论致命自主武器系统(LAWS)的监管。但到目前为止,真正具有约束力的条约仍然没有出现。

一个重要原因是,几个军事AI投入最大的国家——美国、俄罗斯、印度和以色列,一直阻止具有强制力的国际条约出现。

结语

“AI杀死哈梅内伊”的故事,把一个复杂现实简化成了惊悚小说。

在帕斯特街那个早晨,真正决定结果的是:25年的情报积累,数年的网络渗透,一个关键的人力情报源以及最终的政治决断。

AI只是加速了分析,优化了时间表。它参与了,但并没有主导。

不过,这个结论的保质期可能不会太长。一些无人机已经可以自主完成打击任务。在加沙,AI每天生成上百个打击目标,而人类只用20秒完成审批。

这20秒,大概是人类留给自己的最后一段判断时间。

声明:本文来自大蒜粒机研所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。