人工智能(AI)已深度嵌入到军事领域的各个环节,在显著提升作战、指挥控制与后勤效率的同时,也为其带来了前所未有的复杂性。近年来,国外在“AI与作战模式”“AI与指挥控制”“AI与综合保障”,以及“AI与风险管控”等方面进行了大量的复杂性研究。本文据此脉络,对国外在此四个关键领域的研究热点进行梳理与浅析。
AI与作战模式的复杂性研究
无人自主作战的复杂性。国外AI在军事领域的运用已进入实践验证阶段,部分领域研究成果已接近实战运用水平。但从其公开的研究结果看,AI赋能的无人自主作战较传统作战模式更为复杂。2022年11月,美军第59特遣队在巴林麦纳麦举行了“数字地平线”演习,重点验证无人系统与AI的协同作战能力。演习中,各无人平台依托自身传感器和独特的功能模块,通过Mesh通信网将数据共享给岸基机器人操作中心;情报分析人员在该中心运用AI和机器学习技术对信息进行处理和分析,以识别“正常目标”与“非正常目标”,从而大大提升特遣队的战场感知能力。这一过程的复杂性在于:构建了一个动态、自适应的感知-决策网络,其数据融合与识别节奏是机器驱动的,对通信质量和算法可靠性提出了极高要求。2023年9月,护盾人工智能公司(Shield AI)开展了无人平台复杂编队飞行实验,进一步验证了AI的自主控制能力,也揭示了自主控制的复杂性。该公司使用了自研的蜂脑(Hivemind AI)智能驾驶软件,控制无人机编队执行多种复杂的作战任务,包括综合突防、导弹拦截、区域侦察、防空、超视距打击、海域探测和电子对抗等。

V-BAT无人机
有人无人协同作战的复杂性。从外军实践来看,有人/无人混合编组系统的作战程序比传统部队更加复杂;同时,其在建设发展、组织过程、保障条件等方面的复杂性也远超传统作战力量。2022年7月,美国克拉托斯公司宣布用两架量产型女武神无人机成功完成一系列“天空博格人”试飞工作。该项目旨在将自主核心系统与模块化、低成本无人机平台相结合,使无人机能与有人机协同,自主执行复杂的作战任务。自主核心系统集成了一系列传感器和先进的算法,采用开放式架构,能够根据有人机飞行员设置的既定交战规则自主决策。这标志着作战决策权从飞行员向自主系统的部分转移,由此带来了人机之间如何建立动态信任、划分控制权限的全新复杂性。2023年9月,洛克希德·马丁公司与爱荷华大学实验室联合完成了一项AI演示,使用两架L-29飞机(作为无人驾驶系统)模拟在干扰支援环境下执行空对地任务。AI辅助电子攻击任务的成功执行,展示出自主无人驾驶航空系统在未来作战行动中如何与有人驾驶战术平台协同作战,从而构建一个强大、统一的团队来应对复杂的威胁。这次演示尤其凸显了在复杂电磁环境中,维持有人与无人系统之间稳定、可靠、协同的复杂性。

L-29飞机
AI与指挥控制的复杂性研究
AI技术在指挥控制领域的应用需辩证看待。一方面,AI技术通过增加指挥控制系统的复杂功能,将降低作战人员决策过程的复杂性。另一方面,AI技术在融入指控系统过程中也面临着复杂的挑战。
AI技术通过增加系统复杂功能来缓解作战人员决策复杂性。国外相关研究发现,2017年,美国Anduril公司研制的“晶格”系列指挥控制平台利用传感器融合、计算机视觉、边缘计算、机器学习和AI等技术,检测、跟踪和区分作战人员关注的所有目标。这一系统除了结构复杂,还拥有复杂的功能,能够集成全球陆地、海上、空中和太空多个领域的数千个传感器和效应器,可智能生成通用作战图。该系统能够对现有系统和服务进行集成,其开放的、模块化和可扩展的硬件组件支持自主感知和指挥控制功能,能够自主执行防务任务。该系统专为高风险和动态环境而设计,使用深度学习模型向作战人员提供决策点并推荐方案,显著简化了决策过程的复杂性。2018年12月,美陆军训练与条令司令部多位专家联合发布《利用AI辅助指挥官进行复杂决策》报告,建议结合AI,以辅助指挥官进行复杂决策。该报告认为由于作战环境的变化,军事决策的复杂性正在增加,各类复杂系统以意想不到的方式互动,其未来行为难以预测,导致决策也更加困难。报告认为,尽管未来作战将面临以上困境,但都可以借助AI技术加以解决。

“晶格”指挥控制平台界面
AI融入指挥控制过程的“复杂性”。虽然AI在军事领域的运用前景可观,但要真正融入指挥控制流程,仍然面临诸多的困难。AI军事运用的实现,需要基于对军事需求的详细分析。AI算法被开发运用于现实、动态、多领域、大规模和快节奏的作战,需要选择、评估和监控重要的度量标准来衡量算法的性能、有效性和适用性。商业和学术界的AI或机器学习(ML)系统并不能直接应用于军事任务,需要过渡到军事环境才能带来指控优势。为了决定采用哪些技术,军方必须首先了解作战需求,如空中优势、防空、加油机支持等。然而,商用AI在转入军用领域同样面临复杂挑战。2022年3月,美国兰德公司发布《开发嵌入AI应用的联合全域指挥控制作战概念》报告,论述了嵌入AI/ML的联合全域指挥控制(JADC2)的需求,还说明了如何在JADC2中利用商业AI/机器学习系统,以及需要克服的困难,并指出了发展路径。因此,了解这些技术的局限性,及在不确定条件下运用的潜在困难,也同样重要。
AI与综合保障的复杂性研究
国外研究显示,在后勤、装备保障等行动中引入AI技术,不仅将有效提升保障行动的效率,还将深刻改变保障体系的运行模式,带来了新的复杂性。这种复杂性体现在,AI系统在帮助人类应对原有复杂挑战的过程中,其自身的集成、应用与可信赖管理也构成了全新的复杂课题。
AI与后勤保障的复杂性。关于AI与后勤保障的复杂性问题,国外的研究和实验表明,AI在帮助管理后勤筹划固有复杂性的同时,其解决方案也内嵌了新的技术复杂性。2022年6月,DEFCON AI公司获得美空军部第二阶段“小型企业创新研究”合同,以支持开发其基于AI的战役级后勤和机动培训软件。该软件通过创建仿真模型,模拟空中机动司令部在发生自然或对抗性中断情况时,为决策者提供后勤决策的不同选项。DEFCON AI的软件使用AI梳理可用选项并进行排序,同时构建仿真的虚拟世界,用于获取后勤相关数据,并将其与现实数据进行比较,为决策提供支撑,提升后勤效率,以有效应对后勤保障工作的复杂性挑战。2023年1月,美空军研究实验室的空运挑战赛,其背景在于后勤规划是一个受多重因素影响的“众所周知的复杂问题”。作为空运行动的一部分,规划后勤运送任务常常受到恶劣天气或其他意外事件,以及飞机速度、运载能力和机场最大容量等多种因素的影响。AI算法虽能快速规划新方案以应对突发干扰,但其复杂性也随之转移,即如何确保AI在压力下做出的复杂决策是可靠、可解释且符合军事规则的,这本身就成了一个新的管理难题。
AI与装备保障的复杂性。随着现代装备的复杂程度与日俱增,采购、运送和维修工作几乎变成一项“不可能完成”的任务,AI技术在装备保障领域的运用,很大程度上解决了这一复杂性问题。据国外媒体报道,爱沙尼亚Magnetic MRO飞机维修公司利用美国Sky Select公司提供的AI自动化备件采购平台开展备件采购工作,以减轻其工作量、提高运营效率并节省成本。该平台通过集成AI技术,能够提供从备件需求提出到交付的端到端无缝采购服务。Magnetic MRO飞机维修公司应用该平台已在降低成本和提高生产率方面取得了卓越的成果。据悉,采购中79%的工作是由AI完全自动化完成的,在带来效率提高的同时,其复杂性也随之显现:将采购的大部分工作交给AI算法,会提升对算法决策、数据安全和系统稳定性的依赖程度,任何一环节的意外都可能引发连锁风险。

爱沙尼亚Magnetic MRO飞机
维修公司现场作业照片
AI与风险管控的复杂性研究
AI的广泛运用,在提升装备性能、作战效能与指挥控制能力的同时,也增加了军事体系的复杂性与不确定性风险。因此,对AI在军事领域的应用必须受到更加严格的管控,这已不仅是简单的技术规范,更成为一项涉及技术、制度与战略博弈的复杂系统工程。国外研究与实践表明,AI风险管控的复杂性,集中体现在从“采购源头”到“实战应用”的全过程之中。
AI与采购风险管控的复杂性。国外对于如何确保AI装备采购的科学性和有效性,以及如何降低采购中的风险等问题进行了研究,产生出一些有效的成果。2022年6月,美国防部常务副部长希克斯签署“负责任的AI战略和实施途径”文件,旨在指导美国防部制定实施AI基本原则的战略。包括如何利用AI的框架(调整管理结构和流程,持续监督国防部对AI技术的使用);系统操作员需达到标准水平的技术熟练程度,以创建可信的AI系统和AI赋能系统;考虑AI采办风险,并使AI开发速度满足国防部需求;使用需求验证程序,确保AI能力与作战需求保持一致,解决相关的AI风险;通过国内和国际合作促进对设计、开发、部署和使用AI的共同理解;确保所有国防部相关人员理解实施AI的技术、开发过程和操作方法;利用AI提升装备采购效能。2021年,澳大利亚国防部发布《打赢AI之战——AI赋能的未来作战构想》报告,提出了“原型战”概念。该概念是指在AI的支持下,通过快速开发和部署技术来快速适应不断变化的作战环境(OE),新兴的战术、技术和程序(TTP),以及克服人力、能力和范围方面的缺点或挑战。简单来说,就是通过利用先进制造技术按需生产大型机器人,为特定的行动或冲突快速定制智能无人机。而这一过程同样面临快速响应与可靠保障之间的平衡难题,对传统采购流程构成了复杂挑战。
AI与意外风险管控的复杂性。对于军事领域而言,AI是一把“双刃剑”,在充分发挥其功能的同时,必须加强对AI引发意外风险的管控。2023年3月,美国安全与新兴技术中心发布报告《为军事决策优势降低AI的风险》,报告认为要从AI的决策优势中获益,首先需要理解它的局限性和缺陷。AI系统根据数据模式做出预测,总有一些意外行为或失败的可能性,而管控措施本身就会引入新的复杂性:现有的工具和技术试图让AI对故障更加稳健,这往往需要进行性能权衡,这种“解决一个问题,但可能会恶化另一个问题”的悖论,正是复杂性的典型体现。人们越来越意识到,AI的弱点和缺陷带来的现实部署环境中的技术故障问题,将更为复杂。AI故障在真实战略环境中与人为判断、危机动态交织互动,可能意外引发危机或冲突的升级,这使得管控措施必须超越单纯的技术层面,成为一个涉及技术、流程和人类认知的系统工程。此复杂性还体现在对AI“先天缺陷”的认知与应对上。2022年2月,美国海军学会会报发布《AI:太脆弱而无法战斗?》一文,文章认为,人们对于AI的技术优势往往过于乐观,美国一部分领导人甚至担忧不采用AI就会有失去军事技术竞争优势的风险。虽然AI在一定条件下可以很好地支持作战人员或美国防部的现有工作,但是AI仍具有持久的、关键的漏洞。如果国防应用程序要保持弹性和有效性,就必须全面掌握和有效弥补这些漏洞,否则在关键作战能力中引用AI,就可能导致核心要害部位出现灾难性风险。因此,风险管控远非简单设防,而是一场在效能提升与安全底线之间进行的复杂博弈。
版权声明:本文刊于2025年 12 期《军事文摘》杂志,作者:木子、戴思莹,如需转载请务必注明“转自《军事文摘》”。
声明:本文来自军事文摘,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。