人工智能正深刻变革军事领域,并对国际和平与安全产生深远的影响。军事领域负责任人工智能峰会(REAIM)与《负责任地使用军事人工智能与自主性政治宣言》等倡议,把军事人工智能的讨论从致命自主武器系统(LAWS)拓展到了更广泛的人工智能军事影响,提升了国际关注度。2025年7月,联合国裁军研究所(UNIDIR)发布文章《军事领域的人工智能及其对国际和平与安全的影响》(Artificial Intelligence in the Military Domain and its Implications for International Peace and Security),分析了人工智能在军事领域的应用及其面临的挑战,并针对性地提出了对策建议。

一、军事领域人工智能的应用机遇

人工智能在军事领域有诸多的应用场景,可作为“力量倍增器”提升多项军事任务的效能,除武器系统外,还包括多个方面:

(一)指挥与控制

人工智能决策支持工具可协助指挥官进行任务规划、目标分析和行动方案制定。例如,算法能够分析战场数据识别高价值目标,或根据预设参数优化任务计划。人工智能驱动的指挥控制系统还能快速汇集并处理大规模实时数据,显著提升决策速度和质量。同时,此类系统有助于强化对国际人道法的遵守,通过整合比例性等法律评估,为指挥官提供减少附带伤害的建议,推动数据驱动下的最佳决策。

(二)信息与情报

在情报、监视与侦察(ISR)中,人工智能能够高效分析海量传感器数据、卫星图像和通信流量,识别模式、发现异常并预警潜在威胁。机器学习可自动化处理数据,发现人类分析师可能忽略的关键信息。同时,人工智能在信息管理中发挥重要作用,能融合多源数据并将相关情报精准分发至前线部队,从“大数据”中提炼可操作信息,显著增强态势感知。

(三)高级自主性

在物理空间,人工智能可显著提升无人系统的自主性,使其能够在通信受限或无法实时监控的环境中自主执行任务。即便在人类保留最终开火权的武器系统中,人工智能通过提供更高水平的自主控制,仍能带来作战优势。在数字空间,人工智能则被用于网络安全、增强网络进攻能力,以及支持认知战和信息战等任务。

(四)后勤与支持

人工智能在军事后勤中作用突出,可提升行动的持续性和灵活性。其应用涵盖设备预测性维护、供应链与运输管理、人员与物资部署优化等。例如,算法可实现补给路线智能规划,或基于需求预测精准分配备件,从而提高部队战备水平。

(五)训练与模拟

人工智能驱动的系统广泛用于军事训练,包括智能辅导系统、战争推演模拟器和虚拟现实训练平台。这些系统可在合成环境中动态优化场景并提供即时反馈。依托情报数据和历史行动经验,人工智能不仅能模拟逼真的敌方行为,还能通过分析绩效数据改进训练方案,从而提升训练效率并降低成本。

(六)其他组织与支持功能

军队可在各类行政与支援任务中引入人工智能,如人员管理、医疗保障、财务和采购等。尽管这些应用与直接作战无关,但对军队的整体动员能力至关重要,也可能成为敌方攻击的重要目标。

二、军事人工智能面临的挑战

(一)技术挑战

一是数据问题。人工智能算法依赖大量高质量训练数据,但军事场景中相关数据往往稀缺、不完整或存在偏见,可能导致系统输出结果出现不可预测的错误,甚至违反国际人道法。数据偏见可能源于性别、种族等因素,导致目标识别错误,且难以在后期完全纠正。

二是黑箱问题。多数人工智能模型具有“黑箱”特性,其决策过程难以被人类理解,削弱系统的可信度评估,并增加国际人道法违规调查的复杂性。尽管可解释人工智能技术正在发展,但其在复杂军事系统中的落地仍具挑战。

三是测试与评估。传统的军事装备采购的序贯测试,适用于确定性系统。然而,人工智能系统具备适应性,其性能会随数据变化而动态调整,因而需要持续评估和迭代的法律审查。此外,性能具有强烈的情境依赖性,在某一作战环境中表现良好的系统,在另一环境中未必可靠,且系统集成可能引入新的故障或漏洞。

四是网络安全。人工智能系统容易受到网络攻击,如数据投毒、对抗样本攻击、模型提取等,可能导致性能退化、敏感数据泄露或核心模型信息被窃取。尤其在对抗性环境中部署时,系统必须具备抗欺骗和抗操纵能力,但相关防护技术仍不够成熟。

五是人为因素。操作人员可能由于认知偏差而误用或误解人工智能输出结果,如出现自动化偏见(过度信任算法)或算法厌恶(过度怀疑算法)。不良的人机界面设计或不足的培训会进一步加剧这些问题,影响任务安全性和决策质量。

(二)安全挑战

一是升级风险。人工智能驱动系统可能引发意外升级或失去人为控制。例如,若双方部署的人工智能系统在微秒级相互响应,可能在指挥官介入前触发“算法互动式闪击战”。即使在较慢节奏下,人工智能决策辅助也可能建议激进行动,或因误读而导致无意升级。

二是军备竞赛。为避免落后,主要大国正加速投资军事人工智能,可能导致未经充分验证的技术仓促部署,甚至将战场变为新型人工智能能力的测试场。这种竞争不仅加剧不信任,还可能增加冲突风险,类似历史上的军备竞赛逻辑。

三是技术扩散。商用或开源人工智能工具可能被非国家行为体或恐怖组织改造利用,重塑冲突格局。随着军事人工智能系统的普及,其流入非法市场的风险也在上升,因此需要强化全生命周期安全管理。

四是虚假信息。生成式人工智能能够大规模制造虚假信息,影响冲突全周期。例如,深度伪造视频在战时可能被用于操纵舆论、扰乱民众情绪,甚至干扰军事决策。

(三)法律、政策与伦理挑战

一是法律合规。核心挑战在于确保人工智能的使用符合国际法,尤其是国际人道法、国际人权法和国际刑法。例如,国际人道法要求区分战斗员与平民、避免过度伤害,而人工智能在作战中的应用可能挑战这些基本原则。此外,涉及人工智能系统的事件责任认定——国家、企业或个人——仍存在争议,亟需明确法律框架。

二是政策治理。在国家层面,许多国家的军事人工智能政策和战略仍处于起步阶段;在国际层面,缺乏专门针对军事人工智能及其对国际和平与安全影响的多边政策。目前相关讨论多零散分布于各类专业机构,可能导致治理漏洞。

三是伦理问题。伦理挑战主要包括人类在致命武力使用决策中的角色,联合国秘书长明确反对将生死决策权交给算法;系统内可能存在的偏见和不平等,继承自训练数据或开发者的社会偏见,可能在目标识别或威胁评估中造成歧视;以及多方利益相关者参与治理的难题,需要整合私营部门、学术界等的意见,但不同主体在国家安全与开放技术之间的矛盾仍难以调和。

三、对策建议

(一)多边层面

可在联合国框架下推动多边进程,建立全面讨论军事人工智能应用及其对国际和平与安全影响的平台,以达成以下目标。

制定军事领域负责任人工智能的核心原则,借鉴联合国教科文组织等权威机构的伦理共识,统一各国努力、降低风险;将这些原则发展为自愿性国际规范或指南,同时可针对特定场景谈判更严格的法律约束文件;为军事人工智能建立信任措施,如自愿信息交换、特定部署通知、联合技术专家组和事件报告机制,提高透明度与互信;促进多方利益相关者参与,吸纳企业、学术界和民间社会的专业知识,确保国际规范可操作性;制定并实施能力建设计划,使各国具备负责任使用人工智能的技术、制度和作战能力,提高包容性。这些举措旨在通过国际合作制定共同规则和知识共享机制,提高军事人工智能整合的安全性和透明度,降低相关风险。

(二)区域层面

利用区域及次区域组织和对话机制推进人工智能治理。区域机构应将人工智能纳入安全议程,成立专门工作组,制定反映本地背景的信任措施、规范或指南;建立最佳实践信息共享网络;开展联合人工智能开发项目,以适应特定安全环境和威胁感知,为全球对话提供参考。跨区域对话可促进多个区域集团交流经验、协调方法,避免信息孤岛,提高应对人工智能风险的整体准备水平。

(三)国家层面

1.制定和实施国家安全与国防人工智能战略。各国政府应牵头制定全面战略,明确军事人工智能的愿景、优先领域及治理结构,并确保符合伦理与国际法。战略需涵盖实施、审查和更新流程,以及数据治理与人工智能保障等实质内容。通过跨部门协作和国内利益相关方咨询制定,并通过具体行动计划落实、监测和定期更新。

2.建立健全治理结构和审查流程。在国防机构内设立常设人工智能治理机构及军民跨部门工作组,评估新技术发展、预判双重用途问题并制定保障措施。将人工智能考量纳入采购指南、法律审查等流程,进行迭代检查,确保系统合规。

3.实施透明度和问责制措施。政府和国防组织应记录人工智能系统决策日志并上报重要事件;在安全允许范围内,通过公开战略文件或政策声明披露军事人工智能方法。明确指挥官对人工智能系统的责任,并制定事故调查方案,必要时公开调查结果及纠正措施。

4.优先考虑数据治理和质量。国防组织和监管机构应实施稳健的数据治理框架,投资高质量、具代表性的细分数据集,建立数据验证和更新程序,强化数据安全。在部署前规范数据的收集、处理、使用、存储及销毁,解决隐私、偏见最小化和数据来源等问题。

5.采用全生命周期管理方法。在人工智能系统的设计、开发、测试、部署、更新和撤销全周期中,持续进行风险评估和缓解。通过严格的保障流程、合规设计、采购流程激励、安全监测及稳健撤销规划,确保系统安全合规的持续性并降低扩散风险。

6.投资人力资本和培训。国防组织应与私营部门及教育机构合作,开展广泛培训项目,培养具备人工智能技术、伦理和法律知识的军官与专家。在采购或转让系统时纳入培训要求,在军事演习中融入定制场景,提升人员与系统的互动经验。通过军事对话分享经验,帮助理解人工智能能力与局限。

7.审查军事操作指南以加强人工智能治理。国防组织和部队领导层需调整现有或制定新的军事条令、标准作战程序和战术文件,将人工智能的影响纳入考量。审查并更新交战规则,确保引入人工智能后的责任链清晰,军事行动符合国际和国内法律框架。

四、结论

人工智能在军事领域的整合既带来重要机遇,也对国际和平与安全构成复杂挑战。各国和利益相关方已认识到,采取积极协作和对话至关重要。通过有效治理和多方协作,能够发挥人工智能的战略优势,并降低潜在风险。军事人工智能的成功整合不应仅以获得的能力衡量,更应关注其在多大程度上维护乃至强化国际和平与安全体系。本文为建立负责任的军事人工智能治理框架提供了建议,但其实施不仅需要政治意愿和资源支持,有时还需推动内部文化变革。

(本文内容系“启元洞见”公众号原创编译,转载时请务必标明来源及作者)

参考来源:联合国裁军研究所(UNIDIR)

参考题目:Artificial Intelligence in the Military Domain and its Implications for International Peace and Security

参考链接:https://unidir.org/publication/artificial-intelligence-in-the-military-domain-and-its-implications-for-international-peace-and-security-an-evidence-based-road-map-for-future-policy-action/

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

编辑 | Samuel

审校 | 桑妮

声明:本文来自启元洞见,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。