2025年5月9日,美国现代战争研究所(MWI)发布文章《新半人马:跨战争层面的认知进化模型》(Neocentaur: A Model for Cognitive Evolution Across the Levels of War)。文章称美国陆军正处在一个关键转折点,明确提出要通过整合AI技术来提升作战能力、优化部队结构并消除资源浪费以获取战略优势,但需警惕生成式AI(GenAI)的潜在风险。
《新半人马:跨战争层面的认知进化模型》
作者:美国陆军战争学院威廉·巴里教授(William J. Barry)和战略陆战与未来研究组副主任布莱尔·威尔科克斯中校(Blair Wilcox)。
编译:汐之
全文摘要与关键词
1.生成式AI的军事应用风险:美国陆军亟需通过AI增强作战效能,但生成式AI(如ChatGPT类模型)的军事应用存在显著风险,可能削弱军官的批判性思维与战场创造力。
2.新半人马模型:将人是主导位置的理念扩展到战争战略层+战役层+战术层等不同层级的认知维度,提出了差异化的应用方案。
3.技术路径与实施建议:“新半人马”模型的实施需要针对性的技术解决方案和持续的演练验证,包括开发混合AI系统+算法素养与组织改革+实验验证。
4.结语:尽管AI能提升效率,但战争的本质仍是人类活动。美军的核心竞争力在于士兵素质,需坚持高标准征兵与军事教育,避免因技术狂热忽视人力投资。
美国陆军正面临地缘战略与技术变革的双重挑战,亟需通过AI增强作战效能。2025年5月,陆军高层提出整合AI至指挥控制节点以加速决策的倡议。然而,当前生成式AI(如ChatGPT类模型)的军事应用存在显著风险:认知萎缩(cognitive atrophy)与自动化偏见(automation bias)可能削弱军官的批判性思维与战场创造力。美国陆军战争学院提出的“新半人马”(neocentaur)模型,旨在通过确定性AI(deterministic AI)与人类协同,构建跨战略、战役、战术层级的混合智能体系,避免生成式AI的不可靠性对军事决策的负面影响。
01
生成式AI的军事应用风险
当前关于生成式AI对批判性思维的影响引起了军事领导层的高度关注,主要存在认知卸载(cognitive off-loading)和自动化偏见等突出问题:
· 认知卸载:军官过度依赖AI生成方案,导致判断力退化。微软研究表明,生成式AI会使用户从“信息收集”转向“信息验证”,从“问题解决”转向“AI响应整合”,削弱主动思考能力。
· 自动化偏见:人类倾向于接受机器输出,尤其在战场压力下(如直接采用AI生成的70%完整方案),可能忽视更优解。哲学家休谟指出,人类对现状的默认偏好会抑制创新。
生成式AI在创造性思维方面的影响固然值得关注,但更严重的问题在于它可能削弱军事指挥的本质。指挥决策需要多种逻辑推理能力,以及判断何时使用何种推理的智慧,这正是AI技术无法具备的特质。
· 逻辑依赖性不同:生成式AI依赖归纳逻辑(基于历史数据预测),但军事指挥需溯因逻辑(面对未知情境的创造性推理)。例如,AI无法处理“无先例可循”的战场突发状况,而指挥官需凭直觉(Clausewitz所称“慧眼”)决断。
· 欺骗性拟人化:AI输出本质是概率性模式匹配,可能掩盖不确定性,导致决策失误。
伦理与失控风险同样是生成式AI值得关注的问题:
以以色列AI系统“薰衣草”(Lavender)为例,其快速生成攻击目标的能力在加沙冲突中导致暴力升级,人类因效率放弃监督权,引发“弥诺陶洛斯漂移”(minotaur drift)——机器主导人类决策的恶性循环。
02
新半人马模型:分层解决方案
面对生成式AI的潜在风险,完全弃用这项技术显然不是明智之举。军事领导者需要在充分理解风险的基础上,根据不同层级的需求来部署AI系统。“半人马”模型的提出强调人类在人与机器关系中的主导地位,而与之相对的“弥诺陶洛斯”模型则表现为机器控制人类活动。
值得注意的是,当前AI技术的发展在认知领域已经取得了显著进步,但在机器人物理机动能力方面仍然相对滞后。正如军事专家杰克·沃特林(Jack Watling)所指出的,步兵分队在复杂地形中的协同机动能力在可预见的未来仍难以被自主系统取代。“新半人马”模型将人是主导位置的理念扩展到战争战略层、战役层以及战术层等不同层级的认知维度,提出了差异化的应用方案。
2.1 战略层:人机混合主导 需求:战略决策需结合政治洞察与AI的算力优势,人类元认知(反思能力)与AI的混合可应对未知挑战。 应用:AI辅助分析地缘政治动态,但人类保留最终决策权。例如,AI优化资源分配,而将领评估AI建议的政治后果。 2.2 战役层:高风险与严格限制 风险:师级和军级指挥部既要快速响应前线需求,又要进行创造性规划,这种双重压力容易导致参谋人员产生认知卸载的倾向。 方案:确定性AI用于可量化任务(如计算部队机动时间、弹药消耗),提升“战争科学”效率。 在战斗压力下,人类可能会放弃对AI的监督权,导致暴力升级。因此,在战役层级需要建立严格的AI使用规范,比如仅允许火力规划和情报部门使用经过严格限制的AI工具。 2.3 战术层:物理限制与认知增强 挑战:地面自主系统在复杂地形中机动性不足(如步兵班组协同),AI难以替代人类。 AI已经能够完成所有需要“思考”的任务,但却难以胜任人类和动物“不假思索”就能做到的事情,战术层级的重点应该放在认知支持而非物理替代上: 认知域支持:AI实时分析战场数据,辅助小单位领导决策(如威胁识别)。 网络化赋能:将战术单元作为“传感器节点”,其行动数据同步至全军系统,使局部行动具有战略影响力。
03 技术路径与实施建议 “新半人马”模型的实施需要针对性的技术解决方案和持续的演练验证。军事领导者必须警惕两种主要风险:一是“弥诺陶洛斯漂移”现象,即在效率至上的名义下将道德判断权让渡给机器;二是自动化偏见导致的过度依赖。 AI系统应该被视为一种特殊的武器平台,需要根据不同层级、不同部门的特点进行差异化部署。因此需开发混合AI系统,士兵军官需具备算法素养,同时还需要测试已验证效果。 开发混合AI系统 结合符号AI(规则驱动)与生成式AI,构建类似“钢铁侠贾维斯”(漫威电影中钢铁侠托尼斯塔克的完美人工智能助手)的确定性模型,用于兵棋推演与实战训练。 算法素养与组织改革 军官需理解AI局限性,将其视为“武器系统”而非万能工具。同时按职能差异化部署:作战参谋(G5)可使用AI优化流程,但当前作战中心(G33)需保持人类主导。 实验验证 通过兵推测试AI在各级战争中的效能,例如美国陆军战争学院2024年8月展示的混合认知增强设备。
04
结 语 尽管AI能提升效率,但战争的本质仍是人类活动。美军的核心竞争力在于士兵素质,需坚持高标准征兵与军事教育,避免因技术狂热忽视人力投资。“新半人马”模型的核心是:“AI为箭,人为弓”——技术增强而非替代人类判断,尤其在道德与创造性维度上保持绝对主导。 “新半人马”模型不仅在技术层面提出了可行性方案,更重要的是从军事伦理和认知科学的角度,为AI时代的战争形态提供了深刻的思考。在科技日新月异的今天,如何保持人机关系中的人类主导权,这不仅是军事领域面临的挑战,也是整个人类社会需要认真思考的命题。
参考文献:
https://mwi.westpoint.edu/neocentaur-a-model-for-cognitive-evolution-across-the-levels-of-war/
声明:本文来自认知认知,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。