目前,人工智能(AI)正处于以深度学习为核心的第三个发展高潮期,受到各国商业、国防领域的密切关注。美国国防部和其他国家正在针对多种军事功能发展AI应用,已经开展AI研究的一些领域主要包括情报收集与分析、后勤、网络作战、信息作战、指挥控制和各种半自主与自主平台。

2019年1月,美国国会研究服务处(CRS)发布了《人工智能与国家安全》的最新报告,为了解美军人工智能当前的研发应用现况提供了富有价值的参考信息。本文基于此报告,梳理了AI在美国防领域的应用现状,总结了美军将AI集成到军事应用中面临的投资、政策、技术、人员、流程、文化等问题,讨论了AI技术为军事应用带来的机遇。

AI有望给军事作战带来很多优势,但同时也带来明显挑战。因此,AI对未来作战究竟会产生多大影响,业内分析人士持有不同观点,其用途可能只有在作战中应用后才会显现。

1 美军对AI的界定

在AI学术研究领域,还没有被普遍接受的AI定义,一部分原因是该领域研究方式的多样化。美国在2019财年《国防授权法案》(NDAA)第238条款(Section 238)要求国防部长2019年8月31日前给出人工智能的定义,但目前还没有美国官方给出的AI定义。不过,2019财年《国防授权法案》确实也针对238条款提供了对AI的一些界定:

  • 在不断变化和不可预测环境下无重大人工监管就可执行任务的人工系统,或能够利用数据集从经验中学习并改进性能的人工系统;

  • 利用计算机软件、物理硬件或其他背景下开发的人工系统,完成那些需要类似人的感知、认知、规划、沟通或物理行为能力才能完成的任务;

  • 设计为像人一样思考或行动的人工系统,包括认识体系架构和神经网络;

  • 设计用于大致实现认知任务的一系列技术,包括机器学习技术;

  • 设计为可理性行动的人工系统,包括智能软件代理或实体机器人,它们利用感知、规划、推理、学习、沟通、决策制定和行动能力实现目标。

上述定义涵盖了学术文献中出现的很多不同AI定义。AI研究始于1956年,2010年左右,大数据源、机器学习方法的改进和计算机处理能力的提升支撑AI研究出现爆发式增长,推动了弱AI的进步。弱AI是解决特定问题的算法,如博弈、图像识别和导航等。当前的所有AI系统都属于弱AI。弱AI最普遍采用的方式是机器学习,涉及到统计算法,通过分析大量训练数据集推导出自己的进程,从而模仿人类执行认知任务。训练过程中,计算机系统创建自己的统计模型,完成原来未曾碰到过的特定任务。

专家普遍认为还需要数十年的时间才能发展通用AI(强AI),即在各种任务中智能达到人类水平的系统。不过,弱AI算法能力的增长,燃起了新一轮商用热情。2016年,美国技术公司的AI投资达到约200~300亿美元。据预测这一数值到2025年会增长到1260亿美元。2016财年美国国防部公开的AI合同额超过6亿美元,2017财年则增长到8亿美元。

将AI纳入到国家安全领域,需要考虑AI的很多重要特性。首先,AI有可能集成到各种应用中,改进由各种完全不同的设备为优化性能而通过网络联接到一起构建的“物联网”。第二,许多AI应用为军民两用。第三,AI相对透明,即其集成到产品中不会被立即发现。基本上,购买AI不是获得可数的物,而是分别购买算法并融合到现有系统中,或者算法从一开始就是某一实际系统的一部分。

2 美国防部推进AI应用发展的举措

2015年,美国在公布的“国家创新战略”中,明确人工智能技术为主要关注的战略领域;同年,美国防部提出人工智能作为“第三次抵消战略”的关键支撑技术。2016年10月,美国白宫发布《国家人工智能研究和发展战略规划》,构建美国人工智能发展的实施框架;2017年7月12日,新美国安全中心发布《人工智能与国家安全》报告。该报告指出,AI对国家安全有至关重要的影响。如机器学习技术可大幅提升一些劳动密集型工作的自动化程度,AI还可用于卫星图像分析和网电攻防领域等。在信息优势方面,AI将极大提升数据收集与分析能力,并提升数据产生能力。

目前,美国国防部已发布了保密AI战略,正在国防部指南和2019财年《国防授权法案》的指导下开展多项工作,包括:

  • 建立联合人工智能中心(JAIC),负责“协调国防部为AI技术开发、成熟化并转化到作战使用中而开展的所有工作”;

  • 发布AI开发与装备战略路线图,以及相关指南:“适当的伦理、法律和其他政策,指导国防部监管人工智能系统与技术在作战环境下的开发和使用”;

  • 建立国家安全人工智能委员会;

  • 全面评估军事相关AI技术,为增强美国的竞争力提供建议。

3 AI在美国防领域的应用

美国防部正在考虑大量不同的AI应用。目前,AI研发由各军种研究机构、DARPA和情报高级研究计划局(IARPA)自行决定。不过,对于年度耗资超过1500万美元的AI计划,国防部各部门需要与联合人工智能中心(JAIC)协作。另外,JAIC还负责监管国家任务计划和那些利用AI解决迫切作战需求的项目。

算法战跨功能团队,也称为Maven计划,原来是国防部AI集成的中心,该计划的归口管理将从国防部负责情报的副部长转到JAIC,成为JAIC的首个国家任务计划。Maven计划是一个试验性项目,启动于2017年4月,主要任务是将AI快速融入到国防部当前系统中,演示该技术的潜力。AI正被融合到许多情报、监视和侦察应用,以及后勤、网络空间作战、信息作战、指挥控制、半自主和自主车辆、以及致命自主武器系统中。

(1)情报、监视与侦察(ISR)

由于有大型数据集可供分析使用,预计AI将在情报领域大有作为。例如,Maven项目第一阶段就涉及到情报处理自动化,为反恐行动提供支持。Maven项目团队正将计算机视觉和机器学习算法融入到情报收集单元,利用这些技术梳理无人机拍摄的连续视频,自动识别敌方活动,实现目标瞄准。在这方面,AI有望实现分析工作的自动化,而目前分析人员寻找行动支持信息要花数小时的时间筛选视频。

美军情报部门还有许多公开的AI研究项目正在进行中。单是中央情报局(CIA)就有大约140个AI相关在研项目,利用AI完成图像识别和预测分析等任务。情报高级研究计划局(IARPA)正在资助几个AI研究项目,目标是在未来四到五年内获得其他分析工具。例如,开发噪声环境下多语言语音识别和翻译算法;在没有相关元数据的情况下对图像进行地理定位;融合2维图像创建3维模型;开发基于生活模式分析推断建筑物功能的工具等等。

(2)后勤

AI在军事后勤领域应用前景可期。美国空军正开始使用AI进行预测性飞机维修。原来美国空军是在飞机出现问题或根据统一的机队维修计划进行维修,而正在测试的基于AI的方法,则会根据单架飞机的需求调整维修计划。目前F-35的自动后勤信息系统正在使用这种方式,提取嵌入到飞机引擎内和其他机载系统的实时传感器数据,将数据反馈给预测算法,以决定技师何时需要检查飞机或更换部件。

同样,美国陆军后勤保障局(LOGSA)已与IBM公司签订了Watson系统合同。Watson是认知计算系统的杰出代表,两次在“Jeopardy”(危险边缘)全美智力挑战赛中获得冠军。美陆军希望根据从每辆车上17个传感器获取的信息,为“斯特瑞克”(Stryker)车队开发定制维修计划。2017年9月,陆军后勤保障局开始了第二个项目,使用Watson分析运输流,用于维修部件分发,尝试确定时间和成本上均最高效的补给交付方式。这一任务目前依靠人工完成,分析人员每年仅能分析10%的运输请求,采用Watson系统,美陆军将能够分析全部运输请求,有可能在更短的时间内节约更高的成本,可为美陆军节约大约1亿美元。

(3)网络空间作战

AI可能是推进军事网络作战发展的关键技术。2016年,美军网络司令部司令迈克尔•罗杰斯在参议院军事委员会听证会上表示,网络空间内仅依靠人的智能是“失败的战略”,“网络防御过程中,面对海量需要了解的活动,如果不具备一定的AI或机器学习能力,就会总处于落后局面”。传统网络安全工具寻找与已知恶意代码间的历史匹配,所以攻击者仅需修改此代码的一小部分就可绕开防御措施。而基于AI的工具,则可以通过训练,检测更多网络活动模式中存在的异常,针对攻击提供更全面更动态的防御。

DARPA 2016年网络超级挑战赛上展示了基于AI的网络工具的潜力。挑战赛的参与者要开发AI算法,在竞争对手有机会利用软件漏洞之前,能够自主“检测、评估并修补这些软件漏洞”,所有这一切均在几秒内完成,而不是像通常那样需要几个月。挑战赛不仅演示了AI网络工具的可能速度,还演示了用一种算法同时发挥进攻和防御功能的潜力。

(4)信息作战和“深度伪造”

AI使对手能够在信息作战中越来多地利用逼真的、伪造的图片、音频和视频,即采用“深度伪造”技术。这一技术可用来生成虚假新闻报道,影响公众舆论、瓦解公众信任和勒索外交人员。尽管以前的大部分深度伪造技术已经可以检测到,但随着技术复杂度的发展,深度伪造很快就能欺骗取证分析工具。

为了对抗深度伪造技术,DARPA已启动了媒体取证(MediFor)项目,寻求“自动检测操控行为,提供关于这些操控如何执行的详细信息,并推断视觉媒体的总体完好性”。MediFor项目已初步开发了一些工具,用于识别AI产生的“伪造物”,但面临的一个关键问题是机器学习通过训练可以凭借谋略战胜取证工具”。为此,DARPA计划继续举办后续挑战赛,确保取证工具跟上深度伪造技术的发展。

人工智能还可能用于创建完整的“数字生活模式”,其中,每个人的数字“足迹”都被融合起来,与购买历史、信用报告、专业经历、订阅服务等相匹配,生成关于服务会员、可疑情报官员、政府官员或普通公民的全面的行为简况图。在采用深度伪造情况下,这些信息也可用于实施有针对性地影响力行动或勒索。

(5)指挥控制

美军正寻求在指挥控制领域应用AI的分析潜力。美空军正在针对多域指挥控制(MDC2)开发一种系统,目标是实现空中、太空、网络空间、海基和陆基作战集中式规划和执行。不久的将来,AI就可用于融合上述所有域内的传感器数据,为决策制定者创建单一信息源,即所谓的“通用作战图”。当前,决策制定者可用的信息来自多种平台,格式多样,经常有重复现象或一些无法确定的差异。基于AI的通用作战图像从理论上讲可以把这些信息综合到一个显示图中,提供关于友军和敌军的全面视图,自动解决不同输入数据的差异问题。MDC2仍处于概念开发阶段,美空军已和洛克希德•马丁、哈里斯和几家AI初创公司合作开发这种数据融合能力,并在2018年的一系列军事演习中完善了对这一项目的需求。同样,DARPA的“马赛克战争”项目也在寻求利用AI协调自主力量,动态生成多域指挥控制节点。

未来AI系统可以用于识别被敌方切断的通信链路,找到替代的信息分发手段。随着AI系统复杂度的成熟,AI算法也能够根据对战斗空间的实时分析,为指挥官提供可行的行动方案选择,从而更快速地应对复杂事件。从长远看,这一领域的发展可能意义重大,有望提升战时决策制定的质量和速度。

(6)半自主和自主平台

美军各军种都在努力将AI融合到半自主和自主平台上,包括战斗机、无人机、地面车辆和海军舰艇。AI在这一领域的应用类似于商用半自主车辆,其利用AI技术感知环境、识别障碍、融合传感器数据、规划导航、甚至与其他车辆通信。

美空军研究实验室完成了“忠诚僚机”项目两个阶段的测试。该项目中,一架较老一代的无人战斗机(F-16)与一架无人驾驶F-35或F-22编队。无人驾驶F-16测试平台对未预先编程的事件,如天气和未预见到的障碍物等,自主作出反应。随着项目的开展,AI可以使“忠诚僚机”配合无人战斗长机执行任务,如干扰电子威胁或携带更多武器。

美国陆军和海军陆战队测试了类似平台原型,这些平台跟随战场上的士兵或车辆独立完成任务。例如,美海军陆战队的多用途战术运输车(MUTT)是一种大小与沙滩车(ATV)接近的遥控车辆。该系统当前配置不具备自主性,美海军陆战队希望后续系统有更高的独立性。同样,美陆军计划装备大量机器人战车(RCV),这些车辆具备不同类型的自主功能,包括导航、监视和排除简易爆炸装置(IED)。这些系统可作为部分下一代无人地面车的“僚机”,暂定于2020财年进行初步士兵评估。

2018年初,DARPA完成了反潜战持续跟踪无人艇原型,也称为“海上猎手”,随后项目开发工作转交给美海军研究办公室。如果“海上猎手”服役,可为海军提供在开放海域内自主导航、在不同模块化载荷之间切换、以及与其他无人艇协同完成任务等能力。“海上猎手”可一次连续航行数月执行潜艇搜捕任务。

美国防部还在测试其他基于AI的能力,实现协同行动或集群。集群是自主平台开发的一个特有部分,涵盖从大型低成本平台编队(设计用于压制敌防御系统)到小的平台中队(协同为地面部队编队提供电子攻击、火力支援和本地化导航与通信网)。美军当前正在开发多种不同的集群能力。2016年11月,美海军测试了基于AI技术建设的由5艘无人船组成的集群。测试中,这些船只在切萨皮克海湾4×4英里的区域内协同巡逻,拦截了一艘“入侵”船。该实验结果将促进AI技术应用于港口防御、潜艇搜捕或在大型船只前面执行侦察任务。海军还计划测试水下无人潜航器集群,战略能力办公室也已成功测试了由103架空投微型无人机组成的集群。

(7)致命自主武器系统(LAWS)

致命自主武器系统(LAWS)是一种特殊的武器系统,能够独立识别目标,并在无人工干预的情况下利用携带的武器系统攻击和破坏目标。LAWS需要利用计算机视觉系统和先进的机器学习算法对敌方目标进行分类,做出攻击决策,并引导武器攻击目标。这一能力使系统能够在通信性能降级或拒止环境下作战,而传统系统可能无法在这种环境下作战。美国法律并未禁止研发LAWS,但美国军方当前武器库中还没有LAWS。

美国防部针对半自主和自主武器系统的发展和运用颁布了指令3000.09,“武器系统的自主性”,要求所有系统必须设计为在发挥效力时“允许指挥官和操作人员行使适当级别的人工判断。”系统作战状态的任何更改都需要系统再次通过武器评审,确保其保留了预期作战能力。自主武器和一定类型的半自主武器在研发和装备前还必须获得主管政策的国防部副部长、主管采办/技术/后勤的国防部副部长和参谋长联席会议主席的批准。不过,该指令并没有对那些用于对有人设施或平台(但不以人为目标)实施要地防御的人工监管下的自主武器以及那些非致命自主武器(如某些对抗非有生力量目标(作战物资及器材)的电子攻击武器)”作出限制。

尽管有此政策,美军方高层仍表达了对装备LAWS的关切。2017年,在参议院军事委员会听证会上,美军参谋长联席会议副主席保罗•塞尔瓦表示,“我认为让机器来掌控人的生死是不合理的”,但他仍表示,“考虑到美国的潜在对手正在发展LAWS,美军将被迫解决这类技术的开发,以发现其风险”。

4 美军AI集成面临的挑战和需要考虑的问题

从冷战时代到现在,大部分与国防相关的重大技术,包括核技术、全球定位系统(GPS)和互联网,最初都是在政府指导的项目中开发的,后来才扩展到民用领域。但目前是商业公司引领着AI的发展(有时是基于过去由政府资助的项目),美国防部需要针对军事应用对商用技术进行军事化改造。除了投资来源的转移,与政策、技术、流程、人员和文化相关的许多挑战正在阻碍AI的军事应用。此外,来自国际竞争对手的压力也是美军需要考虑的一个因素。

(1)投资

投资是AI未来发展的障碍。尽管美国防部2018年的AI投入已经有所增长,但美国内一些专家仍认为,要赶上美国竞争对手的步伐,国防部仍需增加资金投入。而另有一些反对意见则认为,可能不需要大量增加拨款,军方应利用商业领域的研发成果。

(2)政策

大型数据池是建立许多AI系统所需的训练集,政府数据对于发展军事AI应用极为重要。但是,大部分这些数据要么保密,要么访问受控或是受隐私保护。因此,为了推动AI的发展,需要考虑改革政府当前数据政策,实现数据保护、隐私保护与AI需求间的平衡。

与此密切相关的是,AI发展可能要求必须制定严格的安全标准。AI算法易受差错、窃取、操控等攻击,尤其是训练数据集未受到充分监管或保护时。

许多专家担心AI技术发展的步伐快于政策实施的速度,因此政府需要评估制定新政策或修改现有法律,将AI发展纳入其中以确保AI应用不会出现偏差。目前最受关注的一个问题是缺乏独立的实体制定和执行AI安全标准,对政府范围内的AI研究进行监督。特别是对于致命自主武器系统(LAWS)。禁止或规范LAWS的发展可能会对发展实现致命用途的AI应用实施严格控制,从而抑制其他有价值的军事、甚至商用AI技术的发展。

(3)技术

目前针对军事目的对各种商业AI技术进行改造的难度有很大差异。某些情况下,可以无缝对接。例如,上文所提的飞机维护算法,很多算法最初是由商业领域开发,可能只需要很小的数据调整就可以适应飞机类型的差异。其他环境下,由于技术开发最初针对的民用环境与更复杂的作战环境之间存在差异,需要做出很大调整。例如,商用半自主平台已广泛用于数据丰富的环境下,可从其他联网平台获取可靠的GPS位置、全面的地形图和最新的交通及天气状况信息。相比之下,这种平台的军方改型,需要能够在地图数据相对较少、由于敌方干扰无法使用GPS定位的地方运行。而且,半自主或自主军事地面车辆可能需要能够在野外崎岖地形下导航,大部分商用平台并不具备这种能力。

AI技术可以促进自主作战的实现,基于更翔实的信息做出军事决策并加快军事行动的速度和扩大行动规模,但AI技术仍存在不可预测性和可解释性风险,而且可能被操控利用。

·可预测性

AI算法通常会产生无法预测的非传统结果,从而在作战中提供优势,尤其是如果这些结果让敌方感到惊异。不过,AI系统也可能以出乎意料的方式失败。一些分析人士将其行为描述为“脆弱的和不灵活的”,“它犯错的方式是人类从不会出现的方式”。

2010年,基于AI的图像识别算法的能力已超过了人类,近期实现了2.5%的错误率,而人类的平均出错率是5%。不过,常被提及的一些利用这些系统的实验也演示了AI犯错的程度。例如,研究人员在一张AI系统正确识别为熊猫的图片中加入了一些被计算机标识为“线虫类”的随机失真,综合处理后的图像人眼并未感觉到差别,但却被AI系统识别为长臂猿且置信度99.3%。

在另一项实验中,AI系统将手拿牙刷的小男孩描述为手持棒球棒的小男孩,表明算法不能理解场景。一些专家警告, AI工作时判定的环境条件与人的判定不同,当系统超出其初始设计边界时,操作人员几乎无法感知。

同样,训练数据使AI系统容易受到算法偏差的影响。例如,研究人员不断发现在AI面部识别项目中存在种族偏差,因为系统训练采用的图像缺乏多样性,而一些自然语言处理项目中则出现了性别错误。这对AI在军事背景下的应用有重要影响,尤其是如果这种偏差一直未被检测出来,并加入到具有致命效果的系统中。

“域自适应”或者说AI系统在两种全然不同的环境间调整的能力,也为军方带来挑战。例如,针对识别和理解在线文本而开发的某一AI系统,主要利用正式语言文件如维基百科上的文章进行训练,该系统以后就不能解释出现在推特上的非正式语言。当民用环境下开发的系统转用到作战环境下时,可能出现域自适应错误。

如果系统大规模部署,AI系统故障可能造成很大风险。尽管人也无法避免出错,但其错误一般是发生在个体身上,每次都不相同。而AI系统可能同时以相同方式出错,很有可能造成大规模或破坏性结果。敌方AI系统训练采用不同的数据集,与美军有设计参数和文化上的差异,美军AI系统与这些敌方AI系统交互时,也可能出现其他无法预期的结果。

有专家警告,如果军方在充分了解可能危险前就匆忙装备AI技术,会招致“技术负债”。技术负债指装备的AI系统个体风险很低,但一起使用时却因为系统间的交互而出现的综合集体风险。这种风险在出现AI军备竞赛时会进一步加大。

· 可解释性

让可预测性问题变得更复杂的是,性能最高的各类AI算法目前还不能解释自己的流程。例如,谷歌创建的猫识别系统,识别结果令人印象深刻。不过,这些系统的开发人员都不能确定系统在识别过程中采用的是猫的哪些特性。缺乏这种所谓的可解释性在所有这类AI算法中都很常见。为解决这一问题,DARPA正在开展一项为期五年的研究,希望提供可解释的AI工具。

其他研究机构也在尝试对这些算法进行反向分析,更好地了解其内部工作流程。在一项研究中,研究人员分析了一个设计用于识别窗帘的项目,发现AI算法首先寻找的是床而不是窗户,在找到床后便停止了图像搜索。研究人员后来意识到这是因为训练数据集中有窗帘的大部分图像都是在卧室。此项目表明,训练集有可能无意中向系统中引入误差,而这些误差用户可能不会立即察觉或了解。

可解释性在军事环境下可能产生更多问题,因为AI的推理能力会影响到操作员对系统的信心高低。特别是,如果不了解机器如何推导出解决方案,人可能不愿意完全基于AI分析做出决策。因此,增强可解释性对人类建立对AI系统的适当信任至关重要。正如美国陆军研究这一问题得到的结论:只有“谨慎的信任”才能为军事机构带来竞争性优势。

最后,可解释性还会使军方在装备前“验证”AI系统性能的能力受到挑战。由于当前缺乏可解释的输出,AI系统还没有针对军事测试界的审计跟踪,以验证系统是否满足性能标准。美国防部当前正在开发测试AI系统生命周期的一种框架,并建立不同环境下以及人机交互复杂情况下测试AI系统的方法。

· 恶意利用

AI系统为敌方恶意利用提供了途径。首先,AI系统的扩散会增加“可被非法入侵的物”的数量,包括动能系统(如移动平台),这些系统反过来也可能允许那些恶意利用行为,造成杀伤效果。如果整个某一类AI系统都有同样的被利用风险,这些效果将造成极大伤害。

另外,AI系统由于基本上全部都是基于软件,极易被窃取。被窃取的软件代码可被立即使用并随意复制。考虑到技术的军民两用性质以及AI研究界对于协作持相对开放的态度,这一风险会进一步扩大。实际上,针对民用开发的许多AI工具都可修改用于武器系统,但这些工具在非密互联网上广泛共享,军事力量较强的国家和非国家行为体都能获得。

最后一点是,敌方可能有意引入上述“可预测性”部分中讨论的图像分类和其他误差。在一项这样的研究中,研究人员在访问某半自主车辆上的图像分类器使用的训练数据集和算法时,在几个关键位置添加了胶带,结果,系统将停车标识识别为限速标识。后来的一项研究中,美国麻省理工学院(MIT)的一个团队在没有访问系统训练数据或算法的情况下,成功诱导图像分类器把一支机关枪识别为直升机。这些风险表明,开发AI军事应用时,需要有稳健的数据安全、网络安全、测试与评估流程。

(4)流程

美国防部现有流程,包括那些与安全与性能标准、采办、以及知识产权和数据版权相关的流程,是AI集成到军事应用中面临的另一挑战。通常,安全与性能的军民用标准或是不一致或不容易相互转换。民用AI可接受的故障率可能远超作战环境所能容许的范围,或情况正好相反。另外,研究表明,不可预测的AI故障模式在复杂环境如作战环境下会扩大。总体而言,这些因素为商用AI技术平滑迁移到国防部造成又一个障碍。

国防部可能需要调整采办流程适应快速发展的AI技术。作为解决此问题的第一步,美国防部创建了多种“快速采办”途径,包括战略能力办公室、国防创新部门和Maven项目,以缩短采办时间,简化繁琐的流程。Maven项目于2017年4月启动,到当年12月,项目团队已在作战中装备了从商业公司采购的原型AI系统。

商业技术公司还经常因为知识产权和数据产权问题而不愿意与美国防部合作。知识产权是商业技术公司的“生命线”,而美国防部正在向公司施加更大压力,希望获得技术数据与软件产权或是满足政府目的的产权,而不是有限或受限的权利。

(5)人员

受研究资金和薪水(远不及商业公司)的限制,美国防部和国防工业还面临着招募和维持有AI经验的相关人员的挑战,造成军事AI应用的滞后、“不完善或缺乏适当的保障和测试”。

为了解决这一挑战,奥巴马政府2015年成立了“国防数字服务”部,招募私营领域工作人员为国防部服务一至两年。同样,前国防部副部长Bob Work提出了“AI训练军”,国防部为先进技术教育付费,换取参与者每月两天接受政府系统训练,每年两周参与重大演习。项目的参与者还可能在国家紧急情况下被额外要求参与政府服务。因此,如何建立新的军事训练与职业专业,培养AI人才是需要考虑的问题。

(6)文化

美国防部与商业技术公司之间明显的文化差异也为AI的应用带来了挑战。最近对硅谷排名前列的公司领导层的调研发现,近80%的被调研者都将商业技术界与美国防部的关系评级为差或很差。很多因素造成了这一局面,如流程挑战,相互不信任,以及美国防部与商业激励机制不同。

而且,出于对政府在监视或武器系统中应用AI的伦理上的考虑,一些公司拒绝与国防部合作。特别是,谷歌取消了两个政府与其并购的两家机器人公司(Boston Dynamics和Schaft)之间的合同,禁止其并购的AI软件初创公司DeepMind为政府工作。2018年5月,谷歌从Maven项目中退出,不再进一步与美国防部合作。

美国防部内部的文化因素也妨碍了AI集成。AI集成到当前系统内会改变当前的标准化程序,推翻已有的完备的人员职责。Maven项目在一份报告中称,美国防部内部存在对AI集成的抵触情绪。

(7)AI国际竞争

另一需要考虑的问题是AI市场上的国际竞争和其他国家利用美国的AI技术实现军事目的带来的危险。2017年夏,美国总统特朗普根据美国外国投资委员会(CFIUS)的建议禁止中国公司并购Lattice半导体公司,因为这家公司生产的芯片是AI技术的关键设计要素。2018年的《外国投资风险评审现代化法案》(FIRRMA)扩大了CFIUS评审特定国外投资的范围,包括那些涉及“新兴和基础技术”的投资。该法案还授权CFIUS考虑是否存在隐秘交易,是否涉及到表示或宣布将采购某一种关键技术或关键基础设施作为战略目标的国家,其中这些关键技术或关键基础设施会影响到美国在与国家安全相关领域的引领地位。

5 AI带来的机会

在国家安全应用中,AI创造了许多独有的机会。不过,AI最终能产生多大影响,很可能取决于开发人员能在多大程度上实现AI优势的最大化,同时确定限制其风险的一些做法。

(1)自主性

许多自主系统都以某种形式加入了AI能力。这类系统是奥巴马政府为维持美军对全球竞争对手的技术优势而提出的“第三次抵消战略”框架的中心点。基于任务的不同,自主系统能够增强或取代人工操作,将有关人员解放出来从事更复杂、认知要求更高的工作。总的来说,军方在“沉闷、危险或肮脏”的任务中用自主系统取代人工操作,会获得很大收益。现在一些具有自主性的军事系统用于执行长时间情报收集和分析、清理被化学武器污染的环境或清除简易爆炸装置。执行这些任务时,自主功能可以降低作战人员面临的风险,削减成本并为国防部任务提供各种价值。这些优势让研发自主系统成为“战术与战略必要”和一种“道德义务”。

自主性对国防部任务的价值

(2)速度与持久性

AI为在极短时间内实施作战提供了独特手段,它使系统能够飞速作出响应,从而有望大大加快作战的整体节奏。作战节奏急剧加快会造成局面的动荡,尤其是如果这一节奏超出了人对事件的理解和控制能力时,在系统失控的情况下很可能会产生破坏性后果。因此,速度的提升尽管确实带来了确定性的作战优势,却也给军事AI的广泛应用带来了阻力。另外,AI系统在执行超出人忍耐力的长期任务时会有优势。例如,AI系统能够实现跨大面积区域的长时间情报收集,自主检测异常并对行为进行归类。

(3)力量倍增效应

通过增强人的能力和为不太昂贵的军事系统注入更强的能力,AI能够产生力量倍增效应。例如,尽管单架低成本无人机可能无法对抗F-35隐形战机的高科技系统,但用这类无人机构建集群就有可能压制高科技系统,节约大量成本,并造成当前的一些平台无法使用。AI系统还能提高军事人员个体的生产率,因为AI系统可以负责日常任务或实现需要很少认为干预的类似集群的战术。

而且,AI系统的扩散可能使军事力量摆脱人口和经济实力的限制,较小的国家和非国家行为体如果能够利用AI的力量倍增效应,也能对战场产生不相称的重大影响。

(4)信息优势

AI为应对分析可用的数据量的指数级增长提供了一种手段。据美国防部透露,美军有11000多架无人机,每架每天都能记录“超过美国职业橄榄球大联盟(NFL)三个赛季”的高清连续视频。不过,美国防部没有足够的人力或系统来梳理这些数据,从中获取可用于行动的情报分析结果。

未来随着数据累积量持续增长,这一问题可能还会恶化。根据相关研究,到2020年,地球上每个人每秒将产生1.7MB的信息,全球数据池将从目前的4.4ZB增长至约44.0ZB。而借助AI能力的情报系统有望能够集成不同来源和不同地理位置的大批量数据,进行筛选,识别出模式,突出有价值的信息,明显提升情报分析能力。另外,AI算法可以生成自己的数据,为进一步分析提供反馈,完成类似于将选举、财经数据和选举结果中的非结构化信息转换为书面报告的任务。这种类型的AI工具因此有望通过提高决策制定者可用信息的质量而提供作战优势。

6 AI对作战的影响

军用AI技术仍处于起步阶段。AI对未来战争产生的影响和许多因素有关,包括商业投资的速度、竞争驱动力、研究界推动AI能力进步的能力、军方对AI应用的普遍态度、AI特定作战概念的开发等等。AI究竟会对未来战争产生多大影响,美国国内分析人士和专家主要持三种观点:

第一种观点是有许多趋势可能使技术的影响降到最低。从技术角度看,当前AI安全问题有可能无法克服,使AI不适于军事应用。另外,有专家认为,当前的各类算法在未来10年内将释放全部潜力,如果支撑技术没有大的飞跃,如更高功效的芯片或量子计算的进步,AI就不能继续向前发展。AI过去也曾碰到类似的技术障碍,造成一段时期内研究进度明显放缓。军方全面接纳AI的意愿会带来另一限制。

第二种观点认为AI对作战产生影响是逐步演进方式。AI技术可以显著提升军事效能和作战潜力。现在一些研究项目正让武器系统和流程变得更快更高效,并为应对日益复杂的情报评估与决策制定面临的大数据问题提供了手段。不过,近期AI的发展仍是面向范围较窄、仍需要人的监管的任务特定应用。战场上的某些方面还会一直需要人的介入,因此AI无法对战争产生颠覆性影响。

AI技术的民用化将使美军寻求AI优势进一步复杂化。许多技术开发都源于商业领域意味着竞争国家和非国家行为体也能够获得这些技术,让美国长久积累的优势面临瓦解的风险。这种环境下,AI仍能影响作战方法,但如果对手拥有水平相当的能力,技术的总体影响可能有限。

第三种观点是AI会对战争产生革命性影响。有相当一部分专家相信,AI将从根本上变革战争发起的方式。全球已从工业时代步入信息时代,信息的收集、利用和分发将成为作战中最重要的方面。按照这一转型,AI可以促进实现信息优势和“清除战争不确定性”的潜在能力将成为决定性的战时优势,可实现更快、更高质量的决策。“决策空间的胜利就是战场空间的胜利”,赞同这一观点的专家们认为,AI和自主系统会逐步使人远离直接作战职责,一些专家甚至预测人最终只制定战略级决策,而AI系统独自制定战术级计划并执行。工业时代,军方要建造一定数量的昂贵平台,配备完善的能力,以后则是更优先选择大量功能够用、不太昂贵的系统。

总之,正确地评估未来影响可能充满挑战。技术和战争的历史专家强调,历史上出现过的技术变革其作用只有在事后才会显现,诸如AI等新应用的用途可能只有在作战中应用后才会明显。

(丁雪丽 编译)

声明:本文来自电科小氙,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。