【知远导读】2020年1月31日,美国“战争困境”网站发布了詹姆斯约翰逊和埃莉诺·克拉比尔合作撰写的《人工智能、网络空间与核武器》一文,并随后被知名的美国防务新闻网Real Clear Defense网站转载。该文章对人工智能技术、网络空间、核武器三者之间的关系进行了剖析,论述了人工智能与网络技术对国家核安全带来的综合影响,对人工智能网络攻防条件下的国家核武器安全提出相关建议,具有重要的参考价值。译者在此对这篇长文进行了综合梳理,尽量客观展现美国反大规模杀伤性武器扩散领域专家对人工智能、网络空间和核武器安全的基本理念与观点。

人工智能技术是一把双刃剑,其在网络空间和核领域的应用,一方面能够为网络安全和核安全提供技术保障;另一方面,人工智能技术也可能为对手所用,通过网络空间对核武器体系进行渗透进攻,给国家安全带来严峻挑战。本文以人工智能技术的发展应用为主题,探讨了其与网络安全的相互结合及影响,分析了人工智能与网络应用对国家核安全带来的正面和负面影响,假想了两个威胁核安全的人工智能网络攻击案例,并进而对人工智能技术运用提出了思考与建议。

新技术给国家核安全带来威胁

核安全是国家安全中最具技术性的问题。随着社会进步和科学技术的发展,各种新技术竞相呈现,相互结合,给国家核安全带来了威胁。

一是人工智能技术给核安全带来了威胁。人工智能本身即代表着最先进的科技能力,如果对手或者第三方力量将它与网络技术结合,对国家核指挥、控制与通信系统(NC3)进行网络攻击,不但会导致核指挥、控制与通信系统遭到破坏,还可能增加国家间发生军事冲突的风险。

二是其它新技术给核安全带来了威胁。比如远程遥感技术、无人驾驶技术、常规精确弹药、以及高超声速武器等,都将给迄今为止隐藏而坚固的核设施带来挑战,从而可能逐渐削弱国家核力量的生存能力。

人工智能与网络结合产生强大的作战能力

随着人工智能迅猛发展和军事自动化程度的日益增强,未来网络空间领域攻防作战的速度、力量和规模将不断扩大,其能力将更加强大。但讽刺的是,人工智能技术是把双刃剑,在提升网络安全的同时,也可能让攻击者利用该技术捕捉更多系统漏洞,从而暗中操纵网络,或者干扰网络。

一是无人化和机器学习技术的发展,使更多物理系统容易遭受黑客入侵、数据欺骗和病毒等网络攻击。比如,2016年一名黑客让一辆吉普车停在交通繁忙的高速公路上,随后侵入该吉普车的动力系统并使其加速前进。再如,一支中国白帽黑客团队采取无线远程的方式,攻击了一辆特斯拉ModelX。此外,机器学习技术可以模拟并生成虚假的声音或者视频,可能导致系统发生错误计算、错误感知等现象,使意外风险增加,并对网络空间和现实社会产生影响。

二是以人工智能系统为目标的网络攻击,能够让攻击者获取对方武器系统的机器学习算法,破解对方的人脸识别体系,访问对方的情报搜集与分析数据库,获取对方国防与军事系统的重要信息。对国家和军队来说,这些系统权限和数据有的可以为精确打击提供支持,有的可以为情报、监视及侦察任务提供支撑,维护它们的安全非常重要。

三是人工智能系统与现有网络攻击工具相结合,将成为强大的力量倍增器,能够使复杂的网络攻击以更大的规模(既包括地理空间,也涵盖网络空间)、以更快的速度,同步在多个军事领域展开,同时拥有比以往更强的隐匿性。比如,攻击者运用人工智能机器学习技术,开发“武器化软件”,采取入侵、破坏、欺骗等方式,对国家的无人系统、预警系统和其他操作系统(像核指挥、控制和通信系统;情报、监视与侦察系统;预警与自动化控制网络等)进行攻击,可能导致这些武器系统发生不可预测的或者是无法检测的错误、故障或者非法操作行为。在目前和未来的物联网时代,各类数字系统与物理系统广泛连接,对手利用人工智能网络技术进行动态与非动态攻击的可能性逐渐增加。更致命的是,网络攻击行为引进人工智能技术,可能会生成一种先进的持续的网络威胁工具,能够主动寻找网络的薄弱环节,甚至可以帮助一名技术平平的攻击者突破国家的防御网络。

四是人工智能可以协助应对网络攻击。尤其人工智能机器学习创建了大量宝贵的数据和情报库,与网络结合形成强大的力量倍增器,能够应对日益增长的、复杂的、匿名的和可能的多域网络攻击行为。

人工智能与网络如何保护美国国家核安全

美国的一些国家安全官员相信,人工智能作为力量倍增器,应用于攻击性和防御性网络武器,将给网络安全带来变革性影响,确实能够提升改善核安全。

一是人工智能与网络技术得以快速发展。近年来,随着机器学习技术的发展,解决了人工智能领域的一些技术瓶颈问题,使广泛应用的无人武器系统和网络系统的性能得到显著提升,正通过许多种方式改变核安全,对国家的网络安全和战略稳定产生正面的影响。

二是人工智能可以提升军队应对网络攻击的能力。人工智能网络防御工具(或者称反人工智能工具),其目的在于识别网络行为模式的变化,检测网络异常和软件代码漏洞,查找重要的证据,追踪并确定攻击者的身份。而利用人工智能机器学习技术(如深度学习技术),可以及时发现正常网络活动出现的偏差,协助建立更加牢固的防线,抵御网络入侵,保护国家核安全。

三是利用人工智能技术开发主动性网络工具。在对美国核系统积极防御的同时,国家也可以运用人工智能技术,开发对抗性人工智能武器,以加强网络安全,比如枚举目标空间或者重新封装恶意软件,以规避对手对我方网络和系统进行侦测或者攻击,并且能主动对对手开展网络反制和攻击行动。此外,人们还认为,通过网络攻击(即欺骗、入侵、操纵与数字干扰)渗透对方的核武器系统,可以破坏其通信系统,并最终(且对方可能根本不知道)获取核与非核指挥控制系统的控制权。

四是美国军方着手研发人工智能网络防御工具。正是考虑到人工智能的强大力量,美国国防部国防创新组正在开发一款程序,利用人工智能技术破解高层级战略问题,绘制事件概率链条,制定备用战略,使国防部系统在遭受人工智能网络攻击时能够快速恢复,而且系统配置和故障修复的速度可以比人做的更快更好。

人工智能与网络相结合给美国国家核安全带来的威胁

将人工智能技术赋予网络中,会导致对手使用恶意软件,采取秘密行动、欺骗、计谋等手段,控制、操纵或欺骗核网络系统,从而威胁国家核安全。近期对两用预警系统成功实施网络攻击的报告也表明,核指挥、控制与通信系统(NC3)遭受网络入侵的猜测正在快速变为现实。

一是人工智能等新技术将威胁核安全。为增强信息能力而开发人工智能、5G网络、机器学习、大数据分析、量子计算等,可能会被对手利用,开发出自动的、先进的、持续性的威胁工具,破坏核信息系统安全。而且,随着人工智能和机器学习的不断发展,可能不需要过多的人力,也不需要很高的技术水平,就可以持续对核网络开展威胁行动。最近国际战略研究所举办的研讨会也证实,预警系统接收到的恶意操作数据,不仅会在特定的情况下破坏人工智能系统的输出结果,而且如果在程序执行阶段,还会破坏整个网络环境的可靠性。因此,人工智能机器学习技术通过操纵数字信息世界,做出使用核武器的错误决策,会加剧国家间爆发冲突的风险。考虑到当前美国与如中国、俄罗斯、朝鲜等有核国家之间的紧张关系,不难想象,如果一个第三方组织或代理国家充满恶意,使用人工智能深度伪装,融合数据中毒技术对一方国家核安全开展秘密网络攻击,可能引发这些有核国家局势紧张。此外,在竞争性战略的背景下,各个国家倾向于对他国的意图往坏处揣测。一个国家通过人工智能技术提高本国战略部队生存能力的举措,可能被其它国家视为对其核报复能力和核二次打击能力的威胁。

二是人工智能网络行动可能导致国家攻防战略模糊。早期阶段的人工智能网络行动,通常搞不清楚对手是打算搜集情报还是准备实施攻击。模糊的网络攻防策略,可能加剧对手对先发打击的恐惧,增加其先机制敌的打算,在极端情况下还可能促使对手产生使用核武器的考虑。如果在危机期间使用人工智能网络情报搜集工具(或者间谍行为),更容易让对手产生误解,认为这是对其核力量进行先发制人打击的前奏。此外,在危机条件下,攻击性人工智能网络工具成功破坏对手的核武器系统,导致出现“信息不对称”的局面,可能引起单方或者双方高估(或者低估)对方的报复能力,随之可能采取冒险行动。比如,公开研究表明,中国分析人士认为,中国的核指挥、控制、通信系统容易遭受网络渗透,哪怕攻击者的目的仅限于网络间谍活动,也会被视为高度升级的国家安全威胁问题。因此在危机或冲突期间,人工智能网络能力的作用存在一些不确定性,可能会降低双方对风险的承受能力,增加其先发制人的考虑。

三是人工智能技术使核攻击反应时间大为缩短。在对手核打击发起的短时间内,针对核武器系统的人工智能网络攻击几乎不可能被提前发现和识别,更不可能对攻击源、攻击性质进行判断。根据公开的信息来源,在预警系统发出即将遭受攻击的初步征兆后,北美航天航空防御司令部的操作人员只有不到三分钟时间进行评估和确认。这样紧迫的决策时间会使政治领导者承受巨大压力,不得不使用不完整甚至可能是错误的信息做出决策,容易导致危机再度升级。

四是人工智能与网络结合可能导致决策复杂化。人工智能、5G网络支持下的机器学习、大数据分析和传感技术,针对即将到来的威胁,能够以更快的速度和更高的精度向指挥官发出预警,减少在敏感的指挥控制环节发生事故。然而,技术结合也导致两种风险并存。其一,人工智能机器学习作为网络攻击行为的力量倍增器,使一些攻击行为更加难于发现,如数据中毒欺骗、深度伪装、数据控制、网络入侵、数字干扰等,尤其是网络攻击者在电磁频谱对抗环境中使用这些先进的持续性威胁工具。其二,在不能成功发现网络攻击行为的情况下,以机器速度确认威胁源(或者攻击属性)几乎是不可能的。因此,当危机发生时,如果一个国家没有能力判定攻击者的意图,可能会得出对方的攻击行动是计划破坏其核威慑的结论,从而影响决策。此外,如果不了解人工智能系统如何辅助系统做出决策,可能会导致操作人员对系统的性能或者信心过满,或者信心不足,也会导致决策复杂化。

五是人工智能的技术尚不成熟。由于人工智能机器学习系统需要通过高质量的数据集来训练验证他们的算法,因此随之产生一个问题,如果将“中毒”数据注入训练数据集,会导致这些人工智能机器学习系统以人们不希望的和可能无法检测的方式运行。除非终止系统的机器学习算法,否则在实际应用阶段,系统可能学习到一些人们不愿意让其学习的内容,甚至执行一些设计者不期望其去执行的工作或任务。因此,这就是为什么在武器系统方面,目前人们大多将人工智能机器学习限定在实验研究领域的主要原因之一。

虚拟案例剖析

为了剖析人工智能、网络、核安全三者之间的辩证关系,作者以人工智能深度伪造和欺骗技术为蓝本,构设虚拟环境,假想了第三方介入或非第三方介入两种状况,因人工智能网络攻击行动造成国家间危机局势无端升级的模拟案例。

虚构案例一:深度伪装攻击

为了煽动两个敌对国家发生冲突,A国通过代理黑客制造深度伪装的视频或音频材料,描绘B国高级军事指挥官正密谋对C国发动先发制人打击。然后,有意向C国人工智能情报搜集分析系统泄漏这些伪造的音视频材料,激怒C国不计战略后果将局势升级。B国在受到先发制人打击的威胁下,采取报复性攻击行动作为回应。

在这个虚拟案例中,虽然两国危机局势升级会经过深思熟虑,但是,由于人工智能技术的介入,再经过第三方力量刻意的和欺骗性运用,容易导致国家间产生冲突,增加安全风险。

虚构案例二:欺骗攻击

A国采取人工智能技术,对B国基于人工智能技术的无人传感器平台和自动识别目标系统开展恶意网络欺骗攻击。通过这种方式,B国目标自动识别武器系统错误地将民用对象(如商业飞机)识别为军事目标。由于信息的欺骗性以及管理人员的无能,B国没有及时察知这些假象并采取正确措施,意外地和非主观意愿地使两国局势升级。

这个非第三方介入的案例并非凭空想象。人工智能专家已经验证,由于技术、管理等多种原因,甚至当数据准确地在人工智能图像识别软件上呈现时,系统还经常认为这些有效目标并不存在。此外,如果数据集遭到蓄意破坏并产生错误后果(比如在作战期间攻击错误目标或者误导同盟国等),再加上对人工智能算法认识不足,不了解该技术在特定判断和决策中的地位、作用、运行机制,可能使指挥官很难定下任务决心。

对人工智能技术的有关思考及建议

一是人工智能技术具有重要意义。虽然目前人工智能技术仅处于初始阶段,但其对网络安全、核安全和国家安全非常重要。随着人工智能技术的快速发展,国家不仅要积极研究和使用这一日益强大的技术,同时还要利用这一技术保证公民安全。

二是客观认识人工智能技术面临的诸多挑战。这些挑战因素包括:日益增多的威胁国家核指挥、控制与通信系统安全的攻击工具;新一代极具破坏性的人工智能赋能网络攻击能力(深度伪装、欺骗行为、先进的自动持续威胁工具等);人工智能网络攻击与防御的界限变得模糊;在提升人工智能技术的条件下,在竞争和对抗的地缘战略环境中,网络能力具有不确定性和战略模糊性。

三是推进人工智能由理论向实践转变。过去很长一段时间,人工智能对核安全的影响很大程度上停留在理论层面。但是随着技术发展和国家安全战略变化,目前需要采取积极的干预措施,减少并管理人工智能所带来的潜在不稳定因素和可能增加的风险。同时,随着技术日益成熟,积极开发运用人工智能技术,帮助国家先发制人地应对人工智能网络攻击,减少武器系统遭受攻击的风险,使人工智能为国家战略稳定提供支撑。

四是动用各方力量提升人工智能技术并实现相互融合。为了实现人工智能、网络技术、核指挥控制三者之间的有效结合,建议政府、国防机构、学术界和私营企业部门应该共同努力,促使人工智能技术深度融入网络空间与核安全领域,提升网络安全和核安全能力。

声明:本文来自知远战略与防务研究所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。