《2019国防授权法》(NDAA)设立了美国人工智能国家安全委员会,该委员会通过研究必要的举措来推动美国人工智能、机器学习和相关技术发展,全面应对国家安全和国防需求。国会赋予委员会从国家竞争力、保持技术优势之道、国际合作和竞争趋势、促进基础和高级研究投入、劳动力和培训、军事应用的潜在风险、道德伦理问题、数据标准建立以及人工智能未来发展等方面审查人工智能。

美国人工智能国家安全委员会于2019年11月4日向国会递交中期报告。

其研究重点集中于:

1)当前人工智能时代下,国家安全面临的外国威胁;

2)人工智能如何提高美国在国防、盟国合作以及保持全球军事力量平衡等方面的能力;

3)人工智能与经济竞争之间的关系;

4)出于国家安全目的部署人工智能系统时的道德问题。

报告具体分为四大方面:

1)美国面临的挑战;

2)美国政府行动路线;

3)合乎道德伦理的可信人工智能;

4)相关联技术,更为完整的分析和建议将在最终报告中呈现。

一、美国面临的挑战

首先,报告罗列了人工智能促进国家安全的主要方面:

●人工智能将改变人们的防御方式:应用人工智能赋能的工具和系统有助于保护边界,检测和打击恶意网络操作,保护关键基础设施以及有效地应对自然灾害。

●人工智能将改变情报机构理解世界的方式:人工智能算法可以通过筛选大量数据查找规律,检测威胁并识别关联性。基于人工智能的分析可以提供更快、更精确的态势感知,支持更高质量的决策。

●人工智能将改变作战方式:人工智能将促进新一代的半自主和自主战斗系统和操作。

随后,报告阐述了人工智能可能带来的威胁,主要来自两个方面:1)对手可以利用人工智能进行的操作;2)人工智能系统本身可能造成的后果(如果不采取保障措施)。具体包括:

削减美国军事优势。他国对于人工智能自动系统的采用和部署如果超越美国,将削弱美国的军事优势和威慑力。

战略稳定面临风险。如果人工智能赋能的系统能够追踪并锁定目前的高防御性军事资产,则可能破坏全球稳定和核威慑。

人工智能应用扩散。随着人工智能应用更为容易,不道德地使用人工智能技术的可能性越来越高。

虚假信息和威胁民主制度。人工智能将加速业已严重的网络虚假信息。这将使深度伪造技术缔造虚假事实,并可以利用个人偏见和喜好进行大规模内容分发,加剧社会分歧。

个人隐私和公民自由遭破坏。新的人工智能工具进一步赋能各国监视和跟踪本国和别国公民。公民数据来源的激增将加剧侵犯人权或个人隐私的风险。

加速网络攻击。智能恶意软件将自动发现并利用系统漏洞,同时发挥攻防作用,并智能地针对特定系统。同时,人工智能还将增加受网络攻击的媒介。

新技术带来新漏洞。攻击者可能会使用“逆向人工智能”技术来破坏数据,欺骗机器或通过获取算法进行反向工程。

鉴于人工智能的优势与危险以及技术发展的不确定性,目前处于一个不确定的时期。为了最大程度地发挥人工智能潜力,同时降低人工智能带来的风险,报告提出了围绕有关人工智能与国家安全之间关系的七项基本原则:

● 人工智能技术的全球领导地位是国家安全的重中之重。

● 为防御和安全目的而采用人工智能是当务之急。

● 私营部门领导人和政府官员必须共同为美国人民福祉和安全建立责任感。

● 人才是人工智能发展必不可少的动力。

● 必须保留自由探索的活力。美国需要在实现开放的同时保护知识产权和敏感技术。

● 道德和战略必要性需相互兼容。

● 美国对待人工智能的方式必须反映美国价值观。

此外,报告指出,美国的人工智能发展不会脱离与中国的新兴战略性竞争。报告认为,中国在人工智能研发、商业竞争、军民融合、军事现代化、全球人才等方面对美国构成巨大威胁。两者的竞争过程中存在许多相互依存和纠缠之处。人工智能国家安全委员会正在寻求更为理想的具体行动,平衡竞争利益并保留合作带来的益处,同时抵制与美国利益背道而驰的活动。另外,委员会将在最终报告中对美国的相对优势和劣势提出更完整评估。

美国国防部长马克·埃斯珀(Mark Esper)10月29日在国家安全委员会上称中国是美国在AI领域的主要“战略竞争对手”。(图片来源于法新社)

自白宫于2019年颁布《保持美国在人工智能领域的领导地位》行政令起,数名国会议员提出了30多项针对人工智能的法案,并组织了国会人工智能核心小组,数以百计的人工智能相关项目正在国防部进行。但在很大程度上,人工智能对美国政府而言仍是难题,因为人工智能不适用于由国家安全需求和联邦资金牵引的传统技术发展范式。当前,大多数人工智能应用出现在商业领域,而国家安全相关的应用大多只是理论和可能性。联邦研究支持对于早期人工智能研究至关重要,但是政府对人工智能技术的开发、共享和使用方式的控制有限。委员会的初步判断是,美国没有将国家的人工智能优势和人工智能战略声明转化为特定的国家安全优势。关键部门和机构尚未完全接受高层战略声明,因此重要的国家安全任务尚未纳入人工智能。

二、美国政府的行动路线

1、投资人工智能研发

1)美国政府尚未提供充足资源来满足当前研究需求以及为未来创新创造条件。冷战时期成立的由政府机构、大学和私人公司之间组成的“三角联盟”已经发生了重要变化。更多的研发活动发生在科技公司内部,联邦研发经费持续降低。2)在全国范围内建立人工智能研发基础设施并鼓励区域创新“集群”。此类人工智能区域将有利于提升国家安全和经济竞争力。3)美国政府应实施更灵活的资助机制以支持人工智能研究。为人工智能研究人员提供职业中期奖励,推行人工智能和高级计算认证证书等。4)美国政府必须明确、侧重、协调并紧急实施以国家安全为重点的人工智能研发投资。5)官僚和资源限制阻碍了政府附属实验室和研究中心充分发挥其人工智能研发潜力。

2、将AI应用于国家安全任务

1)人工智能可以帮助美国执行核心的国家安全任务。2)政府实施人工智能安全战略受到官僚主义阻碍。3)如果缺乏自上而下的领导,自下而上的孤立计划无法转化为战略变革。4)人工智能的采用和部署需要不同的获取方式。政府内部开发应用程序的同时,也需要吸纳商业技术。5)必须快速部署人工智能,这需要投资韧性、强大、可靠和安全的AI系统。6)人工智能水平依赖于其背后的基础设施。7)美国政府未充分利用基础性商业人工智能来改善经营方式并节省纳税人财产。8)部门和机构必须进行现代化改造,提高效率和成本效益。

3、培训和招募AI人才

1)国家安全机构需要重新考虑对可用人工智能劳动力的要求。这包括扩大整个组织对人工智能技术的熟悉度,在各层面开展道德和负责任地开发和部署人工智能的相关培训,并扩大现代软件工具的使用。2)需要有效的方法来识别雇员中已经存在的人工智能相关技能,系统地衡量和激励这些技能的发展。3)美国政府没有充分利用非军方招聘机构来招募人工智能人才。4)扩大以人工智能为重点的奖励金和交流机会可以使政府人员了解尖端技术,为政府提供来自顶级人工智能公司的人才。5)军事和国家安全机构正在努力争取顶尖人工智能人才。他们需要为毕业生提供更好的宣传、激励机制和入职机会。6)关于美国人工智能人才库的两个事实:高校普遍无法满足大学生对人工智能和计算机科学的兴趣需求;美国人工智能人才库在很大程度上取决于国际学生和雇员。美国的全球竞争力取决于吸引和留住来自世界各地顶尖人才的能力。

4、保护和建立美国技术优势

1)美国政府应继续使用出口管制(包括多边管制)来保护美国和盟军特定的人工智能硬件优势,尤其是半导体制造设备中的优势。2)传统的基于项目的出口管制和狭义的外国投资审查本身不足以维持美国在AI方面的竞争力。3)美国必须继续在人工智能相关的硬件方面保持领先地位,并确保政府对最新技术具有可信访问。4)执法人员和学术领袖可以并且应该共同保持开放的研究体系,同时减少外国政府在美国校园开展活动所带来的安全风险。

5、引领全球人工智能合作

1)美国必须通过建立合作伙伴网络,致力于人工智能数据共享、研发协调、能力建设和人才交流来增强其在人工智能方面的竞争力。2)人工智能为军事互操作性提出了重大挑战。如果美国及其盟国在人工智能技术方面不尽早进行经常性协调,那么将会损害军事联盟的有效性。3)美国外交应该对与中国和俄罗斯在促进人工智能安全、控制人工智能对战略稳定性影响方面的潜在合作持开放态度。4)美国应带头设定积极议程,与所有国家就人工智能的发展造福人类进行合作。

三、关于道德和可信赖人工智能

以道德和负责任的态度开发和部署人工智能技术是委员会所有工作的优先事项。在国家安全背景下提及伦理道德和可信赖人工智能时,报告确定了三个基本组成部分:

1)可信赖人工智能系统的设计和开发需合乎伦理道德;

2)这些系统的道德使用;

3)使用人工智能时保留适当的权利和自由。

开发可信赖的人工智能系统与可靠性、鲁棒性、可审计性、可解释性和公平性密切相关。

四、人工智能相关技术

委员将考虑下列两类相关技术:1)与人工智能关联和互补的研究;2)人工智能的特定领域应用。其中,相关联的新兴技术包括数据、网络和计算。可靠、安全、高速的连接对于为人工智能系统提供动力至关重要。5G网络将显著增强国防和商业环境中的信息共享能力。同时,超级计算和新型计算范式(量子计算)的发展可能对人工智能的发展产生重大影响。此外,人工智能有望实现一系列特定领域的应用,但同时会带来安全问题。委员会将考虑跨部门和研究领域,与人工智能应用相关的风险,重点关注对国家安全有最直接影响的风险。

编译 | 贺佳瀛

原文链接:https://drive.google.com/file/d/153OrxnuGEjsUvlxWsFYauslwNeCEkvUb/view

声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。