导语:2025年6月,美国大西洋理事会发布《人工智能监管对国防的二阶影响:国家安全领域为何必须参与》(Second-Order Impacrt Of Civil Artificial Intelligence Regulation On Defense: Why the national security community must engage)一文,介绍了主要国家及组织的人工智能监管及其对国防与国家安全领域的影响,并指出国防与国家安全领域需采取举措以应对潜在影响。启元洞见编译该文章主要内容,旨在为读者提供相关参考。

全球对人工智能的监管是复杂且瞬息万变的,即使是立场一致的国家在监管方式上也有很大差异,但监管基本都将国防与国家安全领域排除在外。监管豁免或特殊考量使该领域专注于内部标准与流程,与人工智能的监管分开。但人工智能技术本质上具有双重用途,这没有考虑到人工智能监管对国防与国家安全领域的影响。

一、定义

文章对监管一词使用广义定义,指对某项活动或过程的控制,通常通过规则进行,但不一定来自政府行为或受制于正式的执行机制。

文章将人工智能一词定义为,能够针对人类设定的特定目标,对真实或虚拟环境做出预测、建议或决策的基于机器的系统。未来可能包括尚未实现的人工通用/超级智能系统,但不包括控制先进微型芯片的生产技术。

二、主要国家和组织的监管举措

(一)美国

美国采取技术中立的监管态度,鼓励企业创新,并平衡公共安全与公民权利。各方认同政府应发挥监管作用,但对如何监管未达成共识。

1.概述

监管方式为重点关注用途,特别是与自由、数据隐私和消费者保护相关的内容。部分辖区会就特定风险模型补充监管。监管范围重点为人工智能系统产生的结果,对单个模型或算法的考虑有限。监管类型为联邦与行业达成自愿性协议,并将人工智能纳入硬法。部分州已制定硬性法规,总体上侧重于保护现有消费者权益及公民权利。关于监管对象,在美国联邦层面,自愿性协议针对的是开发者和部署者,服务提供商不在此列。州层面监管参差不齐,部分州已对开发者和部署者提出更具体的要求。关于国防与国家安全,美国联邦层面由单独法规管辖,针对不同组成部分设置专门框架。目前尚无州级法规。美国国内治安、反恐等可能会被纳入监管。

2.美国联邦监管

人工智能是近年来两党之间难得达成相对一致的领域。特朗普的理念在拜登时期得以延续,尽管拜登的举措被特朗普推翻,但其中技术官僚色彩较浓的政策得以保留。参议院多数党领袖促成了两党参议院人工智能工作组的政策路线,该路线更关注美国的国际竞争优势而非国内监管,短期内难有重大立法。2024年,《国防授权法案》要求评估人工智能的伦理使用并研究军事应用漏洞。

3.美国州级监管

2024年,45个州提出人工智能法案,31个州通过决议或立法,多聚焦消费者权利与数据隐私。加州议会曾通过严格的人工智能法案;犹他州聚焦生成式人工智能的透明度与消费者保护;科罗拉多州针对高风险人工智能系统建立反歧视框架。州级立法虽难直接影响军事或国家安全用户,但可能因公众恐慌而趋严,国内警卫队在执法中使用人工智能可能引发争议。

4.国际影响

美国积极参与国际组织的人工智能监管行动。拜登政府的《负责任军事使用人工智能与自主性政治宣言》是非强制性指导方针,不限制缔约国开发国防人工智能系统,已有47个国家认可了该宣言。

(二)欧盟

欧盟是全球第一个围绕人工智能的开发、部署和使用发布具有法律约束力规则的组织。原计划作为消费者保护法,因ChatGPT出现,规制范围扩展至此类模型。

1.概述

监管方式为横向监管,也有针对通用人工智能系统的纵向监管,基于风险评估方式确定特定用途的监管等级。监管范围主要为高风险和通用人工智能系统,涵盖数据、算法、应用等,不涵盖硬件。监管类型为硬性监管,对违规行为处高额罚款。监管对象主要为人工智能开发者,极少有部署者责任。因权限问题排除国防与国家安全适用,但涵盖国内警务。

2.内部监管

欧盟《人工智能法案》在所有成员国直接生效,采用风险分级(不可接受、高、有限、最低/无风险)进行监管。属不可接受风险的系统(如工作场所监控等)被完全禁止;属高风险的系统(如生物识别等)受最严格监管,对于构成“系统性风险”的通用人工智能需遵守类高风险系统的义务。即使允许开发者自定风险类别,高额罚款仍会对违规者形成威慑。另外,尽管排除了军事用途,但对执法豁免条款(如警务人工智能犯罪画像)争议较大,且因军事与警务技术重叠(如反恐),可能对国防产生连带影响。欧盟人工智能办公室的工作机制尚未明确,国家和欧盟法院的解释至关重要。

3.国际影响

《人工智能法案》旨在统一成员国标准以保障单一市场运作,但其带来的影响可能不局限于欧盟——如《通用数据保护条例》带来的高合规成本影响了全球企业。

(三)英国

英国政府采用创新友好与灵活的监管政策,旨在平衡经济增长与公众安全及基本价值观之间的矛盾。

1.概述

监管方式为横向的、行业性的,未来可能对通用人工智能采取纵向监管。监管范围不够明确,主要针对人工智能系统,但也会根据行业考虑供应链不同部分。监管类型为通过行业监管机构实施硬性监管。监管对象因行业而异,一般侧重于开发者和部署者。关于国防与国家安全,专门的军事与国家安全框架与更广泛的政府监管框架并行。

2.国内监管

2022年6月英国首次制定人工智能监管方针,同年12月发布《国家人工智能战略》,次年8月发布细化监管方针的文件。2024年大选工党监管态度由硬转为缓,计划年底出台的人工智能立法并未实现。

除特定情形外,现有行业监管机构最了解本行业需求。部分机构已将人工智能纳入监管,如金融行为监管局的“沙盒监管”。尽管整体监管分行业进行,但仍存在中央统筹机制,如英国人工智能安全研究所与企业签署自愿测试模型协议。竞争与市场管理局提议依据《数字市场、竞争与消费者法案》优先监管通用人工智能,该法案赋予其高额罚款权。

2022年6月,英国国防部发布人工智能战略及伦理原则声明,强调军事人工智能的独特风险。英国情报机构(如政府通信总部)通过现有立法与技术顾问确保人工智能合规使用。随着人工智能监管的发展,英国需通过道德原则进行风险评估,验证国家安全框架能否应对人工智能风险

3.国际影响

英国积极参与国际组织多边讨论,2023年底举办首届全球人工智能安全峰会,有28国签署《布莱切利宣言》,承诺合作确保人工智能安全、共同应对风险,但因只关注通用人工智能的生存风险而非安全问题遭到批评,且缺乏具体规则。

(四)新加坡

新加坡拥有强大的数字经济,以亲商、创新闻名,监管路径与英国相似,平衡经济增长与风险防范。

1.概况

监管方式为横向的、行业性的,未来可能对通用人工智能采取纵向监管。监管范围拟包括数据、算法、应用等内容,实践中因行业而异。关于监管类型,通过现有行业监管机构进行硬性监管。监管对象包括开发者、部署者和服务提供商/托管平台,责任按控制程度及开发部署阶段划分。无国防与国家安全的公开监管框架。

2.国内监管

新加坡政府采用基于现有框架的行业性、灵活性监管来规制安全问题,但较少关注国家安全。政府与科技行业合作开发监管工具——自愿治理测试框架“AI Verify”,帮助企业测试系统是否符合全球人工智能治理框架。

尽管政策文件对国家安全着墨不多,但新加坡是首个设立独立军事部门以应对数字领域威胁的国家——数字与情报局整合指挥、控制、通信、云计算和人工智能等领域。新加坡国防科技局也拟将人工智能融入作战平台、武器等领域。但新加坡武装部队未公布使用军事人工智能的官方立场。

3.国际影响

新加坡支持创新的战略可能持续影响该区域。作为2024年东盟数字部长会议的主席国,推动制定《东盟人工智能治理与伦理指南》,因东盟政治、技术差异大未推行共同监管。该指南与美欧英政策在基于风险的治理方法上相似,但却更兼顾各国文化。

(五)国际监管举措

1.经合组织

经合组织于2019年发布了《人工智能原则》,还为全球人工智能伙伴关系提供秘书处服务。虽然未明确提及国防与国家安全,但会影响对该领域的讨论。例如,数据治理工作组的指南会对合法使用数据训练算法产生影响。经合组织还曾协助七国峰会制定国际人工智能指导原则与自愿行为准则。

经合组织监管方式为横向的、风险导向的。监管范围为人工智能系统和相关知识,对算法和数据有具体措施。监管类型为无合规或执行机制的软性监管。监管对象包括参与人工智能系统生命周期中的任何人或任何组织。不涉及国防与国家安全

2.七国集团

七国集团于2023年建立了广岛人工智能进程,在全球为通用人工智能系统建立护栏。同年,包括国际指导原则和开发者自愿行为守则在内的综合政策框架出台,通过提供可信的人工智能工具,成为各国监管框架的基准。这需要包括国防与国家安全人工智能供应商在内的科技行业的参与。

七国集团还在技术标准与国际数据流动等领域发挥作用,但内部分歧可能阻碍这一进程。国际数据流动领域的情况稍显乐观,如欧美数据隐私框架通过“数据桥”减少跨境数据流动合规负担,尽管仍面临被欧盟法院否决风险。

七国集团监管方式为仅适用于通用人工智能的纵向监管,监管范围聚焦通用人工智能系统的数据共享与跨境传输,监管类型为无合规与执行机制的软性监管,监管对象仅适用于通用人工智能开发者,不涉及国防与国家安全领域。

3.联合国

2021年,教科文组织发布全球人工智能伦理标准,建立人工智能伦理与治理实验室帮助评估伦理准备程度。ChatGPT发布后,联合国成立人工智能咨询机构,发布报告并建议内部定期开展政策对话,由国际人工智能专家科学小组提供支持。同时计划在秘书处设立小型人工智能办公室。

联合国大会通过两项人工智能决议:美国起草的“抓住安全、可靠和值得信赖的人工智能系统的机遇,促进可持续发展”的决议(安理会认为不适用军事领域);中国主提的“加强人工智能能力建设国际合作”的决议。2023年7月,联合国安理会秘书长指出人工智能的军民应用均影响全球安全,提议建立联合国人工智能治理机构

联合国监管方式是横向的、聚焦可持续发展的。监管范围为广义的人工智能系统,侧重数据治理与避免数据偏见。监管类型为无合规与执行机制的软性监管。监管对象涉及人工智能系统的设计、开发、部署与使用。关于国防与国家安全,决议排除了军事用途,但安理会有相关讨论。

4.北约

北约不参与民用监管,但在军事标准领域发挥重要作用。2021年正式通过首个人工智能战略,北约内部设数据与人工智能审查委员会,制定认证标准,确保新的人工智能项目符合上述战略中的负责任原则。北约无强制执行权,且成员国达成共识做出决定不易,技术标准比规范性问题更易达成一致。北约标准化办公室有能力确定适用于国防与国家安全的人工智能标准,并确定哪些领域需定制特殊标准。

北约监管方式为横向的,人工智能原则适用于所有人工智能类型。监管范围包含广义的人工智能系统。监管类型为无执行机制的软性监管。监管对象为在军队中开发和部署人工智能的成员国。相关规定仅涉及国防与国家安全

三、分析

(一)共性

监管方式倾向于行业或用途导向,这是平衡创新与用户保护的务实之举,但对通用人工智能,越来越多观点认为需采用纵向的、技术导向的监管。关于监管范围,对人工智能需监管的元素缺乏共识,在框架仅提及人工智能系统时,可通过相关文件推断范围(算法、数据等),这与现有行业监管的策略一致——根据行业不同重点关注对象也不同。关于监管类型,仅欧盟与中国制定了专门人工智能硬性法规,多数还是依赖行业监管、自愿性指南等,目前立法趋势加强。关于监管对象,基本都将部分责任归于开发者,很少包括部署者和服务提供商。有观点认为责任分配应随人工智能生命周期变化,但实践较少且需长期探索。

(二)对国防与国家安全的影响

一是监管塑造市场影响工具可得性。直接干预如修改反垄断法迫使供应商拆分等,或间接干预如影响市场可用工具种类等,可能影响国防人工智能工具的获得。二是对民用法规的司法解读影响行动许可。可能直接限制特定用途如国内反恐的人工智能使用,或通过对法律责任的担忧来间接影响。三是增加开发和部署的成本与风险。复杂合规制度、碎片化技术标准可能增加成本;军民双重用途模型的许可或报告可能会带来相关的安全风险。

通过评估民用监管框架,可以识别国防与国家安全的具体领域需关注的举措,分为三类:短期应支持,指应在短期内支持的领域或措施;中期应主动,指仍处于走向成熟阶段需要更多投入的领域,中期内可能会对社会产生重大影响;未来应警惕,指仍处于走向成熟阶段但未来影响不确定,可能需要社会意见。

表1:短期内应支持的领域

领域

内容

技术标准

对齐民用标准,降低合规成本、最大化互操作性、高效采纳民用解决方案。

风险评

估工具

采用民用开发工具与最佳实践,节省时间与资金。

安全保

障工具

同上,且在共享领域保持标准等效性可能带来声誉与运营收益。

表2:中期内应支持的领域

领域

内容

相邻领

域与用

途监管

对国内安全与警务人工智能、规模经济的限制会降低可用能力、增加成本。

数据共享

与传输

监管跨境数据共享可能限制开发与部署的合作。

生成式

人工智能

专项规定

针对支撑特定行业的人工智能系统监管可能影响国防可用能力(即使有豁免)。

表3:未来应支持的领域

领域

内容

许可与

注册数据库

对开源或专有基础模型的登记可能因恶意行为者入侵登记系统引发风险。

数据保护、

隐私与

版权法规

可能限制训练数据的获取。

监管塑

造市场

反垄断法对人工智能巨头企业的规制可能影响国防供应商。

法律责任

对民用法规的司法解读可能影响非作战场景中的民刑责任等问题。

四、结论

尽管多数人工智能监管排除国防与国家安全领域的应用,但人工智能系统固有的双重用途性质意味着国防与国家安全领域不能孤立看待自身。国防与国家安全的监管问题必须成为广泛解决方案的一部分。负责国家安全人工智能事务的政府部门及人员,拥有军民双重用途人工智能产品的行业组织、私营企业应理解人工智能监管对自身利益的影响,并参与相关讨论。

(本文内容系“启元洞见”公众号原创编译,转载时请务必标明来源及作者)

参考来源:美国大西洋理事会(Atlantic Council)

参考标题:Second-Order Impacrt Of Civil Artificial Intelligence Regulation On Defense: Why the national security community must engage

参考链接:https://www.atlanticcouncil.org/in-depth-research-reports/report/second-order-impacts-of-civil-artificial-intelligence-regulation-on-defense-why-the-national-security-community-must-engage/#analysis

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

编辑 | 南玮

审校 | 桑妮

声明:本文来自启元洞见,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。