在全球人工智能标准制定中,出现了出人意料的模式:来自地缘政治竞争对手的技术专家愿意在跨国标准制定组织内就人工智能技术标准开展合作,而各国政府则不太愿意在国际组织内就全球人工智能伦理标准开展合作。竞争还是合作取决于3个变量:行动者采取的博弈策略、标准制定行动者的类型,以及标准制定工作所关注的问题。初步的实证分析表明,上述三个变量确实会影响全球人工智能标准的合作前景。

一、引言

近几十年来,标准制定已经成为技术治理的关键模式之一,从“单个公司的内部事务发展为众多独立行动者之间的合作与竞争”。本文将“人工智能标准”定义为:一种明确的规范,以技术规范或伦理指南的形式,管理人工智能系统全生命周期的所有方面。目前,许多政府、公司、非营利组织以及众多其他行动者正在通过制定人工智能领域的标准,试图塑造人工智能的发展及治理格局。这些行动者之间相互竞争和合作,以推动有利于自身的解决方案成为标准。通常认为,行动者之间的竞争可能阻碍标准制定的合作,但情况并非总是如此。事实上,竞争对合作的损害程度似乎取决于标准制定组织的类型。在跨国标准制定组织内部,特别是在国际标准化组织(ISO)和国际电工委员会(IEC)设立的联合技术委员会(JTC)的人工智能分技术委员会内,全球在人工智能技术标准的合作程度很高,包括美国、中国和欧洲国家之间的合作。但在政府间国际组织内部,全球在人工智能伦理标准上的合作非常有限。这些竞争和合作新趋势的成因是本文要探究的重要问题。

二、影响标准制定竞争和合作模式

的3个变量

对国际组织和跨国标准制定组织来说,竞争和合作水平主要通过3个变量来衡量:行动者的博弈行为、标准制定行动者的类型、标准制定工作所关注的问题。这3个变量之间相互作用和影响,试图制定标准的行动者类型会影响标准制定涉及的问题类型。反之亦然,不同类型的问题会吸引不同类型的行动者参与标准制定过程。外部政治和商业环境的影响,以及是否存在不同政治制度和价值观之间的竞争,都会影响行动者的博弈行为和标准制定过程中所涉及问题的类型。

(一)博弈策略

在国际组织中,许多成员国都想利用其他成员国创造的公共产品为自己谋取私利,试图搭便车,这是由公共产品的非排他性和非竞争性决定的。地缘政治竞争进一步强化了公共产品博弈结构中致使双方拒绝合作的因素,但同时协调博弈中固有的收益特点为成员国之间的合作提供了充分理由。博弈论为分析国际组织和跨国标准制定组织内部的标准制定奠定了基础,可用于分析收益预期和结果之间的关系。虽然协调博弈和公共产品博弈是现实的简化模型,但它们确实能对复杂而混乱的现实进行分解,因此构成了解释人工智能标准制定中竞争和合作新兴模式的第一层次。

(二)行动者类型

不同类型的行动者在制定标准时追求不同的目标,并面临不同的机遇和约束。政府在标准制定中面临着“两层博弈”,一是通过与其他国家合作制定人工智能伦理标准可能会为政府在国内赢得更高的支持率,二是面临来自国内产业界反对签署国际协议的压力。此外,各国政府之间还存在一些复杂关系,这些关系可以促进合作,但也可能阻碍协议达成。总之,政府面临的两层博弈困境以及彼此之间复杂的关系增加了制定全球标准的成本,降低了政府合作的可能性。跨国标准制定组织的成员构成使合作变得相对容易,其成员大部分不代表政府,因此在达成协议时不需要担心标准可能引发的广泛政治影响。鉴于跨国标准制定组织的使命就是制定标准,且其成员多为非政府代表,这有利于成员更愿意做出妥协,就标准达成一致意见。

(三)关注问题

跨国标准制定组织是私营组织,其授权范围有限,其任务是制定、发布和传播标准——允许公司在全球销售相同产品的技术规范,而不必考虑经济稳定和国家安全等问题。国际组织往往专注于制定人工智能伦理标准,这类标准本质上更有可能为全球公共产品做出贡献,而人工智能技术标准较易在文化和政治多元的国家之间产生价值冲突。因此,公共产品博弈中固有的不利于合作的因素、国际组织成员的政府代表身份,以及人工智能伦理标准对本国的深远影响等因素,都使得在国际组织内部难以就人工智能标准达成协议。鉴于上述挑战,各国都想通过规模较小的、成员有限的小型多边组织来协商制定相关标准。技术规范应尽可能具有包容性,以有效降低交易成本或创造规模经济。对于参与制定技术规范的行为者来说,达成全球协议是符合共同利益的,最佳策略是选择一个“专职机构”,将尽可能多的利益相关方聚集在一起,这样起草的标准才有可能在全球范围内得到采用。在这种情况下,市场力量比共同价值观更重要,能够使各国行为者合作制定人工智能技术标准。价值观冲突虽然不太可能完全阻止合作,但会改变行为者合作的可能性。协调博弈中固有的激励因素、成员结构多样且在很大程度上不受政府限制的特点,以及技术标准制定中伦理问题相对次要的地位等因素,推动了跨国标准制定组织在人工智能技术标准方面的快速发展。

三、人工智能标准制定的

竞争与合作的新兴模式

为了验证上述理论框架的有效性,即3个变量(行动者的博弈行为、标准制定行动者的类型、标准制定工作所关注的问题)的相互作用会影响人工智能标准制定模式,本文采用演绎编码的方法对收集到的专家访谈记录、人工智能治理的相关文献,以及政策文件、媒体文章和决策者的社交媒体等数据进行处理和分析,以探究人工智能标准制定中竞争与合作的新兴模式。

(一)国际组织的人工智能标准制定

目前,世界卫生组织(WHO)、联合国教科文组织(UNESCO)和国际电信联盟(ITU)都发布了人工智能标准,其中WHO和UNESCO专注于人工智能伦理标准,而ITU则专注于技术标准制定。WHO早在2021年就发布了一份指导文件,确定了在健康领域负责任地使用人工智能的六项核心原则。UNESCO于2021年11月通过了首份人工智能伦理问题全球性协议——《人工智能伦理问题建议书》。在制定人工智能伦理标准的国际组织中,实证结果支持了公共产品博弈的收益假设,成员国对搭便车和不信任的担忧,破坏了国际组织内部关于人工智能标准的合作。在制定人工智能技术标准的国际组织中,协调博弈消除了搭便车和不信任的动机,这种确保标准执行和实施的机制有助于就全球标准达成协议。因此,尽管地缘政治竞争的双方在ITU的研究组和领导层都非常活跃,ITU仍然成功就一些人工智能标准达成了一致。值得注意的是,当政府担心严格执行全球标准会对国内利益相关者,特别是国内企业产生影响时,该机制可能也会妨碍协议达成。

除上述对搭便车和不信任的担忧外,在缺乏普遍伦理原则的情况下,持有不同价值观的成员国很难就人工智能的伦理治理规则达成一致,尤其是具有强制性的规则。美国和欧盟一方面通过专家代表阻止中国在西方主导制定的人工智能治理框架中获得任何影响力或助力;另一方面构建小型政府间组织强化合作,如建立“贸易和技术理事会”,促进基于所谓共同民主价值观的贸易和技术合作。在人工智能领域的全球治理中,非国际组织的行为者发挥着日益重要的作用。私营公司和各国政府机构均已制定大量人工智能伦理原则或指导文件。此外,企业行为者与社会行为者一起,正在呼吁各国制定管理人工智能伦理影响的标准。在缺乏全球人工智能伦理标准的情况下,有影响力的大企业通过垄断人工智能系统使用的模型和算法已经制定了事实上的标准。

(二)跨国标准制定组织的人工智能标准制定

与国际组织相比,跨国标准制定组织在制定人工智能标准方面取得了更大进展。其中,最活跃的跨国标准制定组织包括:一是ISO和IEC的联合设立的JTC,其中的人工智能分技术委员会已发布了10余项标准,并另有20多项标准正在制定中;二是电气与电子工程师协会(IEEE),发布了伦理对齐设计的倡议,并发布了60多项与人工智能相关的标准。跨国标准制定组织推进人工智能标准的速度印证了这样一个假设:技术标准附带的网络效应强有力地推动了合作。虽然存在地缘政治竞争的负面影响,但跨国标准制定组织的成员可以继续合作制定人工智能标准。迄今收集的证据表明,这是由于大多数标准制定组织的成员并不代表政府,标准制定过程是“市场驱动的”,政府在其中的作用并不显著。同样,如果合作能带来科学进步,来自竞争国家的研究人员也愿意合作,在专家模式下制定标准更容易达成一致。当然,政治和商业竞争在跨国标准制定组织中也起着一定作用,而技术标准的网络效应提供了强大的合作动力,这使得合作是比竞争更好的选项。事实上,IEEE和人工智能分技术委员会的挑战性任务在于制定确保全球人工智能开发者和使用者遵守伦理原则的标准。IEEE发布了名为《伦理对齐设计》的报告,提出了八大原则,用于“创建和操作人工智能系统,进一步促进人类价值并确保可信度”。该倡议已经发布了具体规范,其中包括设计基于价值观系统的方法、管理隐私问题以及处理和消除算法中的负面偏见,但并没有明确指出哪些价值观应被维护。ISO和IEC的工作帮助行动者逐渐涉足人工智能伦理和治理等更广泛的问题域,并已成立了一个联合工作组,旨在制定一项关于人工智能治理影响的ISO/IEC标准。人工智能分技术委员会制定的标准最初专注于大数据的共享术语和参考架构,但近期的标准逐渐涉及诸如偏见、可信度以及人工智能引发的伦理和社会问题等方面。与IEEE的标准一样,这些标准侧重于从技术角度阐述“应该如何做”,而不是规定人工智能伦理系统应维护的具体价值观。布鲁金斯学会对美国、中国、欧洲、日本、中国台湾地区和韩国等高科技公司的158名高管的调查显示,大部分企业认为美中之间的技术竞争将在未来几年持续,但它们仍计划继续在两者的“技术堆栈”中开展业务。技术标准的网络效应和人工智能标准都具备高投资回报率,因此围绕一个或几个专职机构就标准达成一致也并不意外。

四、结论

通过对人工智能标准制定中竞争和合作的新兴模式进行分析表明,世界各国的技术专家正在跨国标准制定组织内合作制定人工智能技术标准,但政府在国际组织内合作制定全球人工智能伦理标准的意愿较低。初步的实证分析支持了这一观点,即行动者采取的博弈策略、标准制定行动者的类型,以及标准制定所关注的问题,会共同影响国际组织和跨国标准制定组织合作制定全球人工智能标准的前景。

在跨国标准制定组织起草技术标准方面,企业行为者之间的相互依赖以及研究人员之间的合作,倾向于促成一个包括中国在内的专职标准制定论坛的局面。然而,在政治层面上就人工智能伦理标准的谈判而言,欧美等国与中国和俄罗斯之间的分歧日益加剧。美国和中国等超级大国之间的相互依赖程度日益加深,非国家行为者(尤其是企业和研究机构)是阻止两个大国技术体系完全分裂的重要力量。

政治在国际组织和跨国标准制定组织内的人工智能标准制定中起着重要作用,影响着新兴的人工智能政策。地缘政治竞争影响着国际组织内的政府是否能够克服公共产品博弈中固有的搭便车现象,还影响着跨国标准制定组织内的专家在协调博弈中如何做出权衡和决策。此外,它还影响着行动者在制定人工智能标准时所面临的阻碍和机遇,并影响国际组织和跨国标准制定组织所面临的问题。因此,政治对世界各国是否合作制定全球人工智能政策以及对这些政策的内容将产生深远影响。

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源网络,如有侵权请联系删除。

来源 | 《Review of policy research》

作者 | Ingersleben-Seip

编辑 | Zoie Y. Lee

审校 | 流景

声明:本文来自元战略,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。