文|黄潇怡 中国信息通信研究院互联网法律研究中心研究员

11月16日,布鲁金斯学会发布《推动基础人工智能模型的国际合作》报告,认为人工智能的发展为社会和经济繁荣提供了新的机会,但也存在危害风险。报告同时认为,人工智能方面的国际合作虽然已经在贸易协定和国际经济论坛中展开,但仍需在人工智能算力基础设施、人工智能标准和人工智能数据治理等方面更深入的开展国际合作。

一、基础人工智能相关机遇和风险

报告所指的基础人工智能模型,包括大型语言模型(LLM),如ChatGPT4,以及其他更广泛的基础人工智能,如通用人工智能(AGI)和超人人工智能等。LLMs通常被称为生成式人工智能,因为这些模型基于提示生成新内容。同时,一些人认为AGI的元素已经在ChatGPT4中出现了。

一方面,基础人工智能将在社会发展、经济增长和科学研究,以及国际贸易等多方面带来新的机遇。在社会发展方面,麦肯锡通过对63个案例的研究发现,ChatGPT4这样的生成式人工智能在客户运营、营销和销售、软件工程和研发等领域的使用,每年可以带来2.6-4.4万亿美元的价值增长,这将改变商业发展模式,并对就业产生深远影响;在经济增长方面,根据高盛的研究,LLMs可以在10年内将全球GDP提高7%,并将生产力提高1.5%;在科学研究方面,使用LLMs可以为物理学或生物学相关测试设定更好的假设,以及进行更快、更便宜、更大规模的实验,助力物理学或生物学的新发现,或将改写科学研究方式,例如,IBM和牛津大学的研究人员花了几周的时间用蛋白质相关信息来训练生成式AI,利用生成式AI来合成、制造和测试新冠肺炎的抗病毒药物;在国际贸易方面,人工智能可以帮助企业分析数据,更好地预测其他国家的需求,为定价、库存水平和市场趋势的决策提供信息,建立更高效的全球供应链等。

另一方面,基础人工智能将带来相关风险。一是偏见和歧视问题,因为训练LLMs的相关数据本身就带有歧视和偏见,因此基础人工智能的使用可能进一步边缘化甚至排斥相关群体。二是安全和隐私保护问题,犯罪分子可以利用LLMs收集更详细的个人信息,以冒充个人,实现更有针对性的操纵和更有效的钓鱼等。三是虚假信息问题,LLMs会生成非常可信的虚假陈述、图像和视频,“一本正经的胡说八道”,扩大网络错误信息和虚假信息的传播。四是版权和专利问题,LLMs生成的创造性产出或发明,存在着训练数据是否侵犯了现有版权和专利,以及是否可以获得版权或专利保护的问题。此外,基础人工智能的相关风险还包括将人工智能用于国家安全目的的风险,相关网络安全挑战,以及AGI和超人人工智能带来的风险等。

二、目前已开展的人工智能治理相关国际合作

报告认为,基于上述机遇和挑战,需要通过国际合作来共同商定负责任和值得信赖的人工智能的原则;需要通过国际合作共享人工智能监管方法的经验,并解决各国国内人工智能监管的外部性和域外影响问题;需要通过国际合作来扩大人工智能研发机会,并获得使用基础人工智能系统所需的资源,共享人工智能的经济和社会红利。关于进行人工智能领域国际合作的讨论已在TTC、G7、经合组织和FCAI等国际经济论坛上开展。

(一)世界贸易组织(WTO)

报告认为,WTO相关规则虽然在人工智能对国际贸易产生影响之前就已达成一致,但相关规则在人工智能领域依然适用,如WTO在数据跨境流动、数据本地化,以及源代码获取方面的相关规定可以支持人工智能领域的数据获取并降低人工智能模型开发人员的相关风险。具体如下,《服务贸易总协定》(GATS)规定的四种模式中,模式一允许外国企业不在境内设立子公司,直接从境外向境内提供服务,这实际上是不要求数据本地化;《贸易技术壁垒协议》 (TBT) 要求世贸组织成员使用国际标准作为其国内监管的基础,保证技术法规的制定、采用或实施在目的或效果上均不会给国际贸易制造不必要的障碍,这同样适用于产品的人工智能相关标准,避免AI产品的多重合格评定流程,并为人工智能监管的互操作性建立了基础;《多边信息技术协定》(ITA)的第一、二条中降低一系列技术产品关税的协定,其中也包括一些用于支持人工智能发展的产品,例如用于扩大互联网连接和使用的商品。

(二)自由贸易协定(FTAs) 和数字经济协定(DEAs)

报告认为,FTAs和DEAs中已经包含了增加人工智能获取机会并加强其治理的相关协定,其中包括对跨境数据流动的协定,避免数据本地化要求,以及不要求将获取源代码作为市场准入条件等,这些方面的约定基本适用于人工智能领域。所有这些都受到例外条款的约束,以为政府提供制定其他合法监管政策的空间,例如消费者保护和隐私保护。一是在数据访问方面,CPTPP、USMCA、英国-日本全面经济伙伴关系协定,以及新西兰-英国自由贸易协定等协定中均包括对跨境数据流动和避免数据本地化措施的承诺,有利于促进人工智能对云服务和API的利用;而相关协定中仿照GATS第十四条国家安全例外条款的一般例外条款,以及相关例外条款为政府在实现其他监管目标和对跨境数据流动施加限制之间取得了平衡。二是在源代码访问方面,CPTPP、USMCA和澳大利亚-新加坡DEA承诺等均不要求将访问源代码作为进口条件,这将有助于人工智能模型的开发;而USMCA等协定也保留了监管或司法机构要求访问源代码以进行特定调查、检查、执法行动或司法程序的权利。三是在互操作性方面,贸易政策和更广泛的经济合作的重点之一是发展互操作性,而数据领域的互操作对人工智能的发展至关重要。例如,CPTPP表示,鼓励发展促进不同制度之间兼容性的机制,包括承认监管结果,以及建立更广泛的国际框架等;USMCA指出,各方应鼓励发展促进不同政权之间兼容性的机制,并认为亚太经合组织在跨境方面的隐私规则体系是一种有效的机制,可以在保护个人信息的同时促进跨境信息传输。四是在人工智能领域的专门协定方面,新西兰-英国自贸协定在数字贸易章节中专门针对人工智能做出规定,要求在制定人工智能治理框架时考虑相关国际机构的原则和指导方针,以对人工智能监管采取基于风险的方法,承认行业主导的标准和风险管理最佳实践,以及在人工智能的执法、跨境研发和算法透明度等方面进行合作等;数字经济伙伴关系协定(DEPA)支持可信、安全和负责任地使用人工智能技术,并支持国际公认的原则,包括可解释性、透明度、公平性和以人为中心的价值观;澳大利亚-新加坡DEA同意在人工智能技术和治理方面进行合作和共享,促进负责任地使用人工智能技术,以及合作开发和采用人工智能治理框架。五是在国际人工智能标准方面,一些自贸协定和DEA还包括对人工智能标准开发和使用的约定。例如,新西兰-英国自由贸易协定和澳大利亚-新加坡DEA承诺参与区域和国际机构人工智能标准的制定,分享制定标准的经验等。

(三)七国集团(G7)

报告认为,七国集团正在成为领导包括人工智能问题在内的一系列数字政策的主要力量。一是,2023年,G7领导人建立了广岛人工智能进程,重点关注生成式人工智能。2023年 10月30日,G7发布了《组织开发先进人工智能系统的国际指导原则》和《组织开发高级人工智能系统国际行为准则》,两份文件,《指导原则》更新了经济合作与发展组织(OECD)的人工智能原则,以考虑基础人工智能带来的新风险;《行为准则》以大型科技公司7月在白宫做出的人工智能自愿承诺为基础,是企业方面采取的措施。二是,G7在发展二十国集团(G20)“数据自由流动与信任”(DFFT)方面也发挥了核心作用,包括建立IAP(Institutional Arrangement for Partnership)以推进DFFT,并将建立互操作性作为实现DFFT的手段。G7数字和技术部长特别强调了互操作机制在人工智能治理框架方面的重要性。三是,七国集团领导制定的数字贸易原则也支持人工智能发展。2021年,G7发布了七国集团数字贸易原则,其中包括“解决跨境数据流动的不合理障碍,同时继续解决隐私、数据保护、知识产权保护和安全问题”,“合作探索我们监管方法的共性,促进七国集团成员之间的互操作性”。

(四)美国-欧盟贸易和技术委员会(TTC)

报告认为,在TTC中,美国和欧盟已将值得信赖和创新的人工智能确定为关键优先事项,并在三个重点领域制定了联合路线图。一是在关键术语的定义和界定方面,2023年5月的TTC部长级会议制定了欧盟-美国人工智能术语和分类清单,其中包括对“合成数据”和“深度学习”等技术术语的定义,以及对偏见、稳健性、安全性、可解释性和准确性等概念的阈值界定。对这些概念和术语的共同和一致理解是建立人工智能使用和管理互操作机制的关键。二是支持多方利益相关方共同制定人工智能标准,促进国际人工智能标准的制定和使用,以及促进描述、衡量、管理和治理人工智能风险的技术工具的开发。三是监测和评估现有和新出现的人工智能风险,包括开发风险和风险识别相关的工具,促进美国和欧盟在更好地定义风险及其影响方面达成共识。此外,美国-欧盟TTC也在积极促进数据公开,包括共享政府数据公开的最佳做法,促进政府机构、企业和民间社会组织公开数据以支持研究,以及研究政府数据开放的标准等。

三、应通过贸易政策继续深化人工智能治理国际合作

报告认为,应继续通过相关政策,进一步深化在人工智能算力基础设施、人工智能标准和人工智能数据治理等方面的国际合作,以把握人工智能发展机遇,管理人工智能相关风险。具体措施包括,减少人工智能相关商品和服务的贸易壁垒,如算力基础设施和云服务相关产品;分享数据治理的最佳实践;制定与合格评定和人工智能审计相关的相互承认协议;将G7人工智能行为准则纳入贸易协定;以及在安全和隐私保护、防止虚假信息、人工智能风险问责制的制定,以及知识产权保护等方面加强国际合作。

声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。