编者按

2021年,全球范围内对于人工智能的监管已经开始从理论探讨走向实际的立法和执法阶段,标志性的事件就是欧盟提出了《欧洲议会和理事会关于制定人工智能统一规则(《人工智能法》)和修正某些欧盟立法的条例》的提案,以及我国国家互联网信息办公室发布的《互联网信息服务算法推荐管理规定》。

今天和大家分享的是一篇外媒编译。

在不断上升的地缘政治紧张局势和不断加剧的两极分化中,围绕人工智能(AI)的使用达成全球共识可能会很艰难。然而,在最近的科学和商业数据规则研讨会上,专家们对存在必要的政治意愿持谨慎的乐观态度。

欧洲议会议员Brando Benifei表示,如果他们不能实现某种形式的协调,世界上所有的大国都会受到影响,他是欧洲议会负责欧盟人工智能法案的报告员之一,该法案可能会在明年进入法定程序。"我认为这将是一个问题,不仅对欧洲,而且对所有相关的参与者,因为人工智能将是一个非常普遍的技术",他说:"在应用、标准和监管方面有两种不同的背景,这将使处理现在世界上所有互联的活动变得复杂。所以我认为我们真的需要努力避免这种情况"。

虽然争辩说欧洲现在在为人工智能制定横向立法方面处于世界领先地位,但贝尼菲说,"令人震惊的是,中国在去年部分地赶上了监管的竞赛......事实上,中国最近已经有了隐私和网络安全立法,现在也在监管算法的使用。另一方面,美国显然更不愿意监管人工智能竞赛中所看到欧洲的选择,即惩罚美国公司"。他将这种演习描述为 "权力之争",结果并不确定。

欧盟仍然需要就监管人工智能的最佳方式达成内部共识。贝尼费说,在对整个人工智能价值链的责任分配、治理结构和决定一个人工智能系统被认为是高风险还是低风险的标准进行"反思"之后,可能需要对目前的人工智能法案草案进行修正。他还期望议会寻求加强对民主和民主进程的保护,以及扩大被禁止的活动清单,以包括私人公司的所谓社会评分。

不同的区域,不同的驱动力

虽然欧盟专注于确保人工智能可以被信任,但亚洲各国政府的主要目标却有所不同。第19条组织的高级项目官员Vidushi Marda表示,印度和新加坡都专注于鼓励创新,而在中国,围绕人工智能监管的大部分兴趣和动力是通过网络安全、消费者保护和国家安全的视角,而不是考虑个人权利和民主。"因此,我认为,指导因素有点不同",同时Marda警告说,不要对亚洲国家的动机做出"过于简单化 "的假设。

总部设在印度的Marda指出,在她的祖国,人们对先进技术有很大兴趣。"印度不同的州希望对公民有一个360度的观察,印度的人工智能市场正在蓬勃发展。注意到许多亚洲国家还没有数据保护法,Marda指出,对于开发基于人工智能的信用评分应用或智能城市应用(如预测性警务和面部识别)的初创企业来说,进入门槛非常低。然而,印度政府现在正在寻求规范数据保护,即使给予国家行为者的例外情况是不必要的广泛,Marda解释说。她补充说:"人工智能系统在拟议的数据保护法案中确实占据突出的位置,"特别是在关注生物识别数据的部分"。Marda希望面部识别、基于声音的识别和情感识别将被纳入监管范围,尽管目前这并不在政府的议程上。

欧盟的人工智能法案会成为其他国家的模板吗?

虽然印度是全球人工智能伙伴关系(一个建立共同方法的国际努力,被称为GPAI)的成员,但Marda认为印度的政策制定者不一定会把欧盟的人工智能法案看作是一个蓝图。她说,"我不知道模板效应是否会发生",与GDPR的方式类似,印度采取相同的立法并改变一些东西。在这种情况下,优先事项和指导原则是不同的。Marda解释说,印度关注的是安全和商业激励,而不是人权至上的方法。

欧盟法案在多大程度上确实带来了某种程度的全球协调,可能因应用而异。布鲁金斯学会治理研究的研究员Alex Engler解释说,虽然跨国公司可能会确保他们的网站遵守欧盟法案,无论他们在哪里被访问,但他们可能不会在欧盟以外的其他过程中遵守该立法。由于拟议的欧盟法案将把算法招聘软件列为高风险,例如,这类系统将必须遵守各种透明度、技术和质量要求。因此,跨国公司可能只在欧盟境内对其招聘系统进行修改,Engler如此认为。

然而,他指出,对全球人工智能平台——支撑人工智能系统的基础软件——可能会产生"布鲁塞尔效应"。如果欧盟人工智能法案确实禁止社会信用评分,"这可能会打击相当多的平台,或至少是服务,这些平台正在进行数据共享,"恩格勒指出。总的来说,他认为更多的国际合作可以带来更好的规则和工具",他补充说:"在为偏见检测和数据集评估提供透明度的开源人工智能软件方面,没有像我希望的那样有很多投资"。

美国展现出政治意愿

尽管在拜登总统的领导下,美国政府已经更加积极地参与到围绕人工智能建立共识的国际努力中,但它并没有试图建立类似于欧盟提议的人工智能法案的横向人工智能监管。此外,拜登政府在执行"[前政府]的行政命令方面进展缓慢,该命令本应导致对美国如何拥有监管算法的现有法律权力的广泛系统性理解,"恩格勒补充道。"这不是通过一项新的法律,只是看到现行法律如何影响人工智能政府......这是我们没有看到的必要步骤。"

尽管如此,人工智能问题仍在新的欧盟-美国贸易和技术委员会中得到讨论。"欧盟委员会相当强烈地参与和介入这些讨论,它有最高级别的政治支持,"欧盟委员会CNECT总局人工智能顾问Juha Heikkilä指出。"这项工作由欧盟委员会的两位执行副主席领导。所以[......]这表明它在我们这边的重要性。"

Heikkilä还指出,美国在2021年秋季开始制定《人工智能权利法案》(自动化社会的权利法案)。"因此,那里有一些步骤,从我们的角度来看,也许与我们一直在推动的事情方向一致。因此,我认为政治意愿是现在比以前更有可能获得的东西。" 虽然美国联邦政府没有采取与欧盟相同的监管方法,但"在各个州的层面上,已经颁布了法规,其中一些法规实际上与[欧盟]人工智能法案所概述的方向非常一致,"Heikkilä补充说。"现在有更多的愿望,以合理的方式监管人工智能。不仅仅是在欧洲,在其他地方也是如此。"

其他发言者同意,围绕人工智能的治理,跨大西洋的共识越来越多。索邦大学ISIR荣誉教授Raja Chatila指出,有迹象表明,欧盟基于风险的方法在美国获得了吸引力。"五天前,美国的NIST(国家标准与技术研究所)发布了一个人工智能风险管理框架,"他说。在全球标准和认证方面也有进展,查蒂拉补充说,将它们描述为 "软治理的手段"。

魔鬼在细节中

对于国际协调的支持者来说,最根本的挑战之一是就什么是人工智能和什么是简单的传统软件达成一致。Chatila认为定义人工智能是困难的,"因为它包括许多源自应用数学和计算机科学的技术,也包括机器人技术。所以它非常广泛,所有这些都在不断发展。"然而,他指出,自2012年以来,"当我们开始谈论深度学习等的时候,"人工智能的基础方法并没有什么变化。"我们说的是与10年前相同的系统"。他补充说,欧盟人工智能法案大多采用了经合组织的人工智能定义,这也是GPAI的基础。

国际合作背后的一个关键驱动力是需要为可信的人工智能原则、人工智能系统分类、人工智能系统生命周期、人工智能事件和人工智能保证机制制定互操作性政策,经合组织人工智能政策观察站的单位负责人Karine Perset解释道。各国政府需要专注于实现"这种互操作性,使用相同的术语来表示相同的事情,即使我们在不同的层面上设定红线——什么是可以的,什么是不可以的。"

经合组织正在倡导一种共同的方法来对具体的人工智能应用进行分类,并将其与基础性的人工智能模型区分开来,后者需要以不同的方式进行评估和监管。Perset的团队和伙伴机构还在开发一个人工智能事件跟踪器,以"通过跟踪已经具体化为事件的人工智能风险,为这项风险评估工作提供信息,并对此进行监测,以帮助为政策和监管选择提供信息。"

经合组织的目标之一是帮助政策制定者创建一个框架,通过这个框架,他们可以确定人工智能系统生命周期的每个层面的关键行为者。"这对于问责制和风险管理措施来说真的很重要",Perset解释说,"而且我们看到ISO(全球标准机构)和NIST在利用人工智能系统生命周期进行风险管理作为共同框架,然后对人工智能系统生命周期的每个阶段进行风险评估方面有一些趋同。" 但她承认,就如何对风险进行分类达成国际共识可能需要一些时间和政治推动力。

界定风险可能是有风险的

有争议的是,欧盟人工智能法案草案只有两类风险(除了一个被禁止的类别外)。对于鹿特丹伊拉斯谟大学伊拉斯谟法学院教授Evert Stamhuis来说,这种方法过于粗糙。Stamhuis注意到人工智能在医疗保健领域的使用越来越多,他说这个领域的 "风险方面的巨大多样性"不能仅仅反映在两个风险类别中,"如果你有这些简单的类别,你就无法实现任何确定性。"

更广泛地说,人工智能的动态性质使得制定一个持久的定义很困难。Stamhuis争辩说:"一个超过五年的长期定义将是完全不可行的"。他补充说:"欧洲立法的困难之一是使其颁布的过程是如此复杂。因此,在快速修改方面存在巨大的阻力,这通常会使欧洲机构将这些种类的灵活性分配给细则和附带机制,但这是非常根本的。"这需要公开的政治辩论",他说,并告诫在这种情况下不要使用附带机制。

更广泛地说,Stamhuis呼吁质疑对人工智能进行专门监管的必要性。他还对欧盟人工智能法案对人工智能系统的认证的依赖抱有怀疑。"我们实际上是在认证什么?是模型,还是系统?"他问。一旦一个人工智能系统或模型得到认证,"如果过程发生变化或模型自我改进,会发生什么,"Stamhuis补充说。"如果系统是流动的,在某一时刻给出的CE认证的价值是什么?"(完)

声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。