文| 程 莹 信通院互联网法律研究中心研究员

近日,美国Venturebeat网站发布《为什么2022年只是人工智能规制的开始?》一文,文章指出,“2021年,世界各地的监管机构持续致力于人工智能系统的规范使用。从英国到欧盟再到中国,有关各行业应如何监测算法、审查人工智能并推动更透明的人工智能系统框架的监管法规正在不断增加。与其他地区相比,美国在人工智能监管方面进展缓慢。”该文章系统回顾了2021年人工智能规制的最新进展,并指出了2022年的规制重点和发展方向。本文尝试对其核心内容进行编译,希望对各界把握人工智能立法政策趋势有所助益。

随着全世界在信息传播、教育工作、日常消费等方面越来越依赖于新兴科技,人工智能在我们生活中扮演的角色也愈发重要。经历了新冠病毒大流行的第二年,人们已经看到人工智能的价值。与此同时,人工智能也迅速暴露出各种风险,引发监管机构的关注与回应。

欧盟和英国: 为人工智能监管铺平道路

2021年,欧盟继续采用全面立法的方式规范人工智能在各行业的应用。4月,欧盟委员会发布了一个规范人工智能系统的框架。[1]该法案提出推动人工智能在法律、伦理和技术层面的稳健部署,强调尊重人权和民主价值观。法案提出监管沙箱、强制性的CE认证标识、全生命周期的算法审计等方案。英国则围绕人工智能审计实践、人工智能保险和算法透明度出台了更多立法,[2]致力于探索一种适当且有效的方法,以提高算法辅助决策的透明度和问责性。

近期,德国提出了世界上首个将政府发布的具体标准纳入人工智能生命周期管理框架的指南——人工智能云服务合规标准目录(AI Cloud Service Compliance Criteria Catalogue,AIC4)[3]。该指南回应了规制人工智能的呼声,清楚列明了推进稳健和安全人工智能实践的基本要求。

中国:各部委协作推进人工智能规制

相关智库报告指出,当前中国人工智能规制主要由几大部委共同推进,包括网信办主导的信息内容领域人工智能监管,规制算法推荐带来的信息茧房、干预信息呈现、网络沉迷等信息内容风险;工信部主导的一系列人工智能国家战略和行动方案,以培育壮大产业生态、加快融合规模化落地、平衡创新与治理安全为主要方向;以及科技部侧重于伦理准则层面的人工智能治理,推动科技企业建立内部审查委员会,发布《新一代人工智能伦理规范》等。此外,央行、卫健委、人社部在小范围领域急用先行,出台相关政策文件,重点解决算法可解释、算法透明问题。

美国各州等地方层面的行动

相比之下,美国采取了一种分散化的人工智能监管方式。各州和地方政府已经开始向可问责(accountable)和可执行(enforceable)的人工智能监管迈进。在科罗拉多州,州立法机关颁布了参议院第21-169号(SB21-169)立法[4],限制保险公司使用其他消费者数据,确保人工智能歧视行为的可问责性。

与此同时,底特律市和纽约市的地方政府已经开始制定法规,旨在减少算法的偏见和歧视性行为。2021年年初,底特律市议会通过立法,要求该市的监控系统应当具有更高的透明度和可问责性。纽约市议会则通过了美国首部消除职场招聘系统人工智能应用风险的立法。

美国联邦层面推动部门化人工智能治理

与欧洲相比,2021年美国联邦立法进展甚微,虽然颇具前瞻性,但基本上不具备强制约束力。正如斯坦福大学《2022年人工智能指数报告》的数据显示,从2015年至2021年,人工智能领域的美国联邦立法提案急速增长,从3部增加到130部,但最终实际通过的立法仅占2%。

2021年,美国人工智能国家安全委员会(National Security Commission)和美国政府问责办公室(Government Accountability Office,GAO)向国会提交最终报告,建议政府采取立法行动,保护政府人工智能开发中涉及的隐私、公民权利和公民自由。本报告强调公众对人工智能在国家安全、情报界和执法部门的应用缺乏信任,倡导私营部门带头推动更值得信赖的人工智能。6月,政府问责办公室发布了一份重要实践报告,以确保联邦机构在人工智能使用中的问责机制。

4月,联邦贸易委员会(Federal Trade Commission,FTC)发布了关于如何负责任构建人工智能和机器学习系统的指南,希望为人工智能系统的运行设定明确预期,通过全生命周期监控、精简的审计方法来识别偏见和歧视性结果,以提高公众对人工智能复杂系统的信任。总体来看,FTC认为现行法律基本能够应对现有人工智能系统产生的新问题,通过强化问责制和透明度,将有助于提升美国人工智能产业的竞争力。此外,FTC还倡导更加透明和公平的招聘流程,包括对人工智能系统进行控制和设定明确的预期。

在2021年《国防授权法》(National Defense Authorization Act)[5]的框架下,美国商务部要求美国国家科学技术研究所(National Institute of Science and Technology,NIST)为人工智能系统开发一个自愿风险管理框架。在2020年《国家人工智能倡议法》(National AI Initiative Act)[6]的建议下,商务部于9月成立了国家人工智能咨询委员会(National Artificial Intelligence Advisory Committee, NAIAC)。该委员会就一系列与人工智能相关的问题向总统和其他联邦机构提供建议,包括提升竞争力、人工智能的技术问题、在工作场所应用带来的风险问题以及人工智能如何能够促进社会公正等问题。

2021年7月,美国国家科学技术研究所要求企业和技术专家提供信息(Request for Information, RFI)[7],协助建立人工智能风险管理框架。这一框架汇集大量利益相关者的意见,有助于改善企业使用人工智能的透明度。

2021年9月,食品和药品管理局(Food and Drug Administration,FDA)发布了“基于人工智能/机器学习的医疗器械软件(Software as a Medical Device, SaMD)行动计划” [8],概述了食品和药品管理局计划如何监督用于治疗、诊断、治愈、减轻或预防疾病的人工智能医疗器械软件的使用和开发。11月,在与加拿大和英国的合作中,美国食品和药品管理局对该计划进行了更新。

2021年10月,平等就业机会委员会( Equal Employment Opportunity Commission,EEOC)发起了一项旨在消解人工智能偏见和促进算法公平的倡议,并计划在近期编写框架和规则,提高人工智能在招聘过程中的透明度和公平性。

白宫关注隐私和公民自由

迄今为止,拜登政府在人工智能方面主要专注于消费者隐私保护问题。7月,作为国家人工智能计划的一部分,白宫开始从企业、学术界和专家那里收集有关如何创建全面人工智能风险管理框架的信息。该框架旨在解决人工智能系统中的信任和透明度担忧。此外,它将致力于实现更负责和更公平的人工智能。

9月,美欧贸易和技术委员会( the U.S.-EU Trade and Technology Council,TTC)发表了第一份联合声明。委员会在声明中承诺发展“创新、可信、尊重普遍人权和共享民主价值观的人工智能系统”。为了实现这一目标,欧盟和美国都承诺支持经合组织关于人工智能的建议,以获得更多可信赖的人工智能以及评估工具。此外,美欧贸易和技术委员会还打算进行一项联合经济研究,考察人工智能对劳动力市场未来的影响。

10月,白宫科技政策办公室扩大了围绕规范人工智能、保护消费者隐私和安全保障的对话。该办公室与各行业、学术界和政府机构的专家合作,接受公众意见书,为创建“人工智能世界的权利法案”(Bill of Rights for an AI-powered world)[9]提供信息。

国会方面: Facebook 的举报人成为变革的催化剂

10月,Facebook前员工弗朗西斯·豪根(Frances Haugen)接受国会质询,其中,Facebook利用算法处理数据的风险成为人们关注的焦点。听证会揭露了Facebook在明知算法引发仇恨言论的情况下,仍然放任损害发生并从中牟利的事实。基于此,国会议员纷纷提出立法提案,希望在平台算法已经深度融入公众生活的情况下,赋予公众更多信息自主权。

新泽西州民主党众议员弗兰克·帕隆(Frank Pallone)提出2021年《对抗恶意算法的正义法案》(Justice Against Malicious Algorithms Act)[10]。在此之前,Facebook曾表示计划对算法实施新的规制措施,保护儿童免受伤害。该法案建议取消1996年《通信规范法》(Communications Decency Act)[11]第230条对平台责任的豁免规则,强化平台在人工智能应用中的责任。

为规范算法在网络平台的应用,一个由国会议员组成的两党小组在11月再次提出《过滤气泡透明度法案》(Filter Bubble Transparency Act)[12]。该法案将强制大型平台向用户提供关闭不透明算法的选项。

随着对人工智能风险的认识不断增加,在未来几年此类立法可能会继续存在。立法者希望赋予用户更多自主权,以更好控制平台使用用户数据的范围和方式。

2022年会发生什么

总体来看,人工智能呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,黑箱模型导致人类无法理解、难以确定事故责任主体,数据滥用导致隐私泄露、算法偏见,人工智能对就业稳定、社会公平、国际政治经济格局均带来重大风险。总体来看,主要有以下痛点难点问题。第一,立法理念问题,需要在效率、公平、安全、自由等基本理念上做出平衡。第二,规制对象问题,包括数据问题(如高质量数据集缺失、数据流通困难)、算法问题(如算法可解释困难,人类无法理解算法结果,专利保护问题)、平台监管问题(大平台享有垄断地位,创新激励不足)。第三,应用落地问题,市场及产品准入门槛过高、责任认定机制不清晰,例如智能医疗等部分领域现有的准入规则与新技术、新产品的发展不相匹配,商业化落地明显迟滞。

2021年,全球在人工智能监管方面取得了长足进步,相比之下,美国联邦立法进展缓慢。随着面部识别禁令、人工智能招聘歧视问题规制等呼声在全球范围内持续增长,人工智能伦理问题将进一步成为立法制定中的重要议题。2022年,将有越来越多的政府、企业和专家认识到人工智能系统保障措施、风险管理战略和治理框架的重要性,将更广泛地关注可解释人工智能、人工智能风险管理策略以及人工智能系统监测问题。

[1]https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206

[2]https://www.gov.uk/government/collections/algorithmic-transparency-standard

[3]AI Cloud Service Compliance Criteria Catalogue,

https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/CloudComputing/AIC4/AI-Cloud-Service-Compliance-Criteria-Catalogue_AIC4.html

[4]SENATE BILL 21-169,

https://leg.colorado.gov/bills/sb21-169

[5] National Defense Authorization Act,

https://www.congress.gov/bill/116th-congress/house-bill/6395

[6] National AI Initiative Act,

https://www.congress.gov/bill/116th-congress/house-bill/6216

[7]https://www.nist.gov/news-events/news/2021/07/nist-requests-information-help-develop-ai-risk-management-framework

[8] Artificial Intelligence/Machine Learning-Based Software as a Medical Device (SaMD) Action Plan,

https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device

[9] Bill of Rights for an AI-powered world,

https://www.wired.com/story/opinion-bill-of-rights-artificial-intelligence/

[10]Justice Against Malicious Algorithms Act,

https://www.congress.gov/bill/117th-congress/house-bill/5596/text

[11] Communications Decency Act,

https://en.wikipedia.org/wiki/Communications_Decency_Act

[12] Filter Bubble Transparency Act,

https://www.congress.gov/bill/116th-congress/senate-bill/2763/text

声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。