继《全球人工智能治理倡议》之后,全国网络安全标准化技术委员会于近日发布了旨在落实该倡议的《人工智能安全治理框架》。而在去年《全球人工智能治理倡议》发布之际,美国白宫的《关于安全、可靠和可信地开发和使用人工智能的行政命令》还未问世,欧盟的《人工智能法》也还未形成最终文本。因此,借此时机,笔者尝试比较上述中、美、欧在人工智能治理方面的主要文本,初步分析并阐释人工智能治理“中国方案”的特点和特色。
一、从立场定位来看,《人工智能安全治理框架》更加客观、中立
首先看欧盟的《人工智能法》。其主要内容是根据风险对人工智能系统进行分类:1)禁止的人工智能,即被认为对个人基本权利构成不可接受的风险因而被禁止的系统,如社交评分系统和操纵性人工智能等;2)高风险的人工智能,即用于有可能造成重大风险的特定用途的系统(例如,在招聘方面),须遵守规范性合规要求;3)有限风险的人工智能,包括聊天机器人、生成式人工智能(图像、音频生成等),《人工智能法》包含了针对特定使用案例的透明度义务;4)不受监管的微小风险人工智能,包括目前欧盟单一市场上的大多数人工智能应用,如支持人工智能的视频游戏和垃圾邮件过滤器等。除此之外,《人工智能法》还针对通用人工智能——即“显示出显著通用性”、“能够胜任各种不同任务”并“可集成到各种下游系统或应用中”的人工智能模型,提出了专门要求。在分类的基础上,《人工智能法》提出的大部分义务主要指向高风险人工智能系统的提供者(开发者)。对于用户——是指以专业身份部署人工智能系统的自然人或法人来说,高风险人工智能系统的用户(部署者)也具有一些义务,尽管比提供者(开发者)少一些。
从上述分析来看,欧盟《人工智能法》的核心在于对人工智能系统的分类。对此,欧盟主要通过附件中规定一个个具体的用例来列举和具体化对风险的分类。例如,用于推断工作场所和教育场所情绪的人工智能系统,以及推断敏感个人特征的生物识别分类人工智能系统等,将被《人工智能法》所禁止。再如,用于信用评估的人工智能系统,以及在教育和职业培训领域中用于评估学习成果的人工智能系统,属于高风险人工智能系统。显然,这些具体用例的选择和分类源自鲜明的欧洲价值观。欧盟委员会主席冯德莱恩在欧洲议会和理事会就《人工智能法》达成政治协议之后发表声明,直言《人工智能法》“将欧洲的价值观带入了一个新时代”。
再看美国的人工智能行政令。与欧盟《人工智能法》存在本质区别的是,行政令不能设立新的机构或授予私营公司新的监管权力,因此该行政令的受众是美国联邦政府行政部门。其主要内容在于要求负责监督从住房、卫生到国家安全等一切事务的各联邦机构和部门制定使用或监督人工智能的标准和法规,包括在刑事司法、教育、医疗保健、住房、交通和劳动等领域内负责任地使用人工智能的指南。各机构和部门还将制定人工智能开发者在构建和部署这项技术时必须遵守的指导方针,并规定政府如何使用人工智能。如此,行政令指示联邦机构成为负责任地使用人工智能的典范,并为联邦政府采购人工智能系统提供指导方针,从而间接影响私营部门。这与欧盟《人工智能法》形成鲜明对比。
从上述分析来看,美国的人工智能行政令所选定的“确保人工智能技术的安全和安保”、“促进创新和竞争”、“支持工人”、“促进公平和公民权利”、“保护消费者、患者、乘客和学生”、“保护隐私”、“推进联邦对人工智能的使用”,以及“加强美国在海外的领导地位”等八个行动领域,以及在行政令中仅做原则性、方向性的指示,非常具有美国特色——即更注重鼓励创新与行业自律,更倾向于通过指导性原则、标准和行业主导的实践来确保AI系统的安全、可靠和可信。这反映出美国政府对市场驱动创新的信任,以及减少监管对创新的潜在阻碍的倾向。
与美欧相比,中国《人工智能安全治理框架》(以下简称《治理框架》)本身超越了中国自身的立场和偏好,客观、中立地对人工智能的风险展开分析,并提出了针对性的防范应对措施。具体来说,与欧盟《人工智能法》相比,《治理框架》对人工智能风险的阐释更加中性。从技术本身的“内生安全风险”再到“应用安全风险”两大类别出发,《治理框架》详述了一共7子类26项具体的风险。使用《治理框架》的国际组织、国家政府、各类组织、研究人员等可以借由这些风险“谱系”,自主判断或决定某项具体的人工智能技术及应用的风险高低。换言之,《治理框架》侧重于客观的风险描述,而非先入为主地预置了风险判断的结果。
与美国行政令相比,《治理框架》不停留于人工智能安全治理原则,而是深入分析阐释了技术和管理两个大类的技术应对措施。其中,技术应对措施有21项,综合管理措施有10项。由此,《治理框架》构建了体系化的人工智能安全治理“工具箱”。使用《治理框架》的国际组织、国家政府、各类组织、研究人员等可以按照附件的“映射表”,有针对性地对某项具体的人工智能技术及应用的风险,组合、细化、实施、评估安全风险的治理手段和治理效果。
二、从涵盖议题来看,《人工智能安全治理框架》更为全面、实用
首先,欧盟《人工智能法》豁免了:1)仅用于科学研发的人工智能系统;2)在真实世界条件之外和上市之前,与人工智能系统/模型相关的研发和测试活动;3)专门用于军事、国防和国家安全的人工智能系统。此外,除非属于被禁止或高风险类别,否则免费和开源人工智能系统可免除《人工智能法》规定的义务。因此,上述被豁免的人工智能系统的安全风险治理,欧盟《人工智能法》没有给出答案。
其次,美国行政令在人工智能安全性和可靠性方面,主要聚集于规模最大、功能最强大的人工智能模型。该行政令第4.1节要求美国国家标准与技术研究院(“NIST”)发布“开发和部署安全、可靠和可信的人工智能系统”的指导方针。这包括生成式人工智能和两用基础模型的安全开发实践,以及评估和审核可能造成危害的人工智能能力的指南,例如通过进行 “红队测试”。第4.1节还指示能源部制定一项计划,针对与核、防扩散、生物、化学、关键基础设施和能源安全威胁相关的风险测试人工智能模型。
对两用基础模型和基础设施即服务(IaaS)提供商,行政令第4.2节援引《国防生产法》的授权,指示商务部要求“开发或表明有意开发潜在两用基础模型”的实体就以下方面提交持续报告:(1)开发活动,包括围绕这些活动的安全保护;(2)模型权重的所有权和拥有权,以及围绕这些模型权重的安全保护;(3)红队安全测试。此外,商务部必须制定适用于与“基础设施即服务”提供商或其转售商进行交易的外国人士的“了解你的客户”和相关报告要求。行政令第4.3节要求负责关键基础设施安全的机构评估人工智能的相关风险,并基于NIST《人工智能风险管理框架》制定相应的人工智能安全和安保指南。
除了上述重点关注之外,为了回应人们对使用人工智能进行欺诈的担忧,行政令第4.5节指示商务部制定认证和水印指南,对人工智能生成的内容进行标记。虽然该指南将针对联邦机构,但行政令旨在为私营部门设定期望,包括在政府合同中增加此项要求。
反观中国的《治理框架》,具有两大突出的特点。一是其覆盖了所有类型的人工智能技术及应用。《治理框架》对风险的描述,通盘考虑了欧盟《人工智能法》所涵盖及其所没涵盖的人工智能系统,而且也超越了美国行政令所聚焦的规模和能力最强的人工智能模型。二是《治理框架》比美欧方案更为“上延下展”——即《治理框架》在“人工智能安全开发应用指引”这一章中,对模型算法研发者、人工智能服务提供者、重点领域使用者、社会公众等人工智能价值链上的各类主体,给出了共计35项专项安全指引,完整地覆盖了从研发、测试、部署、应用各个环节,提供了人工智能安全开发和应用方面的“最佳实践合集”。
三、总结:从国际影响来看,《人工智能安全治理框架》更具潜力
在欧盟的视角中,其《人工智能法》理应成为全球人工智能治理的标杆,产生类似于《通用数据保护条例》(GDPR)对全球数据隐私法规的影响。欧盟的立法通常以其严格性和全面性为特点,因此可能会对其他国家的人工智能立法产生“溢出效应”,促使许多国家在制定相关法律时参考欧盟的标准。特别是对那些希望进入欧盟市场的国际企业,遵守这些标准将是必要的。但欧盟所忽视的方面是,《人工智能法》虽然详尽,但由于其对高风险AI系统的严格监管,可能会在某些非欧盟国家被视为过于繁琐或不切实际,尤其是在那些技术开发和监管能力较为有限的国家。
美国的人工智能行政令更具指导性,虽然它主要针对联邦机构,但由于美国在全球科技领域的领先地位,这些指导方针和标准可能会被全球的技术公司采纳,尤其是在技术创新和产业应用方面。美国的科技公司往往是全球市场的主要玩家,因此美国的标准有可能通过市场力量在全球范围内推广开来。总的来说,美国的行政令更具方向性和灵活性,但由于它主要服务于美国联邦机构,其国际可适用性和影响力可能更多依赖于美国科技企业的全球扩展。
但中国的《人工智能安全治理框架》侧重于客观、中立的风险分析和全方位的技术应对措施,具有较强的实用性和可操作性。由于我国在全球科技领域日益增长的影响力以及其在基础设施建设方面的全球布局,该框架可能在发展中国家和新兴市场国家中产生较大的吸引力。这些国家可能更倾向于借鉴中国的框架来制定符合自身国情的人工智能治理政策。中国的《治理框架》提供了一个涵盖广泛、操作性强的“工具箱”,这使得不同国家和组织能够根据自身需求进行定制和应用。这种灵活性和广泛覆盖可能使中国的框架更易于在国际上推广,特别是在那些寻求系统性、全面性但又不想完全复制欧美模式的国家。
因此,在笔者看来,中国《治理框架》以其客观性和实用性,可能在国际上更容易被视为一种技术性的解决方案,而非带有特定政治或经济色彩的政策。新兴市场和发展中国家可能更加愿意采用中国的治理框架,以快速应对人工智能带来的挑战和机遇。相比之下,欧盟和美国的文本虽然在各自的领域内具有强大的影响力,但由于其特定的政治、经济和价值导向,可能在全球范围内的普适性和推广过程中面临一定挑战。中国的方案则有可能成为一种广泛适用的“中立”选项,特别是在那些寻求实用性和灵活性但不愿完全追随欧美模式的国家和地区中。
作者:洪延青 北京理工大学法学院教授、全国网络安全标准化技术委员会委员
声明:本文来自全国网安标委,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。