3月11日,欧盟委员会在其官网发布了《通用人工智能行为准则》(General-Purpose AI Code of Practice)第三稿;其中,欧盟人工智能办公室(AI Office)更新了常见问题解答(FAQs)。
《行为准则》以简要的高级别承诺(high-level commitments)清单为基础,针对被归类为具有系统性风险的通用人工智能模型的提供商提供了实施每项承诺的详细措施,包括通用人工智能模型提供商的透明度和版权相关的承诺,以及十余项项与安全相关的承诺。
01 主要内容
《行为准则》共有四部分。
前两部分详细说明了所有通用人工智能模型提供商的透明度要求和版权义务,并根据《人工智能法》对某些开源模型的提供商的透明度义务进行了豁免。版权部分包含了草案二稿的核心措施,但形式更加简化和清晰。
《行为准则》的第三、第四部分仅与少数可能构成系统性风险的最先进通用人工智能模型的提供商相关,这与《人工智能法》第51条的分类标准呼应。该部分概述了系统风险评估和缓解措施,涉及模型评估、事件报告和网络安全义务等方面。具体来说包括:
(1)采用和实施适用于具有系统性风险的人工智能模型的安全框架,并详细说明系统风险评估;
(2)在整个模型生命周期的适当时间点系统地进行系统风险评估;
(3)选择并进一步描述系统性风险;
(4)确定系统性风险的可接受性;
(5)在模型的整个模型生命周期内实施技术安全缓解措施,并确保它们是相称的和最先进的;
(6)减轻因未经授权访问未发布的模型而可能产生的系统性风险;
(7)向欧盟人工智能办公室报告模型的安全性;
(8)进行充分性评估(adequacy assessments);
(9)实施系统性的风险责任分配;
(10)进行独立的外部系统风险评估,包括模型评估;
(11)跟踪、记录并向欧盟人工智能办公室报告严重事件,并酌情向国家主管当局报告;
(12)确保不对任何提供有关系统性风险信息的员工进行报复;
(13)将相关信息和承诺的实施情况通知欧盟人工智能办公室;
(14)遵循《行为准则》和《人工智能法》的规定执行文件,并对具有系统性风险的人工智能模型产生的系统性风险实施公开透明度。
02 相关背景
2021年4月,欧盟委员会提出了《人工智能法》(Artificial Intelligence Act),这是全球首个全面的人工智能立法,旨在建立一个以人为本的人工智能监管体系,该法一句人工智能系统的风险水平进行分类管理,对于高风险的人工智能系统提出了严格的要求。《通用人工智能行为准则》作为《人工智能法》的配套措施,为通用人工智能模型的开发者和服务提供商提供了一套详细的指南。
2024年11月14日,欧盟委员会发布《通用人工智能实践准则》初稿,12月19日发布第二稿。欧盟委员会称,文件的的最终版本会在5月份公布。
来源|综合欧盟委员会官网等
编译|尚健
审核|唐巧盈
声明:本文来自上海市人工智能与社会发展研究会,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。