2024年5月,OECD发布了《人工智能(AI)事件及相关术语定义》报告(本公众号全文翻译一键直达)。报告的目的是提供一套定义,以明确AI事件、AI险情以及相关术语的含义,这些定义旨在促进国际间的互操作性,同时为各司法管辖区提供确定他们希望解决的AI事件和险情范围的灵活性。

2025年2月28日,OECD发布了《AI事件报告共同框架》,提出了一个人工智能(AI)事件报告的通用框架,为各司法管辖区和行业的利益相关者提供了一个全球基准。该框架使各国能够采用统一的报告方法,同时允许他们根据本国政策和法律框架量身定制应对措施。通过其29个标准,该框架旨在帮助政策制定者理解不同情境下的AI事件,识别高风险系统,评估当前和新兴风险,并评估AI对人类和地球的影响。本公众号对该报告进行了全文翻译。

前言

本报告提出了一个人工智能事件(AI Incident)的共同报告框架,为全球各管辖区和各行业的利益相关者提供了一个全球基准。该框架使各国能够在采用共同报告方法的同时给予本国政策灵活性。该框架旨在帮助政策制定者更好地理解不同情境下的人工智能事件(AI Incident),识别高风险系统,评估其影响,并了解新兴风险。

本报告及其早期版本在2024年2月、4月、6月和10月的OECD.AI人工智能事件专家小组会议上进行了讨论和审查。OECD人工智能工作组(AIGO)在2024年6月的会议上讨论了本报告,全球人工智能伙伴关系(GPAI)在2024年11月的全体会议上讨论了这项工作。

本报告由Karine Perset、Luis Aranda和Bénédicte Rispal在OECD科学、技术和创新司副司长Audrey Plonk的监督下撰写。报告还受益于全球人工智能伙伴关系(GPAI)、OECD人工智能工作组(AIGO)的代表的输入,包括民间社会信息社会咨询委员会(CSISAC)、OECD商界咨询委员会(BIAC)、工会咨询委员会(TUAC)和互联网技术咨询委员会(ITAC)。John Tarver、Shellie Laffont和Andreia Furtado提供了编辑支持。

本文件于2024年12月13日由全球人工智能伙伴关系(GPAI)通过书面程序批准并解密,并由OECD秘书处准备出版。

摘要

人工智能带来诸多益处,但风险正在显现并造成危害

尽管人工智能(AI)能够带来巨大益处,但它也带来了风险。其中一些风险已经转化为对个人、组织和环境的危害,例如歧视、侵犯隐私以及安全保障(Security and Safety)问题。这些危害被统称为“人工智能事件(AI Incident)”。随着人工智能在经济和社会中的快速部署,人工智能事件的增加不可避免。

各国需要一个共同报告框架,以实现全球一致性和互操作性

一个通用且一致的框架可以为政策制定者和组织提供必要的信息,以便从全球其他地区识别到的人工智能危害中吸取教训,从而防止类似事件再次发生。它可以在实施人工智能事件报告计划之前,协调跨管辖区的人工智能事件报告。追求报告一致性是迫切的,因为事后补救的方法将被证明是成本高昂且效率低下的。

确定报告人工智能事件的相关标准,需从现有报告系统建立共识开始

开发人工智能事件共同报告框架的依据包括四个关键资源:OECD人工智能系统分类框架、人工智能事件数据库(AIID)、OECD全球产品召回门户网站和人工智能事件监测器(AIM)。从这四个资源中,共识别出88项用于评估事件的标准,以及在产品召回情况下对有缺陷产品的评估标准。

共同报告框架旨在简洁且全面

基于这四个资源,确定了共同报告框架的29项标准。这些标准(也称为重复标准)如果出现在所分析的四个框架中的至少三个中,或者提供了重复标准未涵盖的必要细节(称为补充标准),则会被纳入。

补充现有政策,该框架通过可适应和互操作的人工智能事件报告,为政策制定者提供关于人工智能实际风险的信息

该框架通过其七个强制性标准,为报告和监测人工智能事件(AI Incident)提供了灵活的结构。其实施将增强人工智能事件报告的互操作性,同时补充国内政策和监管措施。报告人工智能事件将帮助政策制定者识别不同情境下的高风险系统,了解当前和未来的风险,并评估其对受影响利益相关者的影响。该框架还将促进在不损害隐私、知识产权或安全法律的前提下,在管辖区之间共享有关人工智能事件的知识和信息。

允许向人工智能事件监测器(AIM)开放提交,将使共同报告框架能够进行测试和评估

AIM(可在 oecd.ai/incidents 访问)是一个重要的平台,用于收集和分析人工智能事件(AI Incident)和人工智能危害(AI Hazard)。通过允许开放提交,AIM将为测试和评估共同报告框架提供一个真实世界的环境,并提供更多关于事件的数据。因此,它将最终有助于开发和使用安全、可靠、可信的人工智能。

1 引言

随着人工智能系统的广泛采用,报告的事件和危害的频率也在增加。这些“人工智能事件(AI Incident)”和“人工智能危害(AI Hazard)”可能带来重大风险,需要进行有组织的政府监管(OECD,2023[1])。

2023年1月成立的非正式OECD.AI人工智能事件专家小组有两个主要工作方向:一是概念性工作方向,致力于人工智能事件和危害的分类以及统一报告框架的创建;二是应用性工作方向,将这些概念性定义和结构付诸实践,通过人工智能事件监测器(AIM)跟踪现实世界中的事件和危害(OECD,2023[1])。

第一个方向开发了人工智能事件、危害及相关术语的定义(OECD,2023[1]),这些定义对分类人工智能危害并促进自愿和强制报告具有重要意义。这些定义构成了共同报告框架的基础,旨在建立一个统一的跨国事件报告系统。

方框 1.1. 人工智能事件和人工智能危害的定义

人工智能事件(AI Incident)是指一个或多个人工智能系统的开发、使用或故障直接或间接导致以下危害的事件、情况或一系列事件:

(a)对个人或群体健康的伤害;

(b)对关键基础设施的管理和运营的干扰;

(c)违反人权或违反旨在保护基本权利、劳动权利和知识产权的适用法律义务;

(d)对财产、社区或环境的损害。

人工智能危害(AI Hazard)是指一个或多个人工智能系统的开发、使用或故障可能合理导致人工智能事件的事件、情况或一系列事件,即可能导致以下危害:

(a)对个人或群体健康的伤害;

(b)对关键基础设施的管理和运营的干扰;

(c)违反人权或违反旨在保护基本权利、劳动权利和知识产权的适用法律义务;

(d)对财产、社区或环境的损害。

数据来源:OECD(2024[2])

第二个工作方向旨在提高我们对人工智能风险的理解,并提供有关相关趋势和发展的见解。目前,AIM通过实时监测知名媒体(基于Alexa流量排名)来识别与人工智能相关的事件和危害(OECD,2024[3])。在未来,利益相关者将被允许通过开放提交流程提交新的事件报告或补充现有报告。这将有助于在实践中测试和评估共同报告框架,并使数据更符合现实模式。

本报告重点关注人工智能事件和危害的报告。它并未为人工智能开发者、用户、运营商或政策制定者提供在事件或危害发生后采取预防或纠正措施的具体指南。

本报告中提出的框架旨在补充而非取代现有的国家事件报告框架。该框架的目标是增强国际间事件报告的一致性,同时充分尊重并补充各国的法律要求。特定地区或情境可能仍需要额外的报告指南(例如,纳入有关原因、影响、缓解措施或其他政策制定者可能希望从特定行为者处获取的信息)。

2 为人工智能事件制定共同报告框架

在全球范围内跟踪人工智能事件和危害需要一个跨管辖区一致且互操作性强的报告框架。这样的报告框架应该简洁但灵活且、全面。它应允许任何人报告事件,同时确保事件报告达到一定的质量标准。该框架旨在供各国政府、国家机构和其他利益相关者使用,以促进人工智能事件的互操作性报告。它使各国能够在采用共同报告方法的同时,灵活调整其响应方式。

本报告中讨论的人工智能事件共同报告框架旨在支持国际间人工智能事件和危害的监测。它旨在为跨管辖区的强制性和自愿性事件报告提供基础(OECD,2023[1])。预计该共同报告框架将被纳入人工智能事件监测器(AIM),建立一个用于报告和监测人工智能事件的实际系统。这将有助于收集证据以指导人工智能治理并防止未来事件的发生。该框架的国际采用可以作为全球人工智能事件报告的基础。

开发该共同报告框架的方法包括29项标准,如下文各小节所述。

方法论

现有框架的盘点

四个现有的资源和框架为开发共同报告框架提供了依据:OECD人工智能系统分类框架(OECD,2022[4])、负责任人工智能协作组织的人工智能事件数据库(AIID,2024[5])、OECD全球产品召回门户网站(OECD,2024[6])和OECD人工智能事件监测器(AIM)(OECD,2024[3])。这四个资源共同提供了一个全面的视角,以了解用于描述人工智能系统、人工智能事件和有缺陷产品的各种相关标准(方框2.1)。

方框 2.1. 简要描述和人工智能事件报告相关框架的范围

  • OECD人工智能系统分类框架:一个用户友好的框架,允许政策制定者对不同类型的应用型人工智能系统进行分类。它有助于根据人工智能应用对个人、社会和地球的潜在影响进行区分。

  • 负责任人工智能协作组织的人工智能事件数据库(AIID):一个存储由人工智能系统部署导致的危害或潜在危害的存储库。人工智能事件经过人工审核后被纳入数据库,并随后使用不同的分类进行详细注释。

  • OECD全球产品召回门户网站:收集由政府当局通知和发布的强制性和自愿性产品召回信息。

  • OECD人工智能事件监测器(AIM):记录人工智能事件,以帮助全球的政策制定者、人工智能从业者和所有利益相关者深入了解人工智能风险的具体化。随着时间的推移和更广泛的报告流程,AIM将有助于展示风险模式,并建立对人工智能事件及其多面性的集体理解。

注:更多关于这些框架的信息,请参阅附录A。数据来源:OECD(2022[4];2024[6];2024[3])和AIID(2024[5])。

从这四个框架中,共识别出88项用于描述人工智能系统、事件或产品的标准。这些标准被划分为八个维度,其中五个基于OECD人工智能系统分类框架(即与人和地球、经济背景、数据和输入、人工智能模型以及任务和输出相关标准)。其余三个维度对应于事件元数据、危害细节以及关于事件的补充信息(表2.1)。

表2.1 88项潜在标准被划分为8个维度,用于制定人工智能事件共同报告框架

维度(8)

描述

标准数量(88)

事件元数据

包括事件的日期、标题和描述等元数据

14

危害细节

探讨危害,重点关注其严重性、类型和影响

17

人和地球

包括受影响的利益相关者和相关人工智能原则

10

经济背景

研究人工智能系统部署的经济和环境领域

11

数据和输入

描述用于人工智能系统的训练数据和输入数据

10

人工智能模型

与模型类型相关的信息,包括其在部署前后演变的能力以及相关使用权

15

任务和输出

描述人工智能系统的任务、行动自主性水平和输出

5

关于此事件的其他信息

由行为者报告的行动和关于事件的补充信息

6

数据来源:OECD整理的可能用于人工智能事件共同报告框架的标准数据库。

标准选择

采用两步法确定纳入共同报告框架的标准。符合以下两个条件之一的标准被选中:

  • 重复标准:这些是出现在所分析的四个框架中的至少三个中的10项标准。作为大多数框架之间的最小公约数,这些标准被认为与事件报告相关。例如,重复标准包括受影响的利益相关者、部署领域和事件发生国家。

  • 补充标准:这些标准为描述人工智能事件提供了相关且补充的信息,这些信息未在重复标准中涉及。共有19项补充标准:它们提供了必要的信息,以确保共同报告框架能够捕捉到关于人工智能事件(AI Incident)的重要细节,可能包括关于数据和输入、人工智能模型以及相关人工智能系统任务和输出的技术信息。其他补充标准的例子还包括提交事件的个人或组织的信息,以及在适用情况下对危害的量化描述。

通过这一过程,最终确定了29项标准作为人工智能事件共同报告框架的基础。

共同报告框架

最终形成的共同报告框架具有以下特点:

  • 可选性:借鉴所分析的框架,共同报告框架中的29项标准中只有一部分将被设为强制性标准。这7项强制性标准将包括理解事件、其影响以及与人工智能系统关联的基本信息。仅将部分标准设为强制性可以简化报告流程,而可选标准则便于在有可用信息的情况下提供补充信息。强制性标准在表2.2中标注有星号。

  • 输入格式:共同报告框架的输入格式多样,包括二元输入(例如,是/否)、多选(例如,允许报告主体选择一个或多个选项)以及开放式文本。二元输入和多选标准通过提供预定义的响应,促进报告的一致性和可比性。

  • 维度:与表2.1中呈现的分类一致,所选的29项标准被组织为8个维度,主要与OECD人工智能系统分类框架对齐。

该框架描述了每份事件报告所需的数据。尽管人工智能事件监测器(AIM)旨在提供一个符合框架格式的事件和危害报告界面,但框架本身主要关注定义数据格式,而非界面本身。因此,针对人工智能事件报告的其他界面可能需要根据具体报告情境进行进一步调整,例如,将更多标准设为强制性,以更好地满足特定需求。

方框2.2. 通过八个维度报告人工智能事件和危害

  • 元数据维度(9项标准):包括事件的标题、描述以及支持材料。

  • 危害细节维度(4项标准):描述事件的严重性以及造成的危害类型。

  • 人和地球维度(3项标准):涵盖受影响的利益相关者、相关人工智能原则以及人权侵犯情况。

  • 经济背景维度(4项标准):包括行业、业务功能以及对关键基础设施的影响等因素。

  • 数据和输入维度(1项标准):涉及用于人工智能系统的训练数据和输入。

  • 人工智能模型维度(3项标准):指出事件是否与人工智能模型或多个模型的交互相关。

  • 任务和输出维度(2项标准):提供关于人工智能系统的任务和自主性水平的信息。

  • 其他信息维度(3项标准):允许提交者提供关于事件的其他细节。与开发或部署相关人工智能系统的组织有关的提交者可以描述为停止、预防或缓解风险所采取的措施。

表2.2中的29项标准总结了理解人工智能事件所需的信息,同时允许提供额外细节,以便为政策制定者和监管者提供更深入的见解。附录B(表B.1)提供了更详细的表格。

表2.2 共同报告框架的标准

事件报告框架标准

子标准

1. 标题*

2. 事件描述*

3. 人工智能系统与事件的关联方式*

直接原因;促成因素;未采取行动;过度依赖和故意滥用;人为错误;未遵守法律框架;其他(具体说明)(附录C)

4. 提交者信息(角色、隶属关系等)*

角色;电子邮件;隶属关系;利益相关者群体或来源类型;与事件的关系:“我代表政府或监管机构”,“我在公共利益机构或非政府组织工作或有隶属关系”,“我在开发或提供相关人工智能系统的组织工作或有隶属关系”,“我是相关人工智能系统的用户”,“我是受影响的利益相关者”,“以上都不是,但对事件有部分或充分了解(例如,第一手资料、研究等)”,“其他(具体说明)”

5. 首次已知发生日期

6. 事件发生国家(地区)

国家列表

7. 关于事件的支持材料*

8. 人工智能系统/产品名称及版本

9. 开发和/或部署人工智能系统的组织

10. 严重性*

危害;严重危害;事件;严重事件;灾难;其他(具体说明)(OECD[1])

11. 危害类型*

身体;心理;名誉;经济/财产;环境;公共利益/关键基础设施;人权或基本权利;其他(具体说明)(OECD[1])

12. 如适用,危害的量化

经济损失;死亡;伤害;受影响利益相关者数量;赔偿;其他(具体说明)

13. 事件是否与人工智能系统的非预期/错误使用相关(以及如何)

如果选择,需具体说明(简短回答,限字符数)

14. 受影响的利益相关者

消费者;儿童;工人;工会;企业;政府;民间社会;公众;其他(具体说明)(OECD[4])

15. 对人权或基本权利的不利影响

如果选择,需具体说明(简短回答,限字符数)

16. 相关人工智能原则

可问责性;公平性;包容性增长;隐私;数据治理;尊重人权;鲁棒性;数字安全;安全性;环境可持续性;透明度;可解释性;民主;人类自主性(OECD[7])

17. 行业

根据国际标准行业分类(ISIC)进行分类(ILOSTAT[8])

18. 发生人工智能事件的业务功能

人力资源管理;销售;信息与通信技术管理及信息安全;市场营销与广告;物流;公民/客户服务;采购;维护;会计;监测与质量控制;生产;规划与预算;研究与开发;合规与司法;其他(具体说明)(OECD[4])

19. 事件是否与关键功能/基础设施的运行相关

能源(包括石油和天然气);供水和污水处理;医疗保健和公共卫生;交通运输和物流;电信和信息与通信技术基础设施;食品和农业;金融服务;公共安全和应急服务;政府运作和公共管理(包括选举系统);制造业和工业;教育和研究;住房和城市基础设施;公共事业和环境保护;供应链和分销网络;国家防御和边境安全;其他(具体说明)(CISA[9];EU[10])

20. 部署范围

试点项目(例如,团队/小组);有限部署(例如,公司/城市);广泛部署(例如,行业/国家);广泛部署(例如,行业/国家);其他(具体说明)(OECD[4])

21. 事件是否与人工智能系统的训练数据相关(以及如何)

如果选择,需具体说明(简短回答,限字符数)

22. 事件是否与人工智能模型相关(以及如何)

如果选择,需具体说明(简短回答,限字符数)

23. 使用权

一次性许可;付费;仅限研究用途;非商业用途;限制访问;免费;知识共享;开源/许可;共享许可;其他(具体说明)(OECD[11])

24. 事件是否与多个人工智能系统的交互相关

如果选择,需具体说明(简短回答,限字符数)

25. 人工智能系统的任务

识别/目标检测;组织/推荐;事件/异常检测;预测/预测;交互支持/聊天机器人;目标驱动的组织;基于知识结构的推理/规划;内容生成;其他(具体说明)(OECD[4])

26. 人工智能系统的最大自主性水平

无行动自主性(人类支持);低行动自主性(人在环路中);中等行动自主性(人在环路上);高行动自主性(人不在环路中);其他(具体说明)(OECD[4])

27. 如适用,已采取的措施

预防;缓解;停止;补救;其他(具体说明)(OECD)

28. 如适用,复现事件的步骤

如果选择,需具体说明(开放式文本)

29. 其他信息

注:斜体标准为至少包含在三个框架中的标准。星号表示强制性标准。附录C提供了一个关于人工智能系统与事件之间可能关联的核心功能和基础设施列表,以增强可用性。

数据来源:OECD。

3 结论与下一步

本文所提出的共同报告框架旨在促进国际间人工智能事件(AI Incident)报告的一致性,同时允许各国根据本国政策和法律框架灵活地监测事件。这种灵活性使得各国可以根据自身需求调整报告内容,而研究这些差异将有助于政策制定者理解不同情境下对事件的认知。

各国监测人工智能事件的国家机构被鼓励在实践中测试共同报告框架。通过收集的证据,将有助于深入分析人工智能事件及其潜在风险,从而对严重事件进行更深入的调查。这将帮助政策制定者识别高风险人工智能系统,评估其影响,并理解当前和未来的风险。该框架的实施还将为政策制定者提供有关预防和缓解措施的宝贵见解,尤其是对于常见事件,从而为未来的政策建议提供信息。

在国际组织和管辖区之间建立合作伙伴关系对于扩大共同报告框架的影响力和有效性至关重要。与事件报告组织和专家合作,包括标准制定组织,将促进关于管理人工智能事件的知识共享和最佳实践。此外,了解该框架与其他报告机制(例如G7关于高级人工智能开发行为准则的报告框架)的一致性,将进一步推动报告的采用和互操作性。

展望未来,人工智能事件监测器(AIM)与共同报告框架的紧密对齐至关重要。通过将开放提交纳入AIM并确保媒体中的人工智能事件和危害根据框架定义的标准进行标记,可以实现这一目标。

附录A. 分析现有框架以指导人工智能事件报告

OECD人工智能系统分类框架

OECD人工智能系统分类框架于2022年发布,是一个用户友好的框架,允许政策制定者对不同类型的应用型人工智能系统进行分类。它根据人工智能应用对个人、社会和地球的潜在影响进行区分(OECD,2022[4])。该框架将人工智能系统的政策含义与技术特征联系起来,并围绕五个维度对人工智能系统进行分类,共包含37项标准(表A.1)。

表A.1 OECD人工智能系统分类框架的维度

维度

描述

标准数量

人和地球

适用于促进以人为中心、值得信赖的人工智能,以造福人类和地球的标准。包括受影响的利益相关者、用户和环境影响。

6

经济背景

研究人工智能系统部署的背景,强调特定行业的政策需求,包括行业和部署范围等标准。

6

数据和输入

描述用于训练人工智能系统的数据和输入,包括数据来源、收集方法和数据属性,以确保隐私、包容性和公平性。

9

人工智能模型

描述模型特征以及模型构建和推理方法。

11

任务和输出

包括系统的任务、其行动自主性、评估方法和核心应用领域。

5

数据来源:改编自OECD(2022[4])

该框架允许用户关注人工智能特有的具体风险,如偏见、可解释性和鲁棒性,但其本质上是通用的。它有助于促进细致且精准的政策辩论,并且可以根据人工智能系统的特征开发政策和法规,因为这些特征影响技术措施和程序的实施(OECD,2022[4])。

人工智能事件数据库(AIID)

人工智能事件数据库(AIID)是由负责任人工智能协作组织开发的一个数据库,用于记录人工智能危害和潜在危害(AIID,2024[5])。AIID使用两种分类法来对人工智能事件进行分类:乔治城安全与新兴技术中心(CSETv1)人工智能危害分类法和目标、方法与失败(GMF)分类法(表A.2)。

表A.2 人工智能事件数据库(AIID)使用的分类描述

分类法

描述

标准数量

CSETv1

与人工智能事件相关危害特征的分类法。提供了一个用于提取人工智能危害信息的结构,可用于跟踪趋势、预防事件和识别各种类型的人工智能危害。包括人工智能系统、行业、环境、实体、地点、日期和危害类型等详细信息。

70

GMF

基于三个因素的分类法:人工智能系统的目标、人工智能方法和技术以及人工智能失败的原因。通过研究分类关系、事件记录和技术知识,创建其GMF注释。

18

数据来源:Hoffmann等人(2023[12]),Pittaras和McGregor(2022[13])

AIID的提交和审核流程可以为所提出的开放报告系统人工智能事件监测器(AIM)提供宝贵的借鉴。OECD与AIID在人工智能事件监测和报告方面展开合作,重点关注两个平台之间的协同效应和互补性。

全球召回门户网站

OECD全球产品召回门户网站由OECD消费者产品安全工作组开发,旨在促进产品安全领域的信息共享与合作,通过及早识别安全问题、分享信息和实践以及以一致的方式解决安全问题,支持国际对话(OECD,2024[6])。该门户网站包含由政府当局通知和发布的强制性和自愿性产品召回信息。消费者和企业均可访问该门户网站,其中每个产品召回都有自己的详细信息页面,根据表A.3中描述的16项标准描述一次召回。

表A.3 全球召回门户网站的标准表

维度

描述

标准数量

召回详情

关于总体警报的信息,警报日期和涉及的经济体详情。

6

产品详情

对危害的描述、可能的伤害以及应对警报所采取的行动。

8

分类

明细。

1

标签

对召回的描述性标签。

1

数据来源:OECD(2024[6])

人工智能事件监测器(AIM)

目前,AIM实时跟踪全球知名媒体中的人工智能事件,以帮助全球的政策制定者、人工智能从业者和所有利益相关者深入了解人工智能风险的具体化。随着时间的推移,通过可能增加的开放报告系统(基于共同报告框架),AIM将有助于展示风险模式,并建立对人工智能事件及其多面性的集体理解,成为值得信赖人工智能的重要工具(OECD,2024[3])。

AIM包含与OECD对人工智能事件及相关术语定义相一致的事件特征(OECD,2024[2])。AIM包含27项标准,包括危害类型、严重性、受影响的利益相关者、国家、行业和其他事件元数据(表A.4)。

表A.4 AIM中包含的信息摘要表

维度

描述

危害类型

包括心理、身体、环境等。

严重性

主要与身体伤害相关,包括危险、伤害和死亡。

受影响的利益相关者

从消费者到企业以及公众。

人工智能原则

与事件最相关的AI原则。

行业

20多个行业。

未来威胁

可能转化为事件的危害。

标签

与事件相关的关键主题。

事件元数据

ID号、发生日期、国家、新闻文章链接。

描述

事件摘要,“为什么这是一个AI事件”部分。

数据来源:OECD(2024[3])

附录B. 共同报告框架的详细标准

表B.1 共同报告框架的标准

维度

事件报告框架标准

输入格式

子标准

事件元数据

1. 标题*

开放文本

事件元数据

2. 事件描述*

开放文本

事件元数据

3. 人工智能系统与事件的关联方式*

多选加开放文本

直接原因;促成因素;未采取行动;过度依赖和故意误用;人为错误;未遵守法律框架;其他(具体说明)(附录C)

事件元数据

4. 提交者信息(角色、隶属关系等)*

开放文本和多选

角色;电子邮件;隶属关系;利益相关者群体或来源类型;与事件的关系:“我代表政府或监管机构”,“我在公共利益机构或非政府组织工作或有隶属关系”,“我在开发或提供相关人工智能系统的组织工作或有隶属关系”,“我是相关人工智能系统的用户”,“我是受影响的利益相关者”,“以上都不是,但对事件有部分或充分了解(例如,第一手资料、研究等)”,“其他(具体说明)”

事件元数据

5. 首次已知发生日期

日期格式

事件元数据

6. 事件发生国家(地区)

多选

国家列表

事件元数据

7. 关于事件的支持材料*

开放文本、URL和上传按钮

事件元数据

8. 人工智能系统/产品名称及版本

开放文本

事件元数据

9. 开发和/或部署人工智能系统的组织

开放文本

危害细节

10. 严重性*

多选

危险;严重危险;事件;严重事件;灾难;其他(具体说明)(OECD[1])

危害细节

11. 危害类型*

多选

身体;心理;名誉;经济/财产;环境;公共利益/关键基础设施;人权或基本权利;其他(具体说明)(OECD[1])

危害细节

12. 如适用,危害的量化

多选

经济损失;死亡;伤害;受影响利益相关者数量;赔偿;其他(具体说明)

危害细节

13. 事件是否与人工智能系统的非预期/错误使用相关(以及如何)

复选框

如果选择,需具体说明(简短回答,限字符数)

人和地球

14. 受影响的利益相关者

多选

消费者;儿童;工人;工会;企业;政府;民间社会;公众;其他(具体说明)(OECD[4])

人和地球

15. 对人权或基本权利的不利影响

复选框

如果选择,需具体说明(简短回答,限字符数)

人和地球

16. 相关人工智能原则

多选

可问责性;公平性;包容性增长;隐私;数据治理;尊重人权;鲁棒性;数字安全;安全性;环境可持续性;透明度;可解释性;民主;人类自主性(OECD[7])

经济背景

17. 行业

多选

根据国际标准行业分类(ISIC)进行分类(ILOSTAT[8])

经济背景

18. 发生人工智能事件的业务功能

多选

人力资源管理;销售;信息与通信技术管理及信息安全;市场营销与广告;物流;公民/客户服务;采购;维护;会计;监测与质量控制;生产;规划与预算;研究与开发;合规与司法;其他(具体说明)(OECD[4])

经济背景

19. 事件是否与关键功能/基础设施的运行相关

复选框

能源(包括石油和天然气);供水和污水处理;医疗保健和公共卫生;交通运输和物流;电信和信息与通信技术基础设施;食品和农业;金融服务;公共安全和应急服务;政府运作和公共管理(包括选举系统);制造业和工业;教育和研究;住房和城市基础设施;公共事业和环境保护;供应链和分销网络;国家防御和边境安全;其他(具体说明)(CISA[9];EU[10])

经济背景

20. 部署范围

单选

试点项目(例如,团队/小组);有限部署(例如,公司/城市);广泛部署(例如,行业/国家);广泛部署(例如,行业/国家);其他(具体说明)(OECD[4])

数据和输入

21. 事件是否与人工智能系统的训练数据相关(以及如何)

复选框

如果选择,需具体说明(简短回答,限字符数)

人工智能模型

22. 事件是否与人工智能模型相关(以及如何)

复选框

如果选择,需具体说明(简短回答,限字符数)

人工智能模型

23. 使用权

多选

一次性许可;付费;仅限研究用途;非商业用途;限制访问;免费;知识共享;开源/许可;共享许可;其他(具体说明)(OECD[11])

人工智能模型

24. 事件是否与多个人工智能系统的交互相关

复选框

如果选择,需具体说明(简短回答,限字符数)

任务和输出

25. 人工智能系统的任务

多选

识别/目标检测;组织/推荐;事件/异常检测;预测/预测;交互支持/聊天机器人;目标驱动的组织;基于知识结构的推理/规划;内容生成;其他(具体说明)(OECD[4])

任务和输出

26. 人工智能系统的最大自主性水平

单选

无行动自主性(人类支持);低行动自主性(人在环路中);中等行动自主性(人在环路上);高行动自主性(人不在环路中);其他(具体说明)(OECD[4])

其他信息

27. 如适用,已采取的措施

开放文本、多选

预防;缓解;停止;补救;其他(具体说明)(OECD)

其他信息

28. 如适用,重现事件的步骤

开放文本

如果选择,需具体说明(开放式文本)

其他信息

29. 其他信息

开放文本

注:斜体标准为至少包含在三个框架中的标准。星号表示强制性标准。

数据来源:OECD。

附录C. 人工智能系统与事件之间可能联系的分类

表C.1提出了对人工智能系统与事件之间不同关系的分类。为每个类别提供了描述和示例。

以下分类并不旨在穷尽人工智能系统与事件之间的所有可能关系。这些关系并非互斥,一个事件中可能同时存在多种关系。提交者被邀请选择所有适用的关系,并具体说明未包含在以下六个类别中的任何其他关系。

表C.1 人工智能系统与事件之间可能联系的分类

涉及类型

类别

描述

示例

直接

直接原因

人工智能系统因故障或错误输出而成为事件的主要原因。

自动驾驶汽车因错误解读交通信号而导致碰撞。

直接

促成因素

人工智能系统在事件中发挥了辅助性或次要作用。

基于人工智能的交通管理系统错误地优化了交通流量,导致紧急响应期间的拥堵。

直接

未采取行动

人工智能系统未能检测或响应其本应处理的问题。

用于欺诈检测的人工智能系统未能标记可疑交易,导致经济损失。

间接

过度依赖和故意误用

- 过度依赖:事件发生是因为用户过度依赖人工智能,忽视了适当的监督。

- 故意误用:人工智能系统可能按预期运行,但其恶意使用导致了事件。

- 用于医疗诊断的人工智能辅助工具建议了错误的治疗方案,但医生接受了该建议。

- 用于安全目的的人工智能面部识别系统被用于未经授权的个人监视。

间接

人为错误

- 开发者错误:人工智能系统按预期运行,但由于开发过程中的错误导致了意外结果。

- 操作者错误:人工智能系统按预期运行,但由于操作者缺乏技能、配置错误、监控不足或不当应用导致意外结果。

- 用户错误:用户在与人工智能系统交互时的错误,通常由于误解输出、输入不当或缺乏培训。

- 数据科学家使用有缺陷的数据训练人工智能模型,导致预测错误。

- 操作者误解了人工智能的建议,导致采取了不当的行动。

- 自动驾驶汽车检测到碰撞风险并试图变道,但驾驶员因未察觉碰撞风险而阻止车辆变道。

间接

未遵守法律框架

人工智能系统按预期运行,但未能遵守现有的法律框架。

人工智能系统未遵守当前的数据保护法律和政策,从而侵犯了用户的隐私权

数据来源:OECD。

声明:本文来自那一片数据星辰,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。