根据欧盟《人工智能法》,高风险人工智能系统的提供者将被要求向国家主管当局报告严重事件。该新义务载于第73条,旨在及早发现风险、确保问责、促使快速行动,并建立公众对人工智能技术的信任。

尽管这些规则仅自2026年8月起适用,欧盟委员会已经制定了该项义务的指南以及报告末班,如下是事件报告的指南(全文翻译)。这两份文件将有助于提供者做好准备。草案指南澄清了定义、提供了实际示例,并解释了新规则与其他法律义务之间的关系。

欧盟的做法亦旨在与国际倡议保持一致,例如经合组织的人工智能事件监测与通用报告框架(OECD’s AI Incidents Monitor and Common Reporting Framework)。关于OECD的AI事故报告,本公众号也进行过翻译,请参考OECD《AI事件报告共同框架》全文翻译

《欧盟人工智能法》第73条草案指南——事故报告

(高风险人工智能系统)

背景与目标

(1) 报告严重事故的义务载于《(欧盟)2024/1689 号条例》(“AI 法”)第 73 条。该条为高风险 AI 系统的提供者制定了报告义务。¹ ²

(2) 报告严重事故义务的目标是多方面的。首先,报告义务旨在建立一套预警系统,使市场监督机构能够在早期阶段识别高风险 AI 系统的潜在有害模式或重要风险。其次,它为这些系统的提供者,以及在一定程度上为使用者,确立了明确的归责原则,确保他们对其产品的正常运行与安全承担责任。第三,它使市场监督机构在事故发生时能够及时采取纠正措施。最后,它促进高风险 AI 系统运行方式的透明性,并最终通过恰当的监督来建立公众对 AI 技术的信任。

(3) 除了 AI 法的报告义务之外,其他国际报告机制也已出现,最引人注目的是经济合作与发展组织(OECD)的“AI 事故监测与通用报告框架”。³ AI 法下的事故监测尽可能与 OECD 框架保持一致。

(4) AI 法第 73 条的报告义务适用于高风险 AI 系统的严重事故与广泛侵害。AI 法第 55 条第 1 款(c)项亦规定,具有系统性风险的通用目的 AI 模型的提供者有义务向 AI 办公室报告严重事故。本指南不涉及就具有系统性风险的通用目的 AI 模型之严重事故的报告义务。

定义

2.1. AI 法中的定义

(5) AI 法在第 3 条第 49 款将“严重事故”定义为:“AI 系统发生的事故或故障,直接或间接导致以下任一结果:

(a) 造成人员死亡,或对人员健康造成严重伤害;

(b) 对关键基础设施的管理或运行造成严重且不可逆的中断;

(c) 违反旨在保护基本权利的联盟法律下的义务;

(d) 对财产或环境造成严重损害。”

(6) AI 法第 3 条第 61 款将“广泛侵害”定义为:“任何违反保护个人利益之联盟法律的作为或不作为,其:

(a) 已经或可能损害至少两个成员国的居民之集体利益,且该两个成员国不同于以下情形所涉及的成员国:

i. 该作为或不作为的起源地或发生地;

ii. 涉及的提供者或(如适用)其授权代表所在地或设立地;或

iii. 使用方(部署者)设立地,若侵害由该使用方实施;

(b) 已经造成、正在造成或可能造成对自然人的集体利益的损害,且具有共同特征,包括相同的不法行为或相同被侵害的利益,并且正由同一经营者实施的在至少三个成员国同时发生”

2.2. “事故”与“故障(malfunction)”

(7) AI 法在第 3 条第 49 款对“严重事故”作出定义,但“事故”(incident)一词本身并未定义。AI 法并未对“事故”设定报告义务。

(8) “事故”一词出现于多个欧洲监管框架中,各自针对特定部门需求量身定制。虽然这些部门性定义并不适用于 AI 法,但仍可看出若干共通元素。事故一般以其实际或潜在的负面后果来界定,尤其是对人类或关键系统的(潜在)伤害,并另外考虑各部门的特性。⁴ “事故”是性能特征中非计划/非编程的偏离。OECD 将 AI 事故定义为 AI 系统的开发或使用导致实际伤害的事件;而 AI 系统的开发或使用可能有害的事件则称为“AI 危害(AI hazard)”。⁵

(9) AI 法第 3 条第 49 款的表述“指涉事故或故障”,这意味着“故障”并不被视为“事故”。与 AI 法不同,《医疗器械法规》(MDR)⁶ 在“事故”的定义中也包含“故障”一词。

(10) “故障”可理解为:AI 系统的任何功能未按照预期发挥作用,或 AI 系统未能维持提供者在技术文件(AI 法第 11 条)中就其预期用途与合理可预见的误用所声明的性能。

(11) 在实践中,不应将 AI 法中的“事故”与“故障”的区分理解为严格区隔,而应将其理解为在事故监测语境中对“故障”重要性的强调。

(12) 事故或故障的示例包括:

  • 误分类
  • 准确率显著下降
  • 系统暂时性停机
  • 出现未预期的系统行为

2.3. “直接或间接”导致

(13) 事故或故障需要对 AI 法第 3 条第 49 款所列严重损害具有因果关系,或很可能具有因果关系(AI 法第 73 条第 2 款)。若无该事故或故障,则特定形式的损害本不会发生(或在合理可能性上更可能不发生),则可认定其具有因果关系。因果关系亦可为间接,即次级效应。间接示例如下:

  • 某 AI 系统对医学影像给出错误分析,导致医生作出错误的诊断或治疗决定,进而对患者造成伤害。
  • 某基于 AI 的信用评分系统错误地将某人标注为不可靠,并据此拒绝发放贷款。
  • 某 AI 系统将患者错误分类为低风险,致使医生未能发现本可轻易识别的健康状况。
  • 某基于 AI 的招聘系统对收到的简历进行筛查,并因性别或种族而剔除高素质候选人,而用人单位仅对通过该 AI 初筛的申请继续推进。

(14) “直接或间接”的因果关系应限于 AI 系统在其预期用途与合理可预见的误用范围内被使用的情形,且事故并非由于系统使用者的错误、非预期使用或非预期错误所致。

2.4. 造成人员死亡或对人员健康造成严重伤害

(15) 对人员健康的“严重”⁷伤害可包括⁸:

  • 危及生命的疾病或损伤
  • 身体结构或身体机能的暂时或永久性受损
  • 需要住院治疗或延长现有住院时间的情形
  • 为防止上述前两类情形而进行的医学或外科干预。例如:
    • 专业的医疗护理或额外的非计划医疗治疗
    • 手术时长在临床上具有相关性的增加
  • 慢性疾病或严重的心理疾病(当疾病使个人在重要生活活动中受损,包括日常功能时,即属严重)
  • 胎儿窘迫、胎儿死亡或任何先天异常(包括先天性身心损害)或出生缺陷

2.5. 对关键基础设施的管理或运行造成“严重且不可逆”的中断

(16) 就关键基础设施的定义,AI 法第 3 条第 62 款援引《(欧盟)2022/2557 号指令》(关键实体韧性指令,“CER”)第 2 条第 (4) 点:“用于提供一项基本服务所必需的资产、设施、设备、网络或系统,或上述任一的组成部分”。

(17) 《(欧盟)2022/2555 号指令》(NIS2 指令)适用于“高度关键部门”与“其他关键部门”中的重要实体和关键实体(“essential and important entities”),如该指令附件一与附件二所定义。除其他义务外,NIS2 指令要求重要/关键实体通报“重大事故”。依第 23 条第 3 款(a)项,导致或可能导致服务严重运营中断的事故应视为重大事故。因此,若高风险 AI 系统的提供者已根据 NIS2 指令报告某事故,理由是该事故已造成服务的严重运营中断,则只要该中断不可逆且由 AI 系统的事故或故障所导致,该事故亦应被视为 AI 法下的严重事故。

(18) 此外,若高风险 AI 系统提供者获知某重要/关键实体已根据 NIS2 指令报告事故,理由是该事故已造成服务的严重运营中断,且该事故由该提供者提供的高风险 AI 系统的事故或故障所致,则在该中断不可逆的前提下,该事故亦应被视为 AI 法下的严重事故。

(19) AI 法并未对何谓“严重”中断设定阈值。CER 及 AI 法序言第 55 段可提供指引。根据 AI 法,下列情形可视为“严重”中断:

  • 中断可能对生命或人身安全构成紧迫威胁,包括严重损害对公众的基本供给或对国家核心职能的行使;
  • 关键基础设施的毁坏;
  • 社会与经济活动的中断。

(20) 该中断还必须是不可逆的。

(21) 在评估中断是否构成不可逆时,应考虑以下因素:

  • 中断需要重建物理基础设施,或毁坏不易获得的专用设备;
  • 水、土壤或空气的污染;
  • 对基本记录的损失或损坏,例如患者数据、人口登记或金融交易记录,且无法可靠恢复或重建;
  • 关键节点(如铁路联络点、变电站或登陆站)的永久性失效,且在无多年周期的前提下无法修复或更换;
  • 空间资产(例如全球卫星导航系统或通信卫星)的损失,其毁坏将腾空其轨道位置或频率,且在通常需耗费数年的延长替换程序完成前无法替代。

(22) AI 法第 73 条第 3 款要求:提供者/使用者自知悉事故起,不得迟于两天报送事故。若在该时间点尚不清楚中断是否不可逆,应先提交初始报告。

2.6. 违反旨在保护基本权利的联盟法项下义务

(23) “基本权利”一词与《欧盟基本权利宪章》相关。⁹

(24) AI 法第 3 条第 49 款(c)项中的严重事故定义包含“违反旨在保护基本权利之联盟法律项下义务”。不同于第 3 条第 49 款(a)、(b)、(d)项,此处未使用“严重”一词。然而,“旨在保护基本权利”的表述应作狭义理解,因为第 73 条的报告义务仅适用于严重事故。

(25) 对严重事故的聚焦发挥着重要的“过滤”功能;否则,报告义务可能会导致向主管当局涌入无需在当局层面采取行动或无需关注的事故信息。

(26) 仅那些在大范围内对《宪章》所保护之权利产生重大干涉的侵害,方应纳入可报告范围。以下案例即属此类侵害的示例:

  • 基于 AI 的招聘系统按族裔或性别排除候选人;
  • 信用评分系统排除某些类别的人群,例如具有某地区姓名或居于特定街区的人;
  • 生物特征身份识别系统频繁错误识别不同族裔背景人群。

2.7. 对财产造成“严重”损害

(27) 在评估对财产的损害是否“严重”时,应考虑以下参数:

  • 经济影响,包括修复或更换成本。若损坏或毁损使该财产的预期可用性或实体遭到如此程度的损害,以致其无法再用于其预定用途,则应视为严重。损失金额、修复费用或价值降低并非决定性标准,但在任何情况下应超过购买价的 5%。
  • 财产的文化或历史意义;
  • 财产损失或损坏在何种程度上影响个人或群体的生计或生活质量;
  • 损害的永久性,包括该财产能否恢复至原状;
  • 损害的连锁效应,例如其对周边区域或相关运营的影响。

2.8. 对环境造成“严重”损害

(28) AI 法未定义对环境的严重损害,但可参考其他欧盟立法。《环境责任指令》(2004/35/EC)将环境损害界定为对受保护物种与栖息地、水体与土地的损害。《环境犯罪指令》((欧盟)2024/1203)将造成对重要生态系统、保护区内栖息地、空气质量、土壤或水体的不可逆或持久且广泛的损害的行为,界定为“犯罪”。

(29) 环境犯罪指令第 3 条第 5 款进一步界定了在评估损害或可能损害是否“严重”时必须考量的要素,包括:

  • 受影响环境的基线状况;
  • 损害的持久性——长期、中期或短期;
  • 损害的范围;
  • 损害的可逆性。

(30) 此外,对环境的“严重”损害可以包括:

  • 环境资源的污染;
  • 自然生态系统的破坏;
  • […]

2.9. 广泛侵害

(31) AI 法第 73 条第 3 款要求:在发生“广泛侵害”的情况下应即时报告事故。AI 法第 3 条第 61 款将“广泛侵害”定义为:“任何违反保护个人利益之联盟法律的作为或不作为,其:(a) 已经或可能损害至少两个不同于下列情况所涉成员国之居民集体利益的成员国: (i) 该作为或不作为的起源地或发生地;(ii) 涉及的提供者或(如适用)其授权代表的所在地或设立地;或 (iii) 使用方(部署者)设立地(若侵害由使用方实施);(b) 已经造成、正在造成或可能造成对自然人的集体利益的损害,且具共同特征,包括相同的不法做法或相同被侵害的利益,并且正由同一经营者在至少三个成员国同时发生。”

(32) 当 AI 法第 73 条第 3 款谈及对“广泛侵害”的报告时,其隐含指向同时构成“严重事故”的“广泛侵害”。因此,“广泛侵害”必须符合“严重事故”的要件。仅构成“广泛侵害”、但不构成“严重事故”的事件,不在第 73 条第 3 款的规定之列。

2.9.1. “作为或不作为”

(33) “作为或不作为”应作广义理解,涵盖与高风险 AI 系统存在因果关系的任何作为或不作为。

2.9.2. 对“自然人的集体利益”的损害

(34) “广泛侵害”的定义提及任何“违反保护个人利益之联盟法律的作为或不作为,已对或可能对个人的集体利益造成损害”。此处所称之“集体利益”(受联盟法保护)系由一群体共同享有,而非仅由单一个体享有。该等集体利益可能与个体偏好相冲突。

(35) AI 法第 73 条项下对“自然人的集体利益”的广泛损害之示例包括:

  • 环境保护;
  • 公共健康;
  • 民主机构的运作。

2.9.3. “同时发生”

(36) “同时发生”要求有害行为或侵害正在同步发生。

不同主体的义务

3.1. 高风险 AI 系统提供者

3.1.1. 报告义务

(37) AI 法第 73 条第 1 款明确,高风险 AI 系统提供者需向事故发生所在成员国的市场监督机构报告任何严重事故。若提供者无法确知事故的确切地点,则以使用方(部署者)的营业所在地为准。

(38) AI 法第 73 条第 2 款进一步规定,报告应当“立即”进行,但不得迟于提供者知悉严重事故之日起 15 天。若严重事故构成广泛侵害,或严重事故属对关键基础设施管理或运行造成严重且不可逆之中断,报告应当“立即”进行,但不得迟于知悉之日起 2 天(第 73 条第 3 款)。若发生人员死亡事件,报告应当“立即”进行,但不得迟于知悉之日起 10 天(第 73 条第 4 款)。

(39) 如为确保及时报告所必需,可提交不完整的初始报告(第 73 条第 5 款)。

(40) 对于作为医疗器械之安全组件的高风险 AI 系统,或其本身即为医疗器械者,严重事故的通报应限于违反旨在保护基本权利的联盟法之义务,且应提交至事故发生所在成员国为该目的而指定的国家主管机关(AI 法第 73 条第 10 款)。¹⁰

(41) 例如:[…]

3.1.2. 调查义务

(42) 提供者应当“毫不迟延”地就严重事故及所涉 AI 系统开展必要调查。该调查应包括对事故的风险评估与纠正措施(AI 法第 73 条第 6 款)。在通知主管机关之前,提供者“不得进行任何会以可能影响对事故原因后续评估之方式改变相关 AI 系统的调查”。任何可能对《(欧盟)2019/1029 号条例》第 19 条下的评估或其他措施产生负面影响的变更,均应被视为第 73 条第 6 款所述需履行通知义务的“变更”。

(43) 在评估是否发生此类“变更”时,应考虑以下因素:

• 对直接所涉严重事故之组件的变更,包括软件更新、硬件更换或配置调整;

• 影响技术调查所需数据可用性的更动(例如所涉训练数据集或停用监测工具);

• 该等变更是否影响重建导致事故的事件序列之能力(例如对日志文件、传感器数据或决策算法的修改);

• […]

3.1.3. 合作义务

(44) 提供者应当与主管机关合作,并在相关情形下与指定通知机构(notified body)合作,共同开展调查(第 73 条第 6 款)。

(45) 合作包括:

• 遵守市场监督机构依据《市场监督条例》¹¹第 19 条采取的措施;

• 在合理时间内进行沟通与响应,但不得迟于 24 小时;

• […]

(46) 如发生以下情形,与指定机构的沟通即属相关:[…]

3.2. 高风险 AI 系统的使用者(部署者)

(47) 若使用方发现严重事故,应立即通知提供者,随后通知进口商或分销商以及相关市场监督机构(AI 法第 26 条第 5 款)。“立即”应理解为 24 小时内。

(48) 若使用方无法联系到提供者,则提供者的义务应“经必要变通后”由使用方承担。若出现以下情形,应视为使用方无法联系到提供者:

• 提供者在 24 小时内未予回复;

• […]

3.3. 具有系统性风险的通用目的 AI 模型提供者

(49) 依 AI 法第 55 条第 1 款(c)项,具有系统性风险之通用目的 AI 模型的提供者应跟踪、记录并不迟延地向 AI 办公室以及(在适当情形下)各国家主管机关报告有关严重事故的信息及应对该等事故的可能纠正措施。

(50) “严重事故”一词在 AI 法第 3 条第 49 款仅就 AI 系统作出定义。对于 AI 法第 55 条第 1 款(c)项下之具有系统性风险的通用目的 AI 模型的严重事故,《通用目的 AI 实践准则》在“安全与保障”章节的“承诺 9”提供了证明合规的便利。欧盟委员会关于通用目的 AI 模型提供者义务范围的指南亦阐明了委员会就具有系统性风险的通用目的 AI 模型提供者适用“严重事故”概念之方式。此外,委员会将发布具有系统性风险之通用目的 AI 模型提供者用于严重事故报告的模板。

3.4. 市场监督机构

(51) 市场监督机构应在自收到严重事故通知之日起七天内,采取《市场监督条例》¹²第 19 条所述之适当措施(AI 法第 73 条第 8 款)。

(52) 当收到与“基本权利保护”相关之严重事故通知时,相关市场监督机构应当通知负责监督或执行旨在保护基本权利的联盟法项下义务之国家公共机关或机构(AI 法第 77 条所指)。

3.5. 国家主管机关

(53) 国家主管机关应当依《市场监督条例》¹³第 20 条之规定,不论其是否已就该事故采取行动,立即将任何严重事故通知欧盟委员会(AI 法第 73 条第 11 款)。

3.6. 欧盟委员会

(54) 通知/建立其他市场监督机构——预警系统(Alert System)

3.7. AI 委员会(AI Board)

(55) AI 委员会可对事故报告制度进行评估与审查(AI 法第 66 条(e)项)。

与其他欧盟事故报告义务的衔接

(56) 依 AI 法第 73 条第 9 款,对于列于附件三且受与 AI 法中所设等同报告义务的欧盟立法工具所规范之高风险 AI 系统,其严重事故的通报应限于 AI 法第 3 条第 49 款(c)项所述之事故,即与基本权利相关的事故。

(57) 依《关键实体韧性指令》(CER),关键实体须在事故对基本服务造成或可能造成重大中断之 24 小时内通知主管机关。AI 法附件三第 2 点所列之“部门”(数字基础设施、公路、交通、水、燃气、供热或电力)亦适用于 CER 指令。因此,在 AI 法项下,对附件三第 2 点所涉之 AI 系统的事故报告义务仅适用于与基本权利之侵害有关的事故。CER 指令亦适用于《(欧盟)第 575/2013 号条例》第 4 条第 1 款所定义的信贷机构,以及由成员国依据本国法定义之中央政府公共行政实体。对于这些依法须遵守 CER 报告义务的主体,仅需额外遵守与基本权利侵害之报告要求。以下情形可为此类严重事故之示例:

(58) 负荷切换(load-shedding)AI 系统以家庭收入的代理变量来优先分配供给,系统性地对低收入地区限电,从而违反非歧视权。

(59) 预测性维护 AI 系统在管道更换项目排序中使用与社区族裔相关的变量,从而导致弱势群体获得安全饮用水的时间被延迟,违反平等待遇权。

(60) 依 NIS2 指令,重要/关键实体须将任何第 23 条第 3 款所定义之重大事故通知 CSIRT 或(如适用)主管机关。第 23 条第 4 款规定了报告时间线,包括:在知悉重大事故 24 小时内发出预警;在知悉 72 小时内提交事故通知;并在提交事故通知后不迟于一个月提交最终报告。AI 法附件三第 2 点所列之“部门”(数字基础设施、公路、交通、水、燃气、供热或电力)亦适用于 NIS2。因此,在 AI 法项下,对附件三第 2 点所涉之 AI 系统的事故报告义务仅适用于与基本权利侵害有关的事故。NIS2 亦适用于《(欧盟)第 575/2013 号条例》第 4 条第 1 款所定义之信贷机构,以及由成员国依据本国法定义之中央政府公共行政实体。对于这些依法须遵守 NIS2 报告义务的主体,仅需额外遵守与基本权利侵害之报告要求。

(61) 《数字运营韧性法案》(DORA)第 19 条要求金融实体就重大 ICT 相关事故与重大网络威胁向相关主管机关报告,而《2025/302 号条例》为金融实体提供了报告重大 ICT 相关事故与通报重大网络威胁的标准化模板。《2025/302 号条例》亦包含详尽的数据词汇表与全面说明,以指导金融实体报告此类事故,确保金融部门事故通报与管理的一致性与清晰性。因此,只要 AI 系统属于附件三第 5 点(b)与(c)项,且相关主体在《2025/302 号条例》意义上属于“金融实体”,则仅需额外遵守与基本权利侵害之报告要求。以下情形可为此类严重事故之示例:

https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32022R2554

(62) 机器学习模型将邮编纳入特征,导致来自主要少数族裔社区的申请人被系统性地拒贷,构成歧视。

(63) 某基于 AI 的风险评分工具通过药店购买数据推断遗传易感性,未获同意便提高某些具有遗传状况人群的保费,侵害隐私与平等权。

(64) 此外,在发生“个人数据泄露(GDPR 第 33 条)”、针对重要/关键实体之“重大事故报告义务(NIS2 第 23 条)”、以及《网络韧性法案》之情形时,事故报告义务之间可能出现重叠。委员会将于稍后明确在部门立法、水平性立法与 AI 法之间的事故报告相互衔接。

(65) 依 AI 法第 73 条第 10 款,对于作为医疗器械安全组件的高风险 AI 系统,或其本身即为医疗器械且受 MDR 与 IVDR 规范者,严重事故的报告限于与基本权利有关者(AI 法第 3 条第 49 款(c)项)。

(66) 其他(非医疗器械)且列于附件一 A 部分(如:机械、电梯、玩具)之 AI 系统(或 AI 系统组件)适用 AI 法第 73 条的事故报告义务。提供者可能需同时依据 AI 法与部门法规报告同一事故。委员会将于稍后明确部门立法与 AI 法事故报告之间的衔接。

(67) 此外,AI 法第 2 条第 2 款对作为附件一 B 部分所列产品的组件之 AI 系统设定了特殊规则——该部分涵盖机动车、航空、船舶设备等多部门的欧盟统一化立法。此类产品被认为在其自身框架下已受充分规制,因此,其所嵌入的 AI 系统不适用 AI 法的报告机制,包括第 73 条。

注:

¹ 《欧洲议会与理事会(欧盟)2024/1689 号条例》,2024 年 6 月 13 日,通过统一的人工智能规则并修订多项法规与指令(人工智能法)(具 EEA 相关性)。

² 见 AI 法第 6 条第 1 款与第 2 款,以及附件一与附件三。

³ “AI Incidents Overview – OECD.AI”,https://oecd.ai/en/site/incidents

⁴ 例如,《(欧盟)2017/745 号条例》(“医疗器械法规”MDR)第 2 条第 64 点将“事故”定义为“在市场上提供的器械之任何故障或在特征或性能方面的恶化,包括因人体工学特征导致的使用错误,以及制造商所提供信息的任何不足与任何不良副作用”。《(欧盟)2022/2555 号指令》(“NIS2”)第 6 条第 6 款将“事故”定义为“危及存储、传输或处理数据的可用性、真实性、完整性或机密性,或由网络与信息系统所提供或可访问的服务的事故”。除“事故”一词外,欧洲监管框架亦使用“事件(event)”一词。例如 NIS2 将事故定义为“危及……之事件”。两者的用法似有差异:event 指纯粹发生的情形,而 incident 指该事件或发生之具体结果或体现。

⁵ OECD 文稿《Defining AI incidents and related terms》:“AI 事故系指一个或一系列事件,其中一个或多个 AI 系统之开发、使用或故障直接或间接导致以下任何损害:(a)对个人或群体的伤害或对健康的损害;(b)对关键基础设施的管理与运行之中断;(c)对人权的侵犯或对旨在保护基本、劳动与知识产权之适用法律义务的违反;(d)对财产、社区或环境的损害。严重 AI 事故系指……(a)人员死亡或对个人或群体健康之严重损害;(b)对关键基础设施管理与运行之严重且不可逆中断;(c)对人权之严重侵犯或对旨在保护基本、劳动与知识产权之适用法律义务的严重违反;(d)对财产、社区或环境之严重损害。”

⁶ 《(欧盟)2017/745 号条例》(医疗器械法规,MDR)。

⁷ 另应一般性地考虑“严重性”的评估,包括损害的规模与范围,以及其货币价值。

⁸ 参见 MDCG 2023-3 修订 2,《关于《(欧盟)2017/745 号条例》和《(欧盟)2017/746 号条例》所述警戒术语与概念的问答》,第 10 页。

⁹ AI 法序言第 1 段:“如《欧盟基本权利宪章》(‘宪章’)所载的基本权利”。

¹⁰ 见《(欧盟)2017/745 号条例》与《(欧盟)2017/746 号条例》。

¹¹ 《(欧盟)2019/1020 号条例》(市场监督条例)。

¹² 同上。

¹³ 同上。

—— 译文完 ——

声明:本文来自那一片数据星辰,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。