欧盟委员会发布了《通用目的人工智能模型提供者指南》,用以阐明《欧盟人工智能法》下通用目的人工智能模型提供者的义务范围。这些义务将于2025年8月2日起正式适用。

这些关于通用目的人工智能模型提供者义务范围的指南,帮助整个AI生态的参与者明确自身是否受该义务规制,并了解具体要求,从而使其在创新过程中具备充分信心。

指南要点

  • 明确定义:指南引入了简明直接的技术标准,例如用于判断某一AI模型是否属于“通用目的”的标准,帮助开发者判断自身是否需要履行《欧盟人工智能法》下的义务。

  • 务实方法:指南采用务实思路。例如,仅对AI模型做出重大修改者需履行通用目的人工智能模型提供者的义务,仅做小幅度调整者则不在此列。

  • 开源豁免:指南同时阐明,在满足特定条件时,开源AI模型的提供者可以豁免部分义务,以促进透明度与创新的发展。

指南的重要性

指南解释了欧盟委员会对《欧盟人工智能法》关键术语的官方解读,帮助AI生态各参与方了解谁应当履行哪些义务。指南因而与《通用目的人工智能行为准则》互为补充,后者是一份自愿性、可操作的文件,指导通用目的人工智能模型提供者如何落实其在《欧盟人工智能法》下的义务。

适用与执法时间线

  • 自2025年8月2日起通用目的人工智能模型提供者的义务正式生效。在此日期之后投放市场的通用目的人工智能模型必须合规,并需与欧盟AI办公室的技术团队进行非正式合作。特别是,针对最具先进性的模型(即存在系统性风险的模型),其提供者有法定义务向AI办公室进行通报。AI办公室将为提供者提供合规支持,尤其是针对已签署《实践守则》的提供者。

  • 自2026年8月2日起,欧盟委员会的执法权力正式启用。委员会将对通用目的人工智能模型提供者的义务履行情况进行执法,包括处以罚款。

  • 至2027年8月2日,2025年8月2日前已投放市场的通用目的人工智能模型提供者必须完成合规

本指南是在与多元利益相关方进行广泛公开磋商后制定的,虽不具有法律约束力,但体现了欧盟委员会的官方解读,并将作为执法参考。提供者应审视自身义务,评估模型风险,做好合规准备,并与AI办公室积极互动。

这些关于通用目的人工智能模型的指南,帮助整个AI价值链的利益相关方在清晰与信心中持续创新。

若提供者需就存在系统性风险的通用目的人工智能模型向欧盟委员会履行通报义务,请联系AI办公室:EU-AIOFFICE-GPAI-SR-PROVIDERS@ec.europa.eu。AI办公室已发布关于通报流程的实务指引。

附:指南(全文翻译)

1. 委员会指南的背景与目标

(1) 欧洲议会与理事会 2024 年 6 月 13 日关于制定人工智能统一规则并修订若干条例的第 (EU) 2024/1689 号条例(“人工智能法”)已于 2024 年 8 月 1 日生效。其宗旨是在联盟内促进人工智能(AI)创新与应用,同时确保对健康、安全及基本权利(包括民主与法治)的高度保护。

(2) 通用目的人工智能模型在联盟人工智能创新与应用中发挥重要作用,因其可执行多种任务并可被集成至大量下游人工智能系统。因此,通用目的人工智能模型提供者在整个价值链中负有特殊角色与责任,包括向下游提供者提供对模型及其能力的充分理解,以便后者集成模型并履行人工智能法下的义务。

(3) 鉴于此,人工智能法规定了相称的透明度措施,包括编制并持续更新文档以供下游提供者及应要求向人工智能办公室和国家主管机关提供(第 53 条第 1 款 (a)(b))。若通用目的人工智能模型以免费开源许可证发布,则在特定条件下可豁免上述透明度相关义务,除非其属于具有系统性风险的通用目的人工智能模型。

(4) 鉴于通用目的人工智能模型通常在大量文本、图像、视频及其他数据上训练,训练数据可能包含受版权保护内容,该法还要求提供者制定遵守欧盟版权法的政策(第 53 条第 1 款 (c)),并公开训练用内容摘要(第 53 条第 1 款 (d))。

(5) 通用目的人工智能模型亦可能带来系统性风险。这些风险专属于最先进的通用目的人工智能模型,并可能对联盟市场产生重大影响(第 3 条第 65 款)。训练所用累积计算资源超过 10²⁵ FLOP 的通用目的人工智能模型被推定为具有系统性风险(第 51 条第 2 款)。委员会亦可依据附件 XIII 所列标准指定某模型为具有系统性风险。此类模型提供者除承担一般义务外,还需评估并降低风险,包括开展模型评估、报告严重事件并确保充分的网络安全防护(第 55 条)。

(6) 委员会对通用目的人工智能模型(无论是否具有系统性风险)依据人工智能法第五章承担专属执法职责,相关实施工作由欧盟人工智能办公室(“人工智能办公室”)负责(第 3 条第 47 款)。

(7) 依第 96 条第 1 款,委员会须制定人工智能法实施指南。本指南聚焦即将于 2025 年 8 月 2 日生效的通用目的人工智能模型提供者义务范围,仅适用于人工智能法,不涉及其他欧盟法律(包括责任相关法律)。

(8) 指南涵盖四大主题:(i) 通用目的人工智能模型(第 2 节);(ii) 将其投放市场的提供者(第 3 节);(iii) 以开源形式发布的模型之义务豁免(第 4 节);(iv) 义务合规(第 5 节)。旨在帮助价值链各主体判定:(i) 其模型是否属于通用目的人工智能模型;(ii) 其是否为该模型之提供者;(iii) 是否适用豁免;(iv) 委员会如何执行合规要求,特别是 2025 年 8 月 2 日后的过渡阶段。

(9) 这些指南对通用目的人工智能模型提供者不具约束力;对《人工智能法》的权威解释只能由欧洲联盟法院(‘CJEU’)作出。然而,这些指南阐明了委员会对《人工智能法》的解释和应用,委员会将以此为基础开展执法行动。这有助于提供者履行其义务,并促进《人工智能法》的有效实施。但仍需根据具体个案进行逐案评估,以考虑每个案件的具体情况。这些指南也将根据需要进行审查和更新,特别是考虑到技术、社会和市场的发展(第6节)。

(10) 本指南与欧盟委员会为推动《人工智能法》中通用目的人工智能模型提供者义务妥善落地而实施的其他举措互为补充,特别是依照《人工智能法》第56条所制定的《行为准则》。本指南聚焦《人工智能法》所设定的通用目的人工智能模型提供者义务之范围及其实施方式(包括如何利用《行为准则》来证明合规)。相比之下,《行为准则》则细化了通用目的人工智能模型提供者为履行《人工智能法》第53条第1款及第55条第1款所列义务可采取的具体措施。本指南亦补充了委员会依据《人工智能法》第53条第1款(d)项提供的、用于公开披露训练通用目的人工智能模型所用内容概要的模板。

(11) 本指南充分吸纳了委员会通过2025年4月22日启动、并于2025年5月22日结束的公开多利益相关方咨询所收集的意见;其早期版本已于2025年6月30日通过欧洲人工智能委员会(“委员会”)向成员国进行了通报。本指南同时参考了由欧盟委员会联合研究中心(JRC)组建的专家库意见,该专家库旨在就AI模型是否构成通用目的人工智能模型以及是否构成具有系统性风险的通用目的人工智能模型之分类,向AI办公室提供专业建议,并综合了其他专家的意见。

2. 通用目的人工智能模型

(12) 本节指南聚焦于“通用目的人工智能模型”这一概念。它通过提供一项指示性标准来阐明委员会在何种情形下将某一模型视为通用目的人工智能模型(第2.1节)。它同时阐明“通用目的人工智能模型生命周期”这一概念及其对通用目的人工智能模型提供者义务的含义(第2.2节)。此外,它阐明在《人工智能法》第51条和第52条项下,某一通用目的人工智能模型在何种情形下属于具有系统性风险的通用目的人工智能模型(第2.3节)。

2.1 何时一个模型属于通用目的人工智能模型?

(13) 《人工智能法》第3条第63款将“通用目的人工智能模型”界定为:“一种人工智能模型,包括当该人工智能模型使用大量数据通过大规模自监督方式进行训练时,表现出显著的通用性,并能够胜任执行多种不同任务,而不论该模型的市场投放方式如何,且可被集成至多种下游系统或应用程序中,但不包括在市场投放前用于研究、开发或原型设计活动的模型。”该定义以概括方式列举了决定某一模型是否为通用目的人工智能模型的要素。然而,该定义并未列出具体标准,以供潜在提供者用于评估其模型是否构成通用目的人工智能模型。因此,有必要提供易于核查的条件,以减轻众多需评估自身是否为通用目的人工智能模型提供者的市场主体的负担。

(14) 鉴于通用目的人工智能模型在能力和使用场景方面存在巨大差异,目前无法列出一份精确的能力清单或任务清单,用以判断某一模型是否属于通用目的人工智能模型。

(15) 因此,委员会采用训练该模型所使用的计算资源总量(“训练算力”,参见第115段关于本指南中该术语的解释)以FLOP(浮点运算次数)为单位,并结合模型所支持的模态,作为认定某一模型属于通用目的人工智能模型的指示性标准。该方法建立在《人工智能法》序言第98条的基础上,该条指出:“具有至少十亿参数且使用大量数据通过大规模自监督方式训练的模型,应被视为表现出显著通用性并能够胜任执行多种不同任务。”此外,序言第99条澄清:“大型生成式人工智能模型是通用目的人工智能模型的典型示例,因为它们能够灵活生成文本、音频、图像或视频等形式的内容,从而能够轻松胜任多种不同任务。”

(16) 使用训练算力的优势在于,它将参数数量和训练样本数量合并为一个单一数值,该数值对于提供者而言相对易于估算。该数值通常与参数数量与训练样本数量的乘积成正比,因此可以设定单一阈值,而无需分别为模型规模和训练数据规模设定不同阈值。尽管训练算力在衡量通用性和能力方面并不完美,但委员会认为,目前采用包含训练算力阈值的指示性标准是最合适的方法。然而,随着技术和市场的发展,委员会的方法可能会发生变化。此外,委员会将持续研究其他可相对轻松地用于评估通用性和能力的标准,尤其是针对小型主体。

(17) 基于上述考量,某一模型被认定为通用目的人工智能模型的指示性标准为:其训练算力大于10²³ FLOP,且该模型能够生成语言(无论是以文本形式还是音频形式),或能够执行文生图或文生视频任务。

(18) 该阈值大致对应于使用约十亿参数并在大量数据上进行训练的模型通常所使用的算力。尽管此类模型根据所使用的数据量不同,其训练算力可能有所不同,但在撰写本指南之时,10²³ FLOP 是用于在大量数据上进行训练的模型的典型数值(参见附件A.3中的示例)。

(19) 选择上述模态的原因在于,经过训练以生成语言(无论是以文本形式还是语音形式)的模型能够使用语言进行交流、存储知识并进行推理。没有其他模态能够提供如此广泛的能力。因此,能够生成语言的模型通常比其它模型更有能力胜任多种不同任务。尽管能够生成图像或视频的模型相比能够生成语言的模型通常表现出较窄范围的能力和使用场景,但此类模型仍可被视为通用目的人工智能模型。文生图和文生视频模型能够生成广泛的视觉输出,从而能够灵活地生成内容,并轻松胜任多种不同任务。

(20) 如果某一通用目的人工智能模型满足第(17)段中的标准,但例外地未表现出显著通用性,或未表现出能够胜任多种不同任务的能力,则该模型不属于通用目的人工智能模型。同样,如果某一通用目的人工智能模型未满足该标准,但例外地表现出显著通用性并能够胜任多种不同任务,则该模型属于通用目的人工智能模型。

范围内的模型示例

  • 某模型使用10²⁴ FLOP在从互联网及其他来源收集并整理的广泛自然语言数据(即文本)上进行训练。

    • 根据第(17)段中的标准,由于该模型能够生成文本且其训练算力大于10²³ FLOP,因此应将该模型视为通用目的人工智能模型。此外,在广泛的自监督自然语言数据上进行训练进一步表明,该模型应表现出显著通用性并能够胜任多种不同任务。因此,该模型很可能属于通用目的人工智能模型。

范围外的模型示例

  • 某模型使用10²² FLOP在自监督自然语言数据上进行训练,并且无法胜任多种不同任务。

    • 尽管该模型能够生成文本,但其训练算力不大于10²³ FLOP。因此,根据第(17)段中的标准,该模型不应被视为通用目的人工智能模型。该模型无法胜任多种不同任务的事实进一步确认其不属于通用目的人工智能模型。

  • 某模型专门用于将语音转录为文本,使用10²⁴ FLOP进行训练。

    • 该模型能够生成文本且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即将语音转录为文本),则它实际上不属于通用目的人工智能模型。

  • 某模型专门用于从文本生成语音,使用10²⁴ FLOP进行训练。

    • 该模型能够生成语音且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即从文本生成语音),则它实际上不属于通用目的人工智能模型。

  • 某模型专门用于提高图像分辨率,使用10²⁴ FLOP进行训练。

    • 该模型能够生成图像且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即提高图像分辨率),则它实际上不属于通用目的人工智能模型。

  • 某模型专门用于填补图像中损坏或缺失的部分,使用10²⁴ FLOP进行训练。

    • 该模型能够生成图像且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即图像修复),则它实际上不属于通用目的人工智能模型。

  • 某模型专门用于下棋或玩电子游戏,使用10²⁴ FLOP进行训练。

    • 尽管该模型的训练算力大于10²³ FLOP,但如果它无法生成文本、语音、文生图或文生视频,则根据第(17)段中的标准,该模型不应被视为通用目的人工智能模型。如果该模型仅能够胜任范围较窄的任务(即下棋或玩电子游戏),则这一事实进一步确认其不属于通用目的人工智能模型。

  • 某模型专门用于模拟天气模式或物理系统,使用10²⁴ FLOP进行训练。

    • 尽管该模型的训练算力大于10²³ FLOP,但如果它无法生成文本、语音、文生图或文生视频,则根据第(17)段中的标准,该模型不应被视为通用目的人工智能模型。如果该模型仅能够胜任范围较窄的任务(即模拟天气模式或物理系统),则这一事实进一步确认其不属于通用目的人工智能模型。

  • 某模型专门用于根据包含歌词的文本提示生成音乐,使用10²⁴ FLOP进行训练。

    • 该模型能够生成语音(以歌词形式)且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即根据包含歌词的文本提示生成音乐),则它实际上不属于通用目的人工智能模型。

  • 某模型专门用于生成音效,使用10²⁴ FLOP进行训练。该模型能够生成语言(语音),但生成语音内容的质量较低(例如,内容在简短对话过程中缺乏一致性)。

    • 该模型能够生成语言且其训练算力大于10²³ FLOP。因此,根据第(17)段中的标准,该模型应被视为通用目的人工智能模型。然而,如果该模型仅能够胜任范围较窄的任务(即生成音效),则它实际上不属于通用目的人工智能模型。

2.2 通用目的人工智能模型的生命周期

(22) 具有系统性风险的通用目的人工智能模型的提供者被期望“持续评估并降低系统性风险”,包括通过“在整个模型生命周期中采取适当措施”(序言第114条)。此外,他们必须“在整个模型生命周期中,确保模型及其物理基础设施在适当情况下具备充分的网络安全防护水平”(序言第115条)。因此,“模型生命周期”这一概念对于具有系统性风险的通用目的人工智能模型提供者的义务具有重要意义。

(23) 由于提供者可能通过诸如蒸馏、量化或模型权重合并等技术,以迭代和相互关联的过程开发“模型”,因此很难清晰地界定模型及其生命周期。鉴于这一挑战,委员会在广义上理解“模型”的概念,因此也广义地理解其“生命周期”。在实践中,委员会认为,通用目的人工智能模型的生命周期始于大规模预训练开始之时。由提供者或代表提供者在该大规模预训练之后对该模型进行的任何后续开发,无论是在模型投放市场之前还是之后进行,均构成同一模型生命周期的一部分,而非产生新的模型。如果另一主体对该模型进行了修改,则适用不同的考量(参见第3.2节)。因此,在整个生命周期中,即在其开发、市场可用性和使用期间,该模型被视为同一模型。特别是,模型开发的不同阶段不被视为不同的模型。

(24) 委员会对通用目的人工智能模型生命周期的这一理解对通用目的人工智能模型提供者的义务具有以下含义:

  • 根据《人工智能法》第53条第1款(a)和(b)项要求编制的文档必须针对每一投放市场的模型进行编制,并在其整个生命周期内持续更新。

  • 根据《人工智能法》第53条第1款(c)项要求的版权政策必须适用于提供者相关模型的整个生命周期。提供者可以选择制定一项政策并适用于其所有相关模型。

  • 根据《人工智能法》第53条第1款(d)项要求的训练内容摘要必须针对提供者投放市场的所有模型进行编制并公开。人工智能办公室目前正在准备的模板将规定在何种情况下必须更新该摘要。

  • 根据《人工智能法》第55条第1款要求的系统性风险评估和缓解必须针对每一模型在其整个生命周期内持续进行。这可能涉及持续措施以及定期和模型生命周期关键决策前更全面深入的措施。这些措施应有效、充分且与系统性风险相称。根据《人工智能法》第55条第1款要求的治理缓解措施必须适用于提供者相关模型的整个生命周期。对于某些缓解措施,提供者可以一次性开发,然后适用于其所有相关模型。

2.3 何时一个通用目的人工智能模型构成具有系统性风险的通用目的人工智能模型?

(25) “具有系统性风险的通用目的人工智能模型”构成通用目的人工智能模型中的一个特殊类别。此类模型的提供者须根据《人工智能法》第52条和第55条承担与评估和缓解这些模型带来的“系统性风险”相关的额外义务。《人工智能法》将“系统性风险”定义为:“专属于通用目的人工智能模型高影响力能力的风险,由于其覆盖范围或由于其对公共卫生、安全、公共安全、基本权利或社会整体实际或可合理预见的负面影响,能够以大规模方式在价值链中传播,从而对联盟市场产生重大影响”(第3条第65款)。

2.3.1 分类

(26) 根据《人工智能法》第51条第1款,如果通用目的人工智能模型满足以下两个条件之一,则被归类为具有系统性风险的通用目的人工智能模型:

  • 其具有“高影响力能力”,即“与最先进模型所记录的能力相匹配或超过的能力”(第3条第64款);或

  • 根据委员会的决定,无论是主动作出还是在科学小组提出合格警示后作出,其具有的能力或影响等同于(a)项中所列的能力,并考虑到附件XIII中所列标准。

(27) 自通用目的人工智能模型满足上述两个条件之一之时起,该模型即被归类为具有系统性风险的通用目的人工智能模型,其提供者必须遵守相关义务。

(28) 某一特定通用目的人工智能模型是否具有高影响力能力,应根据《人工智能法》第51条第1款(a)项,“使用适当的技术工具和方法,包括指标和基准”进行评估。委员会将通过授权法案进一步具体说明这些工具和方法(参见第28段)。尽管未来将采用此类授权法案,但《人工智能法》第51条第2款规定,如果用于训练通用目的人工智能模型的累积计算量(以浮点运算计)大于10²⁵,则该通用目的人工智能模型被推定为具有高影响力能力(第51条第1款(a)项)。这是因为用于训练通用目的人工智能模型的累积计算量(“累积训练算力”,参见第116段关于本指南中该术语的解释)以FLOP计,被认为是识别高影响力能力的相关指标(参见序言第111条)。

(29) 根据《人工智能法》第51条第3款,委员会有权根据《人工智能法》第97条通过授权法案,调整《人工智能法》第51条第1款和第2款中所列阈值。委员会还有权在必要时引入额外的基准和指标,以考虑技术进步,例如算法改进或硬件效率提升,从而使这些阈值继续反映最新技术水平。

2.3.2 通知

(30) 当通用目的人工智能模型已满足或已知将满足导致推定该模型具有高影响力能力的要求时,其提供者必须根据《人工智能法》第52条第1款通知委员会(另参见序言第112条)。通知必须“毫不延迟地进行,且无论如何应在满足该要求或已知将满足该要求之日起两周内”进行(《人工智能法》第52条第1款)。

(31) 特别是,在训练完成之前即可能需要发出通知,如果提供者可以合理预见导致推定该模型具有高影响力能力的要求很可能将被满足。在这方面,序言第112条明确,“通用目的人工智能模型的训练需要大量规划,包括预先分配计算资源,因此通用目的人工智能模型的提供者能够在训练完成前知晓其模型是否将达到该阈值”。由于“规划”和“计算资源的预先分配”在大规模预训练开始之前进行,提供者应在大规模预训练开始之前,估算其将使用的累积训练算力(参见本指南附录A.1和A.2关于如何估算训练算力)。基于该估算,提供者应按如下方式行事:

  • 如果估算值达到《人工智能法》第51条第2款规定的阈值,提供者应“毫不延迟地进行,且无论如何应在两周内”通知委员会(《人工智能法》第52条第1款)。

  • 如果估算值未达到《人工智能法》第51条第2款规定的阈值,提供者仍应密切监测其在训练过程中的实际和预期计算使用情况,并在模型的整个生命周期内持续进行监测。这是为了确保其能够知晓累积训练算力何时已满足或何时将满足该阈值,并据此根据《人工智能法》第52条第1款通知委员会。

(32) 根据《人工智能法》第52条第1款,通知应包括“证明已满足相关要求所必需的信息”。如果通知是由于模型已满足或将满足《人工智能法》第51条第2款规定的阈值而触发,或由于模型是对具有高影响力能力的通用目的人工智能模型进行修改的结果且该修改后模型已满足或将满足第60段规定的阈值而触发,则这些信息尤其应包括:

  • 提供者估算的已触发通知要求的计算量,以FLOP计,并保留两位有效数字(例如2.3×10²⁵ FLOP);

  • 用于估算该计算量的方法说明,包括在无法获得精确信息时用于进行近似的方法。

2.3.3 就分类提出异议的程序

(33) 当提供者根据《人工智能法》第52条第1款通知委员会时,其“可在通知中提出充分理由,以证明尽管满足该要求,但由于其特定特征,该通用目的人工智能模型不会带来系统性风险,因此不应被归类为具有系统性风险的通用目的人工智能模型”(《人工智能法》第52条第2款)。该条款承认,尽管满足《人工智能法》第51条第2款规定阈值或具有高影响力能力的通用目的人工智能模型通常会带来系统性风险,但可能存在例外情况。

(34) 提供者可以提出理由,旨在证明其模型不会或未来不会带来系统性风险,通过证明其模型不会或未来不会具有高影响力能力,即不会“与最先进模型所记录的能力相匹配或超过的能力”(第3条第64款)。这是因为系统性风险是“专属于高影响力能力的风险”(第3条第65款)。如果通知是由于推定模型具有高影响力能力而触发(例如,由于模型已满足或将满足《人工智能法》第51条第2款规定的阈值),但提供者认为该推定对其模型不成立,则该方法将是适当的。委员会指出,证明不应适用从满足定量阈值中得出的推定的举证责任应由该提供者承担。

(35) 作为证明其模型不会或未来也不会具有高影响力能力,因此不会或未来不会带来系统性风险的一部分,提供者应包括其在通知时已掌握的关于模型已实现或预期能力的信息,包括以实际或预测的基准结果形式(例如,基于缩放分析)。为了补充该信息并使委员会能够适当评估该模型是否不会或未来不会具有高影响力能力,因此不会或未来不会带来系统性风险,强烈建议提供包括任何其他可能对模型能力产生影响的信息,例如模型架构、参数数量、训练样本数量、数据整理和处理技术、训练技术、输入和输出模态、预期工具使用以及预期上下文长度。

(36) 在收到包含关于模型不会带来系统性风险的理由的通知后,委员会将根据欧盟委员会的议事规则和欧盟既定法律原则,评估这些理由并决定接受或驳回这些理由。特别是,在驳回的情况下,根据《欧盟基本权利宪章》第41条,在作出决定之前,提供者将有权获得听证(通过提前收到决定草案),并有权查阅其案卷,同时尊重保密、职业和商业秘密的合法权益。委员会的决定将包括接受或驳回提供者根据《人工智能法》第52条第2款提交的理由的原因。

(37) 在提供者提出的理由旨在反驳模型具有高影响力能力的推定并因此不构成系统性风险的情况下,委员会将评估提供者是否提出了充分理由,明显质疑该推定。

(38) 高影响力能力,根据定义,是“与最先进模型所记录的能力相匹配或超过的能力”(第3条第64款)。此外,它们决定通用目的人工智能模型是否被归类为具有系统性风险的通用目的人工智能模型。因此,模型被视为具有“高影响力能力”或等同于“最先进模型”的能力水平预计会随时间变化,因为能力会提高,风险也会演变。特别是,委员会不认为该术语指固定水平的能力。

(39) 在评估该模型在通知时是否属于最先进模型时,委员会将考虑模型的累积训练算力在多大程度上表明该模型属于这些模型。在这方面,模型的累积训练算力超过《人工智能法》第51条第2款规定阈值的程度也将被考虑在内。委员会还将评估除累积训练算力之外影响模型已实现或预期能力的任何其他要素,包括预测或已实现的基准分数。

(40) 在提供者提出的理由旨在证明尽管其模型具有高影响力能力,但不会带来系统性风险的情况下,委员会认为,以已实施或计划实施的缓解措施为由主张模型不会带来系统性风险,并不构成将该模型排除在具有系统性风险的通用目的人工智能模型分类之外的有效理由。在这些情况下,该模型仍然带来必须持续评估和缓解的系统性风险。然而,提供者可以将这些缓解措施作为其根据《人工智能法》第55条第1款必须进行的系统性风险缓解的一部分。

(41) 委员会关于接受或驳回提供者理由的决定具有以下法律效力:

  • 如果委员会决定驳回理由,该模型即被确认为具有系统性风险的通用目的人工智能模型。从那时起,该模型的提供者须遵守具有系统性风险的通用目的人工智能模型提供者的义务。特别是,这意味着在通知中提出理由并不暂停其作为具有系统性风险的通用目的人工智能模型提供者的义务。

(42) 如果委员会决定接受理由,该通用目的人工智能模型不再被归类为具有系统性风险的通用目的人工智能模型。从那时起,该模型的提供者不再受到具有系统性风险的通用目的人工智能模型提供者义务的约束,自其被告知接受决定之时起生效。该接受决定将要求提供者在发生以下情况时重新通知委员会:存在或已知将发生对接受决定所依据的任何事实的重大变更,或已知接受决定是基于实质上不完整、不正确或误导性信息作出的。在任何一种情况下,提供者必须向委员会提供所有相关信息,委员会可将接受决定转为驳回决定,届时该模型将成为具有系统性风险的通用目的人工智能模型。此外,接受决定不排除日后委员会根据《人工智能法》附件XIII所列标准指定该模型为具有系统性风险的通用目的人工智能模型的可能性(参见第2.3.4节)。

2.3.4 指定

(43) 除了上述机制,即通过具有高影响力能力将通用目的人工智能模型归类为具有系统性风险的通用目的人工智能模型外,《人工智能法》还规定了指定机制。

(44) 具体而言,根据《人工智能法》第52条第1款、第51条第1款(b)项和第52条第4款,委员会可主动(ex officio)或在科学小组根据《人工智能法》第90条第1款(a)项提出合格警示后,指定某一通用目的人工智能模型为具有系统性风险的通用目的人工智能模型。

(45) 指定可在以下情形下作出:

  • 根据《人工智能法》第52条第4款,如果委员会基于附件XIII所列标准,认定某一模型具有等同于高影响力能力的能力或影响;或根据《人工智能法》第52条第1款,如果满足《人工智能法》第51条第1款(a)项所述条件的通用目的人工智能模型的提供者未履行其根据《人工智能法》第52条第1款通知委员会的义务。在此情况下,该提供者可根据《人工智能法》第101条被处以罚款。

(46) 在这两种情况下,提供者必须从该模型被归类为具有系统性风险的通用目的人工智能模型之时起,遵守具有系统性风险的通用目的人工智能模型提供者的义务。在第一种情况下,该时间为该提供者被告知指定决定之时;在第二种情况下,该时间为该模型满足《人工智能法》第51条第1款(a)项所述条件之时。

2.3.5 就指定提出异议的程序

(47) 根据《人工智能法》第52条第5款,被委员会根据《人工智能法》第52条第4款指定为具有系统性风险的通用目的人工智能模型的通用目的人工智能模型提供者,可在指定后最早六个月提交一份合理请求,要求委员会重新评估该指定。在提交请求时,应提供“自指定决定以来出现的客观、详细且新的理由”,以说明其模型不再带来系统性风险(《人工智能法》第52条第5款)。如果委员会在重新评估后维持指定,提供者可在该决定后最早六个月再次请求重新评估。

3. 将通用目的人工智能模型投放市场的提供者

(48) 本节指南聚焦于“提供者”和“投放市场”这两个概念,涉及通用目的人工智能模型。其目的在于阐明人工智能价值链中的哪一主体必须遵守《人工智能法》中为通用目的人工智能模型提供者设定的义务。首先,它通过示例阐明委员会认为哪一主体是通用目的人工智能模型的“提供者”,以及委员会认为何时某一通用目的人工智能模型被“投放市场”(第3.1节)。其次,它讨论了通用目的人工智能模型被集成到人工智能系统的情况(第3.2节)。最后,它阐明委员会认为哪一主体在修改通用目的人工智能模型后成为该模型的提供者,从而必须遵守相关义务(第3.3节)。

3.1 哪个主体属于将通用目的人工智能模型投放市场的提供者?

(49) 《人工智能法》第3条第3款将通用目的人工智能模型的“提供者”定义为“任何自然人、法人、公共机关、机构或其他主体,其开发……通用目的人工智能模型,或已……开发通用目的人工智能模型并将其投放市场……以其自身名称或商标,无论是否收费”。相应地,《人工智能法》第3条第9款将通用目的人工智能模型的“投放市场”定义为“首次在欧盟市场上提供……通用目的人工智能模型”,而《人工智能法》第3条第10款将通用目的人工智能模型的“在市场上提供”定义为“在商业活动过程中,为在欧盟市场上分销或使用而供应……通用目的人工智能模型,无论是否收费”。序言第97条进一步澄清:“通用目的人工智能模型可通过多种方式投放市场,包括通过库、应用程序编程接口(API)、直接下载或实体副本。”

(50) 根据《人工智能法》第2条第1款(a)项,将通用目的人工智能模型投放欧盟市场的主体可成为该通用目的人工智能模型的提供者,并须遵守《人工智能法》中为通用目的人工智能模型提供者设定的义务,“无论其是否在欧盟内设立或位于第三国”。为便于合规,位于第三国的提供者必须在将模型投放联盟市场之前指定一名在联盟内设立的授权代表(《人工智能法》第54条)。

3.1.1 通用目的人工智能模型提供者示例

(51) 以下列表提供了在多种情形下应被视为通用目的人工智能模型提供者的主体的示例:

  • 如果主体A开发通用目的人工智能模型并将其投放市场,则主体A为提供者。

  • 如果主体A委托主体B为其开发通用目的人工智能模型,且主体A将该模型投放市场,则主体A为提供者。

  • 如果主体A开发通用目的人工智能模型并将其上传至由主体C托管的在线仓库,则主体A为提供者。

  • 如果某一协作组织或联合体由不同个人或组织为其开发通用目的人工智能模型,并将该模型投放市场,则通常该协作组织或联合体的协调者为提供者。或者,该协作组织或联合体本身可能成为提供者。必须逐案评估。

(52) 上述示例应结合《人工智能法》相关条款(特别是第3条第3款)以及《蓝色指南》(注:委员会通知,《关于欧盟产品规则实施的“蓝色指南”2022》(与欧洲经济区相关文本)2022/C 247/01)的一般指导进行解释,并需逐案评估。

3.1.2 通用目的人工智能模型投放市场示例

(53) 以下示例列表提供了何时应将通用目的人工智能模型视为已投放市场的示例,这些示例基于序言第97条中的示例:

  • 通用目的人工智能模型首次通过软件库或软件包在欧盟市场上提供;

  • 通用目的人工智能模型首次通过应用程序编程接口(API)在欧盟市场上提供;

  • 通用目的人工智能模型首次上传至公共目录、中心或仓库,以供在欧盟市场上直接下载;

  • 通用目的人工智能模型首次以实体副本形式在欧盟市场上提供;

  • 通用目的人工智能模型首次通过云计算服务在欧盟市场上提供;

  • 通用目的人工智能模型首次通过复制到客户自身基础设施的方式在欧盟市场上提供;

  • 通用目的人工智能模型首次集成至聊天机器人,并通过网页界面在欧盟市场上提供;

  • 通用目的人工智能模型首次集成至移动应用程序,并通过应用商店在欧盟市场上提供;

  • 通用目的人工智能模型用于对向第三方提供产品或服务至关重要的内部流程,或影响联盟境内自然人权利的流程。

(54) 上述示例应结合《蓝色指南》(注:委员会通知,《关于欧盟产品规则实施的“蓝色指南”2022》(与欧洲经济区相关文本)2022/C 247/01。)中为“投放市场”定义提供的一般指导以及《人工智能法》相关条款(第3条第9款和第10款以及序言第97条)进行解释,并需逐案评估。

3.1.3 集成至人工智能系统的通用目的人工智能模型之考量

(55) 根据序言第97条,“模型通常被集成并构成人工智能系统的一部分”。此外,“……针对通用目的人工智能模型以及带来系统性风险的通用目的人工智能模型的规则……在这些模型被集成或构成人工智能系统的一部分时,亦应适用”。以下段落描述了通用目的人工智能模型被集成至人工智能系统的特殊情况,在这些情况下,应将该通用目的人工智能模型视为已投放市场,作为第3.1.2节中示例的补充。

(56) 首先,如序言第97条所述,“当通用目的人工智能模型的提供者将其自有模型集成至其自身的人工智能系统,且该人工智能系统被投放市场或投入使用时,该模型应被视为已投放市场,因此本法规中针对模型的义务应继续适用,此外还应适用针对人工智能系统的义务。”

(57) 其次,当上游主体开发或已开发通用目的人工智能模型,并首次将该模型向下游主体在欧盟市场上提供时,该模型应被视为已在联盟市场上投放,且上游主体应被视为该模型的提供者。因此,上游主体必须遵守通用目的人工智能模型提供者的义务。将模型集成至人工智能系统并将该系统投放联盟市场或在联盟境内投入使用的下游主体可能是该系统的提供者。在这种情况下,该下游主体必须遵守《人工智能法》中为人工智能系统设定的适用要求和义务。

(58) 第三,当上游主体开发或已开发通用目的人工智能模型,并首次将该模型向下游主体在欧盟市场外提供,且下游主体将该模型集成至人工智能系统并将该系统投放欧盟市场或在欧盟境内投入使用时,适用以下考量。

  • 为确保所有在欧盟中使用的通用目的人工智能模型均符合《人工智能法》的要求,一旦将该模型集成至的人工智能系统被投放欧盟市场或在欧盟境内投入使用,该模型应被视为已投放联盟市场。

(59) 除非上游主体以清晰且明确的方式排除了该模型在欧盟市场的分发和使用,包括将其集成至拟投放欧盟市场或在欧盟境内投入使用的人工智能系统,否则上游主体应被视为该模型的提供者(注:参见《人工智能法》第3条第10款中“在市场上提供”的定义)。如果上游主体已这样做,则将该模型集成至系统并将该系统投放欧盟市场或在欧盟境内投入使用的下游主体应被视为该模型的提供者。

3.2 下游修改者作为通用目的人工智能模型的提供者

(60) 根据序言第97条,“[通用目的人工智能]模型可以被修改或微调为新的模型。(注:委员会认为“微调”是“修改”通用目的人工智能模型的一种方式)特别是,下游主体(区别于原始提供者且不代表其行事)可以修改通用目的人工智能模型(无论是否将其集成至人工智能系统中)。(注:是原始提供者还是下游主体修改通用目的人工智能模型,必须逐案评估。评估中的一个重要因素可能是谁控制模型权重,例如,通过API进行微调时) 然而,《人工智能法》并未具体说明下游修改者在何种条件下应被视为修改后的通用目的人工智能模型的提供者。

(61) 委员会认为,并非每一次对通用目的人工智能模型的细微修改都必须使下游修改者被视为新的提供者。这一点与《蓝色指南》保持一致,该指南指出:“如果某一产品经过重大改动或大修,旨在改变其原始性能、用途或类型,则可被视为新产品。”

(62) 因此,委员会仅在修改导致模型通用性、能力或系统性风险发生显著变化的情形下,才将下游修改者视为修改后的通用目的人工智能模型的提供者。

(63) 基于上述考量,下游修改者被视为通用目的人工智能模型提供者的指示性标准为:用于修改的训练算力超过原模型训练算力的三分之一(参见第115段关于本指南中“训练算力”的解释)。

(64) 然而,如果下游修改者无法获知该数值(例如,原模型提供者未向其披露)且无法自行估算(参见本指南附录A.1和A.2关于如何估算训练算力),则应按如下方式替换阈值:如原模型为具有系统性风险的通用目的人工智能模型,则阈值应替换为具有系统性风险模型推定阈值(即当前10²⁵ FLOP)的三分之一。否则,阈值应替换为通用目的人工智能模型推定阈值(即当前10²³ FLOP)的三分之一。

(65) 该阈值基于如下预期:以该量级算力修改的模型将表现出足以使下游修改者承担通用目的人工智能模型提供者义务(并可能承担具有系统性风险的通用目的人工智能模型提供者义务)的重大变化:

  • 模型属性的变化可能与委员会、国家主管机关或下游提供者相关,因此下游修改者应受《人工智能法》第53条第1款(a)(b)项透明度义务的约束;

  • 达到该阈值的修改预计已使用大量数据,这可能与《人工智能法》第53条第1款(c)(d)项义务相关,即版权政策和训练内容公开摘要;

  • 若原模型为具有系统性风险的通用目的人工智能模型,则修改后的模型预计与原模型相比具有显著不同的系统性风险。特别是,委员会认为,原提供者无法合理预见此类修改带来的系统性风险变化,因此下游修改者应受《人工智能法》第55条义务的约束。

(66) 该阈值与原模型训练算力成比例。这是因为,如第(16)段所述,模型训练算力通常与参数数量与训练样本数量的乘积成正比。修改通常涉及在额外数据上对模型进行训练。这意味着,对较大模型进行固定数据量的修改所需算力大于对较小模型进行相同数据量的修改。换言之,对模型进行给定修改所需算力通常与模型参数数量成正比。因此,设定相对阈值以确定何时修改应导致下游修改者成为提供者是有道理的。该方法旨在确保无论模型参数数量如何,均平等对待模型。特别是,其不应阻碍对参数较少模型的修改,因为尽管此类模型的阈值较低,但对其进行修改所需算力也较少。

(67) 尽管目前可能仅有少数修改满足第(60)段所列标准,但随着用于修改模型的算力增加,成为通用目的人工智能模型提供者的下游修改者数量可能会随时间推移而增加。因此,该标准主要具有前瞻性,并与《人工智能法》的基于风险的方法保持一致。因此,随着技术和市场的发展,委员会的方法可能会发生变化。

3.2.1 下游修改者成为通用目的人工智能模型提供者的情形

(68) 根据序言第109条,“在模型修改或微调的情况下,通用目的人工智能模型提供者的义务应限于该修改或微调,例如,通过补充现有技术文档,添加关于修改的信息(包括新的训练数据来源),以此作为遵守本法规中价值链义务的一种方式。”即,《人工智能法》第53条第1款(a)(b)项所要求的文档仅限于关于修改的信息,而《人工智能法》第53条第1款(c)项所要求的版权政策以及《人工智能法》第53条第1款(d)项所要求的训练内容摘要仅限于作为修改一部分使用的数据。

(69) 成为通用目的人工智能模型提供者的下游修改者还必须遵守《人工智能法》第54条。

3.2.2 下游修改者成为具有系统性风险的通用目的人工智能模型提供者的情形

(70) 如果下游主体对已被归类为具有系统性风险的通用目的人工智能模型进行修改,且因此成为修改后的通用目的人工智能模型的提供者,则由此产生的模型也被推定具有高影响力能力。因此,根据《人工智能法》第51条第1款(a)项,其被视为具有系统性风险的通用目的人工智能模型。

(71) 在此情况下,下游修改者必须遵守具有系统性风险的通用目的人工智能模型提供者的义务。特别是,该提供者必须根据《人工智能法》第52条第1款通知委员会,并提供第(31)段中规定的信息。

4. 对以开源形式发布的特定模型之义务豁免

(72) 原则上,所有通用目的人工智能模型提供者均须遵守《人工智能法》第53条和第54条规定的义务。然而,《人工智能法》第53条第2款和第54条第6款对以下通用目的人工智能模型提供者规定了某些义务的豁免:“在免费开源许可下发布的、允许访问、使用、修改和分发模型,且其参数(包括权重)、模型架构信息及模型使用信息已公开的通用目的人工智能模型”,前提是这些模型不属于具有系统性风险的通用目的人工智能模型。本节首先描述这些豁免所适用的义务(第4.1节),随后阐明必须满足的条件以使这些豁免得以适用(第4.2节)。

4.1 豁免范围

(73) 对于符合第4.2节所述条件的提供者,以下义务不适用,除非其模型为具有系统性风险的通用目的人工智能模型:

  • 《人工智能法》第53条第1款(a)项:编制并持续更新模型技术文档(包括其训练和测试过程及评估结果)的义务,该文档至少应包含附件XI所列信息,以便应要求向人工智能办公室和国家主管机关提供;

  • 《人工智能法》第53条第1款(b)项:编制、持续更新并向拟将通用目的人工智能模型集成至其人工智能系统的系统提供者提供信息和文档的义务;

  • 《人工智能法》第54条:第三国设立的通用目的人工智能模型提供者指定授权代表的义务。

(74) 这些豁免的理由有两方面。首先,在免费开源许可下发布的模型“可以促进市场研究和创新,并为联盟经济提供重大增长机会”(序言第102条)。其次,“在免费开源许可下发布的通用目的人工智能模型,如果其参数(包括权重)、模型架构信息及模型使用信息已公开,应被视为确保了高度透明度和开放性”(序言第102条),这成为豁免透明度相关义务的特别理由。然而,如果模型属于具有系统性风险的通用目的人工智能模型,则该模型在免费开源许可下发布的事实不足以使其提供者豁免遵守《人工智能法》规定的这些义务。

(75) 以免费开源许可发布通用目的人工智能模型,并不一定披露关于用于训练或修改模型的数据的大量信息,也不一定披露如何确保遵守版权法。因此,符合第4.2节所述条件的通用目的人工智能模型提供者,不会被豁免《人工智能法》第53条第1款(c)项规定的制定遵守联盟版权法政策的义务。该义务包括根据欧洲议会和理事会第(EU)2019/790号指令第4条第3款识别并遵守保留权利声明。出于同样原因,其不会被豁免《人工智能法》第53条第1款(d)项规定的编制训练内容摘要的义务。

4.2 豁免适用条件

4.2.1 许可证条件

(76) 为适用第4.1节所述豁免,通用目的人工智能模型必须特别地在“免费开源许可下发布,该许可允许访问、使用、修改和分发模型”(《人工智能法》第53条第2款和第54条第6款)。

(77) 在此语境下,“许可”应理解为在特定条款和条件下授予的与模型相关的权限。“免费开源”应理解为一种许可形式,其利用版权法允许模型的广泛传播并激励进一步发展。

(78) 序言第102条澄清,该许可必须允许模型被“公开共享”,且用户能够“自由访问、使用、修改和重新分发”该模型“或其修改版本”。如果这些权利中的任何一项缺失(即访问、使用、修改和重新分发的权利),则该许可不能被视为《人工智能法》下的免费开源许可。在这种情况下,该提供者不能豁免第4.1节所述义务。

(79) 委员会将“访问”理解为任何感兴趣的人自由获取模型的权利,无需任何付款要求或其他限制。然而,可以实施合理且必要的安全和安保措施,例如用户验证流程,前提是这些措施不会不公平地歧视个人,例如基于其国籍。

(80) 委员会在此语境下将“使用”理解为,该许可保证原始提供者不会利用其知识产权限制模型的使用或对其使用收费。该许可应允许模型在除确保署名和相同或类似条款下分发模型或衍生作品的限制之外的任何限制下使用。这些条款可能包括触发义务,要求在分发模型时,以相同(或兼容)的版权条款进行分发。

(81) 委员会将“修改”理解为任何人自由对模型进行修改的权利,无需任何付款要求或其他限制。

(82) 委员会将“分发”理解为那些访问、使用或修改通用目的人工智能模型的人员自由进一步分发该模型的权利,但须遵守有限条件。此类有限条件通常仅限于注明作者并保留其版权声明,即署名。因此,获得许可模型的接收者应能够修改该模型,并以不同许可条款(包括闭源专有条款)重新分发所得衍生作品,但须符合第(80)段中可接受的任何限制。

(83) 以下限制示例将导致许可不符合这些标准:

  • 限制为非商业或仅研究用途(例如,“您仅可为非商业、非盈利、研究目的使用该模型”);

  • 禁止分发模型或其组件(例如,“您可使用该模型,但不得分发该模型”);

  • 基于用户规模阈值触发的使用限制(例如,如果月活跃用户数超过特定数量,则需额外许可);

  • 要求为特定用例获取单独商业许可。

(84) 除上述权利外,开源许可包含各种条款和条件。用户可在遵守许可条款和条件的前提下,使用、修改和分发在免费开源许可下发布的通用目的人工智能模型。这些条款和条件可包括注明原始创作者、遵守分发条款以及以相同或类似许可条款提供任何修改或改进。尽管许可必须普遍允许用于任何目的,但许可方可在合理限制使用于对公共安全、安保或基本权利构成重大风险的应用或领域的情况下,纳入特定、以安全为导向的条款。此类限制必须与所缓解风险相称,并基于客观、非歧视标准,不得不公平地针对特定用户类别或其他主体。

4.2.2 非商业化

(85) “商业化”概念在确定豁免是否适用于通用目的人工智能模型方面亦发挥关键作用,如序言第103条所述。根据该序言,为使豁免适用,不得要求以金钱补偿作为访问、使用、修改和分发人工智能模型的交换。在此语境下,“商业化”应理解为不仅包括提供模型以换取价格,还包括其他形式的商业化策略。

(86) 以下情形委员会视为商业化形式:

  • 模型以双重许可模式或类似方式提供,允许免费学术使用,但商业使用或超过特定规模的使用需付费;

  • 与模型本身或其安全不可分割地关联的技术支持及其他服务,且没有这些服务模型将无法运行或无法访问,需付费提供;

  • 用户必须购买支持、培训和维护服务才能访问该模型;

  • 模型由提供者独家托管于其个人托管平台或网站,用户需付费访问,包括用户可自由访问平台或网站但会收到付费广告的情况。

(87) 尽管委员会充分承认个人数据保护是一项基本权利,因此个人数据不得被视为商品或被商业化,但要求收集或以其他方式处理个人数据以访问、使用、修改或重新分发模型,应被视为与商业化策略同等处理,除非该处理完全且严格限于模型安全,且无任何商业或财务收益。无论如何,个人数据处理应符合欧盟数据保护法下的规则。

(88) 相比之下,以下情形委员会不视为适用豁免时的商业化形式:

  • 模型与付费服务一起提供,但这些付费服务不影响模型的可用性或免费使用,且纯属可选。这可包括,例如,提供与开源许可无关的商业服务的商业模式;

  • 与模型一起提供的付费服务或支持,但无任何购买义务,只要模型的使用和免费开放访问得到保证。此类服务或支持可包括具有高级功能或附加工具的高级模型版本、更新系统、扩展或插件,以帮助用户使用开源模型或扩展其功能。

(89) 微型企业之间的交易不被视为商业化。

4.2.3 参数(包括权重)、模型架构信息及模型使用信息的公开可得

(90) 为使第4.1节所述豁免适用,模型的“参数(包括权重)、模型架构信息及模型使用信息”必须“已公开”(《人工智能法》第53条第2款和第54条第6款)。

(91) 这些信息应以能够访问、使用、修改和分发模型的格式和清晰度及具体程度公开。

(92) 关于模型使用的信息至少应包括关于模型的输入和输出模态、能力和局限性的信息。关于模型使用的信息还应包括将模型集成至人工智能系统所需的技术手段(例如,使用说明、基础设施、工具),在适用情况下,可包括预期用例的适当配置。这些信息确保人工智能系统的下游提供者、开发者和用户能够在实际应用中使用该模型。

5. 通用目的人工智能模型提供者义务的执行

(93) 《人工智能法》第五章所规定的通用目的人工智能模型提供者义务自2025年8月2日起适用(第113条(b)项),委员会通过人工智能办公室负责监督与执行这些义务(第88条第1款)。本节首先阐明遵守经评估为充分的行为准则的效果(第5.1节),随后就人工智能办公室依据《人工智能法》第五章进行监督、调查、执行和监测的权力提供若干见解(第5.2节),最后阐明委员会关于2025年8月2日《人工智能法》第五章生效后合规的期望(第5.3节)。

5.1 遵守经评估为充分的行为准则的效果

(94) 通用目的人工智能模型提供者可通过遵守经人工智能办公室及委员会评估为充分的行为准则,证明其符合《人工智能法》第53条第1款及第55条第1款规定的义务(第56条第6款)。如选择退出行为准则某些章节,则在该方面丧失以守则证明合规的便利。提供者亦可采用其他充分方式证明合规,但遵守经评估为充分的行为准则是最直接途径(第53条第4款、第55条第2款)。对于遵守经评估为充分的行为准则的通用目的人工智能模型提供者,委员会将把执法重点放在监测其对准则的遵守上。签署经评估为充分的行为准则的通用目的人工智能模型提供者将公开其实施的合规措施,从而赢得委员会及其他利益相关方的更高信任。

(95) 未遵守经评估为充分的实践守则的通用目的人工智能模型提供者,需通过其他充分方式证明其如何履行《人工智能法》第五章义务,并向人工智能办公室报告已实施措施。此外,此类提供者须解释其措施如何确保合规,例如通过差距分析,将其措施与经评估为充分的行为准则所列措施进行比较。由于AI办公室对其如何确保履行AI法案义务的了解较少,通常需要更详细的信息,包括整个生命周期内对通用目的人工智能模型所做的修改,因此他们可能还会面临更多的信息请求和访问请求,以便在整个模型生命周期内进行模型评估。

(96) 委员会在确定罚款金额时,可视具体情况,将依据经评估为充分的行为准则所作承诺作为减轻因素(第101条第1款)。

(97) 不具有系统性风险的通用目的人工智能模型提供者,可签署并实施与具有系统性风险的通用目的人工智能模型提供者相关的承诺(第56条第7款)。

(98) 依据经评估为充分的行为准则所作承诺,仅在2025年8月2日《人工智能法》第五章义务生效后,方与评估《人工智能法》合规性相关(第113条(b)项)。

(99) 委员会亦可通过实施法案核准行为准则,从而赋予其在整个欧盟范围内的普遍效力(第56条第6款)。若2025年8月2日前无法最终确定行为准则,委员会可通过实施法案制定通用规则,适用于所有通用目的人工智能模型及具有系统性风险的通用目的人工智能模型提供者(第56条第9款)。

(100) 行为准则是证明《人工智能法》合规的临时工具(参见第53条第4款、第55条第2款),直至协调标准制定并获批准(第40条)。与遵守行为准则不同,遵守协调标准可推定符合《人工智能法》相应义务(参见第53条第4款、第55条第2款)。如在标准化请求后,协调标准未能及时或令人满意地制定,委员会可通过实施法案制定通用规范(第41条)。

5.2 《人工智能法》第五章的监督、调查、执行与监测

(101) 人工智能办公室负责依据《人工智能法》第88条和第89条,对通用目的人工智能模型提供者履行《人工智能法》第五章义务进行监督、调查、执行和监测,并在模型与系统提供者为同一主体时,监测基于通用目的人工智能模型的人工智能系统对《人工智能法》义务的合规情况(第75条第1款)。以下段落阐明人工智能办公室在涉及通用目的人工智能模型提供者时的监督、调查、执行和监测活动。

(102) 人工智能办公室将采取协作、分阶段且相称的方式。人工智能办公室鼓励在通用目的人工智能模型训练期间与提供者密切非正式合作,以促进合规并确保及时上市,尤其是具有系统性风险的通用目的人工智能模型提供者。此外,人工智能办公室期望具有系统性风险的通用目的人工智能模型提供者主动报告,无论是作为行为准则下的承诺,还是作为替代合规手段的一部分。最后,人工智能办公室期望提供者在依据《人工智能法》赋予的权力进行的潜在正式程序后期阶段,与人工智能办公室协作并积极参与(例如,通过结构化对话)。

(103) 此类主动报告不影响依据《人工智能法》第55条第1款(c)项跟踪、记录和报告有关“严重事件”相关信息的义务。人工智能办公室认为,该义务涵盖与模型或其物理基础设施相关的严重网络安全漏洞,包括(自我)泄露模型参数和网络攻击,因其可能对《人工智能法》第55条第1款(b)和(d)项规定的义务产生影响。除此之外,人工智能办公室认为,《人工智能法》第五章语境下的“严重事件”系指任何直接或间接导致《人工智能法》第3条第49款(a)至(d)项所列任一事件的通用目的人工智能模型事件或故障。

(104) 在评估合规性时,包括与网络安全、问责和治理流程相关的措施,人工智能办公室可在适用情况下,考虑提供者是否已实施相关技术标准,特别是已在《欧盟官方公报》公布的协调标准。

(105) 根据《人工智能法》第89条第1款,人工智能办公室负责监测通用目的人工智能模型提供者是否有效履行《人工智能法》义务。此类监测包括监测对行为准则的遵守情况。根据《人工智能法》第89条第2款,下游提供者有权就通用目的人工智能模型提供者涉嫌违反《人工智能法》提出投诉。此类投诉必须理由充分,并至少指明《人工智能法》第89条第2款(a)至(c)项所列信息。

(106) 委员会对通用目的人工智能模型提供者义务的执行,以《人工智能法》赋予其的权力为基础。这些权力包括:(i) 要求提供信息(第91条);(ii) 对通用目的人工智能模型进行评估(第92条);(iii) 要求提供者采取措施,包括实施缓解措施和召回模型(第93条);以及(iv) 处以最高全球年营业额3%或1500万欧元(以较高者为准)的罚款(第101条);罚款权自2026年8月2日起适用。后续将通过更详细的法案进一步具体说明如何实施这些权力,特别是《人工智能法》第92条第6款和第101条第6款下的实施法案。

(107) 自2025年8月2日起,委员会可根据第52条作出决定(如接受或驳回理由,以及指定通用目的人工智能模型为具有系统性风险的通用目的人工智能模型)(第113条(b)项)。

(108) 委员会将确保在监督、调查、执行和监测活动中获得的数据的保密性,特别是保护自然人或法人的知识产权、机密商业信息或商业秘密,以及公共安全与安全保障,符合《人工智能法》第78条。

5.3 2025年8月2日《人工智能法》第五章生效后的合规要求

(109) 《人工智能法》第五章所规定的通用目的人工智能模型提供者义务自2025年8月2日起适用(第113条(b)项)。然而,根据《人工智能法》第111条第3款,“2025年8月2日前已投放市场的通用目的人工智能模型提供者,应采取必要步骤,在2027年8月2日前符合本法规规定的义务。”此等模型在整个生命周期内均适用(参见第2.2节)。

(110) 委员会认识到,在2025年8月2日通用目的人工智能模型提供者义务生效后的数月内,2025年8月2日前已投放市场的通用目的人工智能模型提供者可能面临各种挑战,以在2027年8月2日前符合《人工智能法》义务。因此,人工智能办公室致力于支持提供者采取必要步骤,在2027年8月2日前符合义务。

(111) 特别是,2025年8月2日前已投放市场的通用目的人工智能模型提供者,如果无法对过去行为进行此类操作,或部分训练数据信息不可用,或检索将造成提供者不成比例负担,无需对模型进行重新训练或“遗忘”。此类情形必须在版权政策及训练内容摘要中明确披露并说明理由。

(112) 委员会还认可,在2025年8月2日通用目的人工智能模型提供者义务生效后的数月内,2025年8月2日后投放市场的通用目的人工智能模型提供者可能需要时间调整其政策和程序,以确保符合《人工智能法》义务。因此,人工智能办公室致力于支持提供者采取必要步骤以符合义务,并邀请提供者立即主动与人工智能办公室联系,以确保其采取正确步骤确保合规。

(113) 特别是,在2025年8月2日已训练、正在训练或计划训练通用目的人工智能模型(尤其是具有系统性风险的通用目的人工智能模型)并拟在2025年8月2日后投放市场的提供者,如预计难以符合通用目的人工智能模型提供者义务,应主动告知人工智能办公室其将如何在何时采取必要步骤以符合义务。对于在2025年8月2日前未投放具有系统性风险的通用目的人工智能模型的特定情形,委员会将特别考虑其面临的挑战,特别是允许及时上市。

(114) 此外,委员会计划在执法中考虑到外部模型评估生态系统仍在发展,最初此类评估者使用的方法可能不一致。人工智能办公室将监测情况,必要时与评估者网络及其他领域专家合作,为外部模型评估者制定通用方法。

(115) 最后,《人工智能法》认可,2025年8月2日之后,提供者可能无法立即完全实施经评估为充分的行为准则或替代充分措施中所载某些措施。自2025年8月2日起一年内,委员会不得采取任何执法行动,因为其执法权力仅自2026年8月2日起适用。该执法权力的缺失不影响2025年8月2日起《人工智能法》第五章义务的适用性(第113条(b)项)。特别是,在2025年8月2日已训练、正在训练或计划训练具有系统性风险的通用目的人工智能模型并拟在2025年8月2日后投放市场的提供者,预计将在2025年8月2日后毫不延迟且无论如何两周内根据《人工智能法》第52条第1款通知委员会,并与人工智能办公室合作确保完全合规。自2026年8月2日起,委员会将对2026年8月2日仍未完全合规的通用目的人工智能模型提供者处以罚款,同时考虑《人工智能法》第101条所述所有相关方面。

6. 委员会指南的审查与更新

(116) 委员会将在必要时尽快审查本指南,特别考虑到通用目的人工智能模型提供者在实施义务过程中获得的实践经验,以及该领域技术、社会和市场的发展。这还包括从执法行动和欧盟法院就通用目的人工智能模型提供者义务及本指南所审查的《人工智能法》其他条款所作解释中获得的相关经验。在审查过程中,委员会可决定撤回或修订本指南。委员会鼓励通用目的人工智能模型提供者、国家市场监督机构(通过委员会)、咨询论坛、科学小组、研究界及民间社会组织,通过回应未来公开咨询、研讨会或其他意见征集机会,为这一过程作出贡献。

附录:通用目的人工智能模型的训练算力

(117) 《人工智能法》第51条第2款规定了用于训练通用目的人工智能模型的计算量阈值,该阈值可能导致模型被归类为具有系统性风险的通用目的人工智能模型。第2.1节和第3.2节亦涉及训练算力阈值。为判断模型是否达到任一阈值,潜在提供者必须估算相关训练计算量。本指南附件提供如何估算的指导。附件A.1规定潜在通用目的人工智能模型及具有系统性风险的通用目的人工智能模型潜在提供者在估算训练算力时应包括的内容;附件A.2描述潜在提供者可选用的两种常用方法;附件A.3估算若干约十亿参数模型的训练算力,以说明附件A.2中的公式,并论证作为通用目的人工智能模型指示性标准一部分的阈值(第2.1节)。

A.1 应估算什么?

(118) 在本指南中,通用目的人工智能模型的“训练算力”指:

  • 如果模型不属于具有系统性风险的通用目的人工智能模型,则为直接贡献于模型参数更新的总算力;

  • 如果用于评估模型是否属于具有系统性风险的通用目的人工智能模型,则为用于训练模型的累积算力。

(119) 根据《人工智能法》,关于如何理解“累积训练算力”,序言第111条规定,“用于训练的累积计算量包括旨在在部署前提升模型能力的活动和方法所使用的计算量,例如预训练、合成数据生成和微调”。鉴于此类“活动和方法”种类繁多且发展迅速,无法提供精确详尽的应包括和不应包括的清单。因此,委员会认为,作为一般规则,提供者应计入所有已贡献或将贡献于模型能力的计算量。特别是,任何直接贡献于模型参数更新的计算量均应包括。

(120) 如果模型在非公开可访问的合成数据上进行训练,则用于生成这些数据的前向传播计算量,包括被丢弃的数据,应计入累积训练算力估算。例如,如果生成了100个样本,仅选择前10个样本用于训练,则应计入生成全部100个样本的计算量,因为生成全部100个样本的计算量是创建所选10个样本所必需的。

(121) 如果模型通过合并模型权重创建,例如通过模型权重合并或模型权重平均,或通过整合现有模型权重(例如通过权重初始化),则用于训练合并模型权重的训练算力应计入模型的累积训练算力估算。

(122) 相比之下,以下计算量示例无需计入累积训练算力估算。随着技术发展,该清单可能变更:

  • 用于生成公开可访问合成数据的计算量,因其可能与其他公开可访问数据无法区分;

  • 用于不贡献于提升模型能力的纯粹诊断过程的计算量,例如模型评估或红队测试;

  • 仅通过人类吸取经验教训而贡献于提升模型能力的计算量支出,例如用于产生更高效训练技术的探索性研究项目上的计算量,或失败的合成数据生成实验且其结果被丢弃的计算量;

  • 用于训练蒸馏中父模型的计算量(无论父模型是否与所涉模型一致);

  • 用于训练辅助模型(如价值函数或奖励模型)的计算量(无论辅助模型是否与所涉模型一致);

  • 为节省内存而重新计算激活的计算量。

A.2 训练算力应如何估算?

(123) 提供者可选任何方法估算相关训练算力,只要在其最佳判断下,估算总量整体误差范围不超过所报告估算值的30%。这是对提供者在估算模型累积训练算力时可能面临的困难(例如,在模型训练完成前进行估算)的考虑。然而,提供者仍需记录估算所作假设,包括估算方法及相关不确定性。

(124) 提供者可选择通过跟踪图形处理器(GPU)使用量(基于硬件的方法)或基于相关模型架构直接估算运算量(基于架构的方法)来估算相关训练算力,具体取决于估算对象。

(125) 无论采用何种估算方法,所有运算均应同等计数,与浮点精度无关。

A.2.1 基于硬件的方法

(126) 为使用基于硬件的方法估算训练算力,通用目的人工智能模型或具有系统性风险的通用目的人工智能模型的潜在提供者应首先估算:

  • 使用或预期使用的GPU或其它硬件单元数量N;

  • 使用总时长L,已达成或预期(以秒计);

  • 所用或预期使用的GPU或其它硬件单元的峰值理论性能H(以FLOP/秒计),如果使用不同类型GPU或硬件单元且峰值理论性能不同,则通过加权平均计算(权重由每类硬件单元数量决定);

  • 使用期间平均GPU利用率U,已达成或预期。

(127) 如果所有硬件单元N在整个时长L内均使用,则训练算力C(以FLOP计)可按以下公式计算:

C = N × L × H × U

(128) 如果在不同时段使用不同数量硬件单元,可对使用恒定数量硬件单元的每个时段应用上述公式(前提是总时间等于训练总时长),然后将所得估算值相加得出总训练算力。

(129) 附件A.3给出使用该方法的示例计算。

A.2.2 基于架构的方法

(130) 该方法基于相关模型架构直接估算运算量。

(131) 例如,当今几乎所有通用目的人工智能模型或潜在通用目的人工智能模型均基于通过一系列前向和反向传播训练的神经网络。对于此类模型,训练算力C(以FLOP计)为训练期间完整传播次数(一次完整传播包括一次前向和一次反向传播)与一次完整传播总运算量的乘积,即:

C = 训练期间完整传播次数 × 每次完整传播运算量

(132) 对于某些基于Transformer架构的稠密大型语言模型,训练算力C可近似为:

C ≈ 6 × P × D

其中P为模型参数总数,D为用于训练的训练token总数。

(133) 附件A.3给出使用该方法的示例计算。

A.3 约十亿参数模型的训练算力

(134) 作为通用目的人工智能模型指示性标准一部分的阈值(第2.1节)参考了实践中用于训练约十亿参数模型的估算算力。尽管未指明模型及其提供者名称,但与该估算相关的信息如下。

(135) 所调查模型的估算训练算力如下:

  • 模型A(38亿参数语言模型):7.5 × 10²² FLOP

  • 模型B(10亿参数图像扩散模型):10²³ FLOP

  • 模型C(6亿参数语言模型):1.3 × 10²³ FLOP

  • 模型D(15亿参数语言模型):1.66 × 10²³ FLOP

  • 模型E(17亿参数语言模型):3.7 × 10²³ FLOP

  • 模型F(25亿参数语言模型):1.8 × 10²³ FLOP

  • 模型G(26亿参数语言模型):1.5 × 10²³ FLOP

  • 模型H(10亿参数语言模型):6.5 × 10²³ FLOP

(136) 以上数值通过以下计算获得,这些计算亦用于说明附件A.2所述两种估算方法。

(137) 模型A(基于架构的方法):模型A为具有Transformer解码器架构的38亿参数语言模型,在3.3万亿token上训练。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 3.8 × 10⁹ × 3.3 × 10¹² ≈ 7.5 × 10²² FLOP

(138) 模型B(基于硬件的方法):模型B为图像生成扩散模型。根据模型卡,其在40 GB A100 GPU上训练总时长为20万GPU小时。这意味着GPU数量N与总训练时长L的乘积NL = 200 000 × 3 600秒。假设峰值性能为300 TFLOP/秒,GPU利用率为50%,附件A.2.1近似公式给出:

C = N × L × H × U ≈ 10²³ FLOP

(139) 模型C(基于架构的方法):模型C为具有Transformer解码器架构的6亿参数语言模型,在36万亿token上训练。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 0.6 × 10⁹ × 36 × 10¹² ≈ 1.3 × 10²³ FLOP

(140) 模型D(基于架构的方法):模型D为具有Transformer解码器架构的15.4亿参数语言模型,在18万亿token上训练。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 1.54 × 10⁹ × 18 × 10¹² ≈ 1.66 × 10²³ FLOP

(141) 模型E(基于架构的方法):模型E为具有Transformer解码器架构的17亿参数语言模型,在36万亿token上训练。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 1.7 × 10⁹ × 36 × 10¹² ≈ 3.7 × 10²³ FLOP

(142) 模型F(基于架构的方法):模型F为具有Transformer解码器架构的25亿参数语言模型,在12万亿token上训练。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 2.5 × 10⁹ × 12 × 10¹² ≈ 1.8 × 10²³ FLOP

(143) 模型G(基于架构的方法):模型G为具有Transformer解码器架构的26亿参数语言模型,在610亿token上训练164个epoch,总计约10万亿训练token。附件A.2.2近似公式给出:

C ≈ 6 × P × D = 6 × 2.6 × 10⁹ × 10 × 10¹² ≈ 1.5 × 10²³ FLOP

(144) 模型H(基于硬件的方法):模型H为语言模型。根据模型卡,模型H在80 GB H100 GPU上训练总时长为37万GPU小时。假设峰值性能为989 TFLOP/秒,GPU利用率如前,附件A.2.1近似公式给出:

C = N × L × H × U = 6.5 × 10²³ FLOP

声明:本文来自那一片数据星辰,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。