【专家组】

时建中 中国政法大学教授

张 彤 中国政法大学教授

金 晶 中国政法大学教授

洪延青 北京理工大学教授

王天凡 北京航空航天大学副教授

高郦梅 中国政法大学讲师

姜冯安 中国政法大学讲师

【编者按】

2026年的春天,中国人工智能立法进入了实质性的加速期。在刚刚闭幕的全国两会上,“打造智能经济新形态”被正式写入政府工作报告,标志着AI已上升为国家战略核心;3月12日,司法部部长贺荣明确表示,将加快研究人工智能等重点领域立法。一系列信号表明,面对技术迭代的指数级加速与安全风险的系统性暴露,中国构建一部兼具前瞻性与操作性的AI基本法,已不再是“选择题”,而是关乎未来竞争力的“必答题”。

然而,系统性立法绝非易事。作为2024年8月1日生效并分阶段实施的全球首部全面规制人工智能的综合性法案,欧盟《人工智能法》(AI Act)为我们提供了一个极具价值的观察样本。回顾其立法历程,从最初严苛的监管预设,到随后在地缘政治博弈、全球产业竞争压力下的逐步调适与松绑,欧盟在“安全”与“发展”、“确定性”与“灵活性”之间的艰难平衡,折射出人工智能立法的普遍困境与深层逻辑。

他山之石,可以攻玉。我们研究欧盟人工智能立法,并非为了简单复刻其条文,而是透过其制度演变的轨迹,提炼出人工智能立法中那些跨越法域的共同核心命题。基于此,中国政法大学专家组经过深入研讨,梳理出当前“人工智能立法的十大核心议题”。这十项议题,既是欧盟人工智能立法中的规制之重,更是中国即将展开的立法征程中必须直面的根本挑战。我们试图通过这十大维度的反思,为中国人工智能法治体系的构建提供比较参照与学理支撑。

在欧盟开展《人工智能法》的条例立法工作以及条例落地实施过程中,各界围绕诸多议题展开了充分讨论。回顾欧盟各机构参与立法的相关咨询和意见文件,结合目前欧盟在数字监管上的最新发展,欧盟人工智能的政策起草与立法规制核心主要聚焦于下列十项关键议题:其中议题一至议题五侧重于人工智能法的调整对象和适用范围,议题六至议题九聚焦于主体义务、责任以及监管治理,议题十则关注具体实施过程中的严格监管与创新活力再平衡问题。

1. 立法目标优序之争:“权利保护”与“创新”如何平衡?

人工智能立法并非单纯围绕技术细节展开,而是首先体现为对立法目标的清晰界定与价值排序,如何统筹发展与安全,如何平衡创新与监管,如何实现个体与国家的共赢,是立法需要对多元价值进行选择和排序的前提。

欧盟《人工智能法(草案)》鉴于条款第1条第1句明确强调,立法目的在于“促进内部市场的运作”以及“建立统一法律框架”。但随着立法的推进,这一市场协调导向的目标不断被基本权利保护、产业的创新促进等价值目标修正。例如,欧盟区域委员会(CoR)建议在上述鉴于条款中增加“保护公民基本权利”的内容;欧洲议会认为应当增加“促进以人为本且值得信赖的人工智能的应用”这一内容。例如,《人工智能法》第5条明确禁止操纵性AI、社会评分、实时远程生物识别等直接威胁基本权利的应用;而后续《关于简化数字立法框架的条例(草案)》(Digital Omnibus)更是提议扩大《人工智能法》本来规定的监管沙盒适用范围,并延长高风险系统合规过渡期,这也直接回应产业对灵活性的需求。这表明,欧盟在立法过程中逐渐意识到,唯有将权利保护与创新促进嵌入规则,其市场统一的目标才具有可持续的合法性基础。

2. AI定义困境:实现法律确定性抑或为技术演进留白?

人工智能立法需以明确的调整对象为靶点,如何在法律上定义“人工智能系统”,如何让人工智能的法律界定具备充分的延展性,可以覆盖从通用型人工智能模型到智能体、代理型人工智能系统等技术的发展,这是立法过程中无法回避的首要问题。

从欧盟的立法过程来看,核心争议一方面在于如何保证定义足够宽,从而能够覆盖新技术的发展迭代;另一方面在于如何防止定义过宽,从而防止把普通软件、统计工具等也纳入到人工智能的监管之中。例如,欧盟理事会曾建议将人工智能系统的定义缩小至“通过机器学习方法以及基于逻辑和知识的方法开发的系统”;欧洲中央银行认为草案对人工智能系统的界定过于宽泛,不利于应对科技高速发展的现实。当前业界和学界对欧盟《人工智能法》评价呈现两极——为创新提供了清晰跑道,抑或批评其模糊性和带来了成本压力——恰恰反映上述平衡之难。

3. 风险分级规制:方法是否适用?

欧盟《人工智能法》提出了“基于风险的进路”的规制理念,以风险为标准对不同的人工智能进行了划分。但其背后的问题在于,沿着“基于风险的进路”构建的体系,是否真正地依据风险展开并比例性地构建规则,还是说其仍旧是按照场景、产品类别等旧有标准形成规则分层。例如,欧盟理事会认为,在高风险的分类之上应当增加一个横向维度,以确保不太可能造成严重侵害基本权利或其他风险的人工智能系统不会被纳入高风险之中;欧洲数据保护委员会(EDPB)以及欧洲数据保护监督局(EDPS)认为,“基于风险的进路”与《通用数据保护条例》(GDPR)“基于权利保护”的方法不适配,需要在对齐的基础上作进一步澄清。

4. AI禁区划定:是否需要以及红线何在?

就人工智能应用被禁止的行为范围而言,由于其涉及到远程生物识别、情绪识别、刑事预防等议题,在立法过程中的争议较为尖锐。例如,欧盟理事会建议,将针对公共领域侵犯基本权利行为(例如社会评分)的禁令扩展至私人行为(例如深度伪造);欧洲议会认为,应当将具有侵入性、歧视性用途的人工智能应用也纳入禁止范围之中。这背后是安全与自由、监管与创新之间的根本权衡。

5. 移动的靶心:立法遭遇技术“奇点”,规则如何追赶技术的发展?

人工智能的技术演进从未停歇,当前,人工智能正加速从输出内容的大模型向自主执行任务的智能体(AI Agent)进化,智能体带来的自主性和复杂交互,使得传统监管面临更大挑战。立法不应过度绑定当下的具体技术形态,而应确保法律框架具有足够的弹性,能包容未来的未知技术形态,以从容应对下一代人工智能技术的颠覆性演进。

欧盟《人工智能法》的制定过程中,就曾因生成式AI的爆发,将规则重心从高风险系统紧急扩展至通用人工智能模型。例如,欧盟理事会针对通用目的人工智能模型及其被整合到高风险人工智能系统时的情形新增了相应的法律要求;欧洲议会认为,应当增加通用目的人工智能模型供应商的义务,需表明内容是由人工智能生成、区分深度伪造图像与真实图像等透明度要求。

6. 透明的代价:破解算法“黑箱”,如何兼顾商业秘密保护?

在人工智能立法中,透明度要求并非一刀切,而是呈现出递进的三层监管结构:第一层是面向普通用户的透明度,重点在于知情权与救济,确保用户知道在使用AI,并理解相关风险和救济渠道;第二层是面向监管者和下游主体的透明度,重点在于留痕和追溯,要求建立完善的技术文档、日志记录机制;第三层则是立法最核心的难点问题,即透明度要求与源代码、模型权重等商业秘密保护之间的关系与冲突问题。例如,欧洲议会曾建议,在版权数据训练问题上仅公开相应的详细摘要而非原始数据,以期明确与版权保护之间的平衡机制。为此欧盟《人工智能法》确立了“分层披露”和“目的限定”原则。

7. 归责定位:穿透复杂价值链,多主体的AI责任如何分配?

人工智能的合规监管不再是开发者的独角戏,而是涵盖了从模型供应商、应用开发商、进口商、分销商及最终部署者的全产业链博弈。在生成式人工智能时代,开源生态使得上下游分工极其细化,不同主体在不同场景下的责任边界变得模糊不清。因此,构建合理、公平、透明的责任分配制度,是立法的核心关切。

在这一问题上,欧盟《人工智能法》的演进提供了重要参考:欧洲议会曾建议明确人工智能系统开发与使用复杂价值链中各个参与者的责任分配与角色。未来,如何确保责任能够随着技术开发、二次部署与实际应用在产业链上下游合理流转与穿透,是责任分配制度需要解决的关键议题。这一讨论,关乎哪个主体将承担主要合规成本与诉讼风险。

8. 监管权的博弈:分散执行与集中统筹的监管架构重塑?

面对有极强外溢效应的人工智能技术,监管是应依赖分散执行的监管结构,还是要建立集中统一的统筹机制,这是监管权结构设计的核心问题。

在立法进程中,欧盟关于《人工智能法(草案)》展开的讨论不仅聚焦于具体义务与调整对象,更触及底层监管架构的重塑。核心博弈在于,监管是应依赖成员国主管机关来分散执行,还是要在欧盟层面构建更强大的集中统筹机构?欧洲议会曾力推建立多方参与的组织架构,建议对人工智能办公室(AI Office)、人工智能委员会(AI Board)、独立科学专家小组及咨询论坛等机制作出系统补充,以实现协同;2025年欧盟发布的《关于简化数字立法框架的条例(草案)》(Digital Omnibus)进一步谋求扩大人工智能办公室的监督权,其实质是在寻找成员国场景化执法与欧盟统一监管之间的动态平衡。欧盟《人工智能法》设计了一个“欧盟定框架、成员国抓执行”分权与集权相结合的混合模式,其本质是在执法灵活性与追求统一市场效率之间寻求平衡。

9. 新旧法衔接挑战:人工智能法如何统合个人信息保护?

人工智能模型的演进高度依赖于高质量、大规模的数据流动,由此导致静态的数据保护规则与动态的算法创新之间产生剧烈张力。人工智能立法如何与既有的规则制度实现体系协调(个人信息保护、商业秘密保护、反不正当竞争),是体系协调的核心议题。

除了专门的人工智能治理,欧盟已构建起涵盖个人数据保护、非个人数据自由流动、数据治理、数字服务及数字市场等主题的庞大数字规范体系。欧盟《人工智能法》如何与现行欧盟法体系实现制度协调与跨域“互操作”,构成立法后期的重大关切。就此,欧盟数据保护委员会(EDPB)及欧洲数据保护监督局(EDPS)曾尖锐指出,《人工智能法》在与GDPR的衔接中存在制度冲突与监管盲区。这其中的矛盾体现在立法时序与技术演进的脱节,而更深层的问题在于监管哲学和监管工具难以无缝衔接。

10. 从文本到现实:如何弥合规则与实践的裂缝?

法律的生命力在于实施。在欧盟人工智能立法的后期及当前的落地执行阶段,核心焦点已经从文本制定转向如何让规则在成员国、企业及全球创新生态中平稳着陆,具体涉及人工智能办公室、人工智能委员会、监管沙盒、不同义务与措施的生效时间表等方面的讨论。为弥合规则滞后于技术实践的裂缝,欧洲议会在早期即着手优化监管机构权限;欧盟经济与社会委员会(EESC)更是建议引入常态化的社会各界“强制性意见交流”。此外,如何如何平衡严格监管与创新活力成为重中之重。2025年欧盟《关于简化数字立法框架的条例(草案)》(Digital Omnibus)试图通过扩大中小企业义务简化的范围、赋予人工智能办公室更灵活的监督权等方式以促进《人工智能法》的有效实施。

声明:本文来自欧盟法研究,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。