文 | 公安部第三研究所数据安全技术研发中心副主任 盛小宝;公安部第三研究所数据资产服务中心负责人 姚迁

生成式人工智能作为人工智能技术的最新发展形态,正以前所未有的速度重构数字时代的内容生产与传播范式。然而,在释放巨大创新潜力的同时,其引发的内容安全、算法安全、数据安全等问题也对社会秩序、经济秩序与法律秩序造成了强烈冲击。在此背景下,如何构建有效的生成式人工智能治理体系,已成为法学理论与实践必须回应的时代命题。

一、生成式人工智能的法律定位

在当前法学理论与法律规范体系下,生成式人工智能普遍被排除在法律主体范畴之外,其法律地位的核心争议主要聚焦在客体属性的界定上。综合比较我国、美国及欧盟对软件系统的分类实践,尽管标准各异,却均显现出以应用场景为中心的“场景化分割”策略。然而,生成式人工智能特有的持续性服务模式、动态演化能力与多元交互机制,对以产品责任为代表的传统静态归责体系构成根本性挑战,推动法律实践逐步倾向于以服务责任路径作为其规制基础。这一客体定位的明确,为深入剖析生成式人工智能治理中的深层困境提供了必要的逻辑基础。

(一)生成式人工智能法律主体资格的否定

目前,法学界对生成式人工智能法律主体资格的讨论可归纳为三类主要观点:否定论、部分肯定说、未来肯定说。上述学说虽论证路径各异,但均达成了“现有技术条件下生成式人工智能不具备独立法律人格”的共识。一是从规范要件层面看,根据我国现行《中华人民共和国民法典》(以下简称《民法典》),生成式人工智能既无自由意志亦无法承担独立责任,不属于自然人、法人和非法人组织中的任何一类;二是从立法与监管实践层面看,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)等规范,将安全评估、算法备案和变更、注销备案等责任归于服务提供者,实质上否定了生成式人工智能的独立责任主体地位。既然生成式人工智能无法作为责任主体,其行为后果就应当追溯至对其拥有实质控制力的主体,即开发者、提供者或使用者。

(二)生成式人工智能法律客体资格的厘清与界定

在否定生成式人工智能法律主体资格的理论共识基础上明确其作为法律客体的属性定位,是构建责任规制体系的逻辑起点。生成式人工智能本质上属于软件系统,其技术架构通过模拟输入数据的结构与特征生成合成内容。

美国《侵权法重述(第三版)》以“标准化程度”为标尺,将软件划分为可量产复制的“产品”(如通用操作系统)与定制化部署的“服务”(如企业ERP系统)。欧盟《产品责任指令》(Proposal 2022/0302)则引入“物理损害风险”标准,规定若软件构成实体产品的内在组件(如汽车控制系统),则适用严格责任;若仅提供数据处理功能(如推荐算法),则纳入服务责任范畴。我国现行政策对软件的法律定性存在“软件产品”与“软件服务”的双重路径,前者如《财政部国家税务总局关于软件产品增值税政策的通知》(财税〔2011〕100号)界定为“可独立运行的信息处理程序及相关文档”,后者如《财政部国家税务总局关于全面推开营业税改征增值税试点的通知》(财税〔2016〕36号)定义为“基于合同提供的技术开发、维护等持续性服务”。二者的核心差异在于:软件产品具有明确交付物和静态使用边界,而软件服务则体现动态交互与定制化特征。研究表明,虽然分类标准不同(美国侧重“标准化”、欧盟侧重“物理损害风险”、我国侧重“交付形态”),但均围绕技术应用场景界定法律属性。由此可见,当前法律对人工智能客体的分类呈现“场景化分割”特征——当技术输出可被预先标准化(如医疗诊断)时,倾向于产品责任框架;而当技术交互具有开放性与动态性(如文本生成)时,则转向服务提供者责任模式。生成式人工智能之所以应归入后一类别,不仅因为其技术交互具有开放性与动态性,更在于其技术架构从根本上动摇了产品责任制度赖以运行的核心前提。

首先,持续性服务模式与产品责任的静态框架存在结构性冲突。传统软件产品通过一次性交付形成相对固定的产品形态。相比之下,生成式人工智能可采用软件即服务(SaaS)架构,使用户通过应用程序编程接口(API)持续调用云端服务获取生成内容,每次交互都构成新的服务过程。这种模式消解了产品责任制度赖以存在的两个核心要素——可识别的“产品”实体和明确“投入流通”时点,使得传统产品责任框架失去了规制的逻辑起点。

其次,动态演化特性颠覆了缺陷认定的时点规则。《民法典》预设了产品在特定时点的状态可被固定和评估。然而,生成式人工智能通过持续的技术演进,其功能和性能处于不断变化之中。更为复杂的是,“幻觉”(Hallucination)等现象并非传统意义上的程序缺陷,而是当前技术发展阶段的固有局限。这种动态性使得缺陷认定从静态“时点判断”转变为动态“过程评估”,要求服务提供者承担贯穿系统全生命周期的持续性风险防控义务。

最后,多元交互机制削弱了基于控制力的传统归责逻辑。产品责任的归责基础在于生产者对产品的设计和制造拥有排他性控制。但在生成式人工智能系统中,最终输出是算法架构、训练数据、用户提示词、实时反馈等多重因素复杂交互的结果。服务提供者对系统输出的实际控制力,随着交互链条的延伸和用户介入程度的加深而呈指数级衰减。这种控制力的稀释,使得以“控制—责任”对应关系为基础的传统归责标准在生成式人工智能场景下难以合理适用。

在此背景下,将生成式人工智能纳入服务提供者责任框架而非产品提供者框架,既是对技术现实的理性回应,也是法律体系自我调适的体现。服务责任框架通过过错归责、合理注意标准等制度设计,能够在不同责任主体间实现风险的梯度分配,避免产品严格责任可能引发的“寒蝉效应”。此外,当前生成式人工智能技术仍处于快速迭代期,过早固化责任模式可能阻碍技术路径的探索,而服务责任的弹性空间为技术演进预留了制度适应的可能。

二、人工智能治理面临的深层法理困境

为应对生成式人工智能、深度合成等新技术带来的信息内容安全风险,我国颁布了《人工智能生成合成内容标识办法》(以下简称《标识办法》)及配套强制性国家标准,标志着人工智能内容治理进入新阶段。

《标识办法》通过援引《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)、《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》)和《暂行办法》三部部门规章,试图构建统一的“服务提供者”概念体系。这种立法技术本意在于通过规范整合实现治理协同,但也暴露出现行法律体系在主体界定上的深层次矛盾,在实际操作中引发了概念界定的内在冲突。

具体而言,《深度合成管理规定》第二十三条构建了“服务提供者与技术支持者”的二元主体结构,其中服务提供者是指“提供深度合成服务的组织、个人”,技术支持者则指“为深度合成服务提供技术支持的组织、个人”。这一区分体现了立法者对产业链分工的精准把握——在深度合成领域,提供底层算法模型的主体与面向用户提供具体服务的主体往往相分离,二者在风险控制能力、商业模式、法律地位上存在实质差异。但《算法推荐管理规定》和《暂行办法》却未采纳这一二元框架,而是将所有相关主体统称为“服务提供者”。这种概念使用的不一致性,在《标识办法》的统一援引下产生了解释学上的困境,《标识办法》第二条规定的服务提供者所指向的主体范围,究竟是包含技术支持者的广义层面的服务提供者,还是仅指直接面向用户的狭义层面的服务提供者?

这种概念界定的模糊性并非简单的立法技术问题,而是反映了人工智能治理面临的深层法理困境。传统法律体系预设了主体身份的明确性和稳定性,但生成式人工智能产业链的动态性、融合性特征导致主体边界日益模糊。从技术维度观察,生成式人工智能行为呈现出高度的不可预测性,算法“黑箱”特性进一步模糊了人机边界;从产业维度考察,生成式人工智能呈现出“基础模型—专业模型—服务应用”的分层业态,无法在基于平台治理而形成的“技术支持者—服务提供者—内容生产者”的监管框架中找到适配的法律定位。

三、基于服务属性的生成式人工智能内容安全责任主体的法理证成

《暂行办法》明确了服务提供者承担内容生产者责任,并通过“技术利用+服务输出”双重标准划定主体范围,但未充分回应生成式人工智能技术架构分层化引发的内容安全主体责任分配难题。溯源立法脉络,《暂行办法》中“网络信息内容生产者责任”的提出,源于《网络信息内容生态治理规定》中基于生产者与传播者二元划分的责任体系。然而,生成式人工智能技术范式的兴起,从根本上重塑内容生成的路径依赖和权力分配,进而引发责任认定困难的问题。目前,生成式人工智能责任配置实践多倾向于从广义层面理解服务提供者,这在一定程度上忽视了产业链各环节主体在技术控制、风险识别和损害防范能力方面的梯度差异,可能引发责任错配现象,制约产业的长期健康发展。本文采用基于服务属性的责任配置,明确服务提供者在安全责任配置中的核心地位,能够有效适应生成式人工智能产业链的动态性、融合性,有利于破解主体范围界定的深层法理困境。

(一)生成式人工智能内容安全责任的特殊性分析

不同于传统互联网时代内容生产与平台传播的二元分离格局,生成式人工智能通过“数据训练—模型部署—用户交互—内容输出”的技术路径,形成了高度整合的内容生成体系,这种技术架构的变革带来三重责任认定挑战。

一是内容生成的非预设性。传统内容生产者对其创作内容拥有完全的事前控制,而生成式人工智能生成内容具有概率性和涌现性特征。这种非预设性使得事前的内容审查机制难以完全覆盖潜在风险。

二是责任主体的多元化。生成式人工智能产业链涉及基础模型开发者、中间层技术集成商、应用服务部署者等多元主体,各主体对最终生成内容的贡献度和控制力存在显著差异。这种“分布式贡献、集中式呈现”的特征,使责任归属变得异常复杂。

三是风险传导的延时性。生成式人工智能内容风险往往通过“生成—传播—认知—行动”的链条逐步显现,从技术输出到实际损害之间存在多重中介环节。这种风险呈现的延时性和间接性增加了因果关系认定的难度。

(二)服务提供者承担内容安全主体责任的法理证成

在明确生成式人工智能内容安全责任特殊性的基础上,如何在产业链各主体间进行合理的责任配置成为制度设计的关键。传统观点基于“技术决定论”的思维,主张将责任前溯至掌握核心算法的开发者,忽视了生成式人工智能技术从算法模型到实际应用的复杂转化过程,以及不同主体在风险控制中的实际能力差异。将内容安全主体责任配置于服务提供者,不仅符合技术发展的客观规律,更具有坚实的法理基础。

一是控制力与责任相匹配原则。现代侵权法的核心原理之一是责任承担应与风险控制能力相匹配,这一原则在技术侵权领域尤为重要。开发者虽具备基础模型的初始算法控制权,但在算法不可解释性(Algorithmic Opacity)、生成内容随机性等技术特性影响下,其实际控制力随产业链层级延伸呈现指数级衰减。若要求开发者对终端内容承担生产者责任,则实质上将架空技术中立原则的现代法理基础。生成式人工智能内容生成虽然依赖于底层算法模型,但从算法能力到具体内容输出之间存在多重转化环节,而服务提供者恰恰掌握着这些关键环节的实质控制权。这种控制权并非抽象的技术主导,而是体现为对内容生成全过程的“场景化控制权”。

首先,应用场景的决定权构成风险控制的首要环节。服务提供者在将生成式人工智能技术产品化的过程中,必须作出关键的场景选择,这种选择绝非技术中性的商业决策,而是直接决定了内容安全的风险等级和监管标准。服务提供者通过场景选择实质上界定了风险边界,理应对此承担相应责任。其次,参数配置的调控权赋予服务提供者对内容生成的精细化控制能力。通过温度参数(temperature)、采样策略(sampling strategy)、输出长度限制等技术手段,服务提供者可以在相当程度上控制生成内容的风格、倾向和边界。最后,内容筛选的把关权使服务提供者成为风险防控的最后防线。通过构建多层次的安全机制,服务提供者可以实现对风险内容的全流程管控。相比之下,开发者虽然可以在模型训练阶段植入安全机制,但这些通用性措施无法覆盖所有应用场景的特殊风险,且一旦模型发布后便难以灵活调整。

二是风险收益对等原则。法律责任分配的另一个基本原则是风险与收益的对等性,即从特定活动中获益的主体应当承担相应的风险责任。服务提供者是生成式人工智能商业价值的直接受益者,通过向用户提供定制化服务获取经济回报。根据“谁受益、谁负责”的公平原则,享受技术红利的主体理应承担相应的社会责任。这一原则在比较法上得到广泛认可:欧盟《数字服务法》(Digital Services Act)确立了“按比例责任”原则,要求在线平台根据其规模、影响力和获利能力承担相应的内容监管义务;美国《通信规范法》第二百三十条,明确排除了平台对其“开发或创作”内容的免责。

三是风险防控的效率原则。从法经济学的视角分析,高效的责任规则应当将防控义务分配给能够以最低成本实现最优防控效果的主体。这一效率原则要求综合考量不同主体的信息获取能力、技术实施能力和应急响应能力。在生成式人工智能内容安全治理中,服务提供者在各个维度都展现出显著的效率优势。

首先,信息优势决定了风险识别的精准性。服务提供者处于产业链的中枢位置,向上对接技术供给,向下连接用户需求,掌握着最为全面的风险信息。通过多源信息的汇聚分析,服务提供者能够构建精准的风险画像,实现差异化风险管理。而开发者远离应用前端,既无法获取用户的真实使用场景,也难以评估具体的风险暴露程度。其次,技术适配优势保障了防控措施的有效性。内容安全风险具有高度的场景依赖性,服务提供者可以根据不同场景的特殊需求,灵活配置技术方案。这种“因地制宜”的防控策略,远比目前的通用方案更加有效。最后,响应速度优势确保了风险处置的及时性。网络内容风险往往具有突发性和传播性特征,快速响应能力直接决定了损害控制的效果。服务提供者可以在风险暴发的第一时间进行干预。相比之下,基础模型的修改需要经历数据收集、重新训练、测试验证等漫长流程,往往难以及时缓释风险。

基于上述责任特殊性与法理依据,生成式人工智能内容安全责任配置需优先明确服务提供者的核心义务,具体包括场景风险预判义务、实时内容管控义务、用户行为引导义务,为后续全产业链责任体系构建奠定基础。

四、基于风险分级与链式协同的生成式人工智能内容安全责任配置体系

基于上述系统性风险及责任配置正当性分析,本文提出以基于风险的差异化治理为框架,依托覆盖全产业链的链式协同,再辅以配套机制保障执行,构建科学、高效的生成式人工智能内容安全责任配置体系。

(一)基于风险分级的差异化治理框架

国际前沿实践表明,人工智能治理的趋势是采取基于风险的方法(risk-based approach),强调构建人工智能分级分类治理体系。这一方法的核心理念在于:根据人工智能应用的风险等级、影响范围和损害可能性,设计差异化的监管强度和责任分配规则,实现监管资源的优化配置和治理效能的最大化。

对此,欧盟《人工智能法》指出,应遵循基于风险的方法,制定一套成比例且有效的规则,根据人工智能可能产生的风险等级来调整规则。美国则采取了更为灵活的部门化风险管理路径,强调根据不同的应用场景和风险程度来制定相应的监管规则。

参考国际经验,我国应针对不同风险等级的生成式人工智能应用,制定差异化的责任分配规则。例如,一种可能的策略是整理一份详尽的“高风险”人工智能应用清单,将核电站中的人工智能控制系统、航空飞行中的人工智能导航系统等明确列为“高风险”应用。对于这些涉及公共安全的极高风险领域,开发者在明知或应知风险的情况下应承担补充责任;若需追究其与部署者共同侵权的连带责任,则必须进行分类讨论。同时,在开发者遵守相关法律法规及安全标准的基础上,应当在具体案例基础上考虑提供责任豁免。

(二)探索建立链式责任分配和风险共担机制

为实现责任配置的精准化和风险分担的合理化,需要构建覆盖全产业链的链式责任体系,明确各主体在不同环节的具体义务,并通过市场化机制实现风险的有效分散。

第一层级,开发者作为技术源头,应承担与其技术控制能力相匹配的基础责任。具体包括:算法安全责任,确保基础模型符合最低安全标准,持续提升模型鲁棒性;数据合规责任,对训练数据进行合法性审查,剔除侵权内容和有害信息;透明度责任,向下游主体明确告知模型能力边界、已知缺陷和潜在风险;持续支持责任,建立安全漏洞报告机制,及时发布安全补丁和更新指南。对于违反《中华人民共和国网络安全法》《暂行办法》等法律法规明确禁止的技术研发行为(如研发用于生成违法有害信息的人工智能模型),开发者应承担严格责任;对于其他情形(如因技术漏洞导致的非故意风险),则适用过错责任原则。

第二层级,部署者作为应用主体,承担运营过程中的主体责任。基于其对应用场景的实质控制权,部署者应履行以下义务:合规运营义务,确保人工智能系统的部署和使用符合所有适用的法律法规;安全保障义务,针对具体应用场景进行风险识别和影响评估,实施必要的技术和管理措施;用户保护义务,建立完善的用户权益保护机制。为增强风险防控能力,应当建立强制责任保险制度,要求高风险应用的部署者购买相应的责任保险。

第三层级,用户作为终端使用者,应当对其主动行为承担相应责任。建立用户行为负面清单制度,明确禁止利用生成式人工智能从事违法犯罪活动、传播有害信息、侵犯他人权益等行为。当用户故意规避安全措施、诱导模型生成违法内容时,应当对由此产生的损害承担全部法律责任。

(三)配套保障机制的制度设计

为确保上述责任配置体系的有效运行,需要构建三项配套保障机制。首先,建立行业自律与政府监管协同治理体系。行业自律规范通过声誉机制和准入门槛实现“软法”治理;监管部门从事后处罚转向事前引导,通过合规指引、监管沙盒等方式提供确定性预期。其次,构建多元化纠纷解决机制。建议建立“生成式人工智能纠纷调解中心”,通过调解、仲裁等替代性纠纷解决方式高效解决纠纷。最后,完善风险分担的市场机制。除强制责任保险外,鼓励发展生成式人工智能专项保险产品,通过市场化手段实现风险的分散和转移。

五、结 语

本文通过对生成式人工智能内容安全责任主体的系统研究,得出以下核心结论:第一,责任配置应当遵循“谁控制、谁负责”的基本原则,将内容安全主体责任赋予对应用场景具有实质控制权的服务提供者;第二,由现行单一责任分配模式向基于风险分级的差异化治理模式转型;第三,构建覆盖全产业链的链式责任体系,明确各主体的责任边界和协作机制。

只有构建起权责明晰、运行高效、适应性强的责任体系,才能真正实现人工智能技术的“向善”发展,更好地服务于人类社会的进步。在人工智能时代的浪潮中,我国不仅要成为技术创新的引领者,更要成为制度创新的探索者,为全球人工智能治理贡献中国智慧。【本文由2024LL36项目资助】

(本文刊登于《中国信息安全》杂志2026年第3期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。