@ 目录

一、 AIGC内容监管与治理

二、 训练数据的使用制度:作品之外

三、 AI内容产权与开源促进

四、 模型提供者侵权:责任分层

五、 AI安全风险:产品质量安全

六、 具身智能与AI agent的“准主体”属性问题

七、 科技向善:机器伦理和数字弱势群体保护

八、 即时正义:AI法律普惠与普适

九、 AI的国际协作与霸权反制

十、 行业自律与多方共治

十一、 小结与倡议

@ 一. AIGC内容监管与治理

很显然,今后网络内容中的绝大部分都将是AI生成,我们面临的内容生态从以往的UGC、PGC过渡到AIGC,相应的基于AI的深度伪造、欺诈、虚假信息等等问题已经开始暴露。

跟进一步的,还包括意识形态相关的内容、AI造谣、AI水军等,如何让网络空间仍然在AI时代保持晴朗,如何对AIGC负面信息背后的主体进行追责,相关的AI技术提供者、内容平台提供者等应当尽到哪些注意义务,是沿用目前的标识制度,还是应该进一步引进技术对抗检测来识别和制止AI负面信息,应该由《人工智能法》给出明确的方向

@ 二. 训练数据的使用制度:作品之外

AI离不开数据训练,尽管基础模型理论上已经把全网公开数据差不多学习完了,但仍然还有大量“海平面”以下的垂直领域的数据,以及非公开数据,当然还包括不断被人类最新发布到网络上的公开数据。

所以,如何对数据的训练使用给出较为清晰的边界,尤其是在给到模型训练者足够大的数据使用空间的前提下,还能够不过分透支数据贡献者的权益,最终达成“数据的可持续生产和使用”这一良性发展目标,是我国《人工智能法》亟需回应的问题。

提及这个问题,多数人首先想到的是《著作权法》上的“合理使用”制度如何在AI训练的场景下有所突破,作品意义上的“合理使用”对模型训练当然也很重要,但这个部分的立法或者说法律修订工作恐怕还是要交还给《著作权法》来解决,不宜由《人工智能法》越俎代庖,后者真正应该关注的是作品之外的训练数据,包括交易数据、公共数据、个人信息数据等等。这些数据中也存在大量的已有权利交织的情况,需要划分出合理的使用与保护边界。

当然,对于作品类的数据,有观点认为,AI训练过程中使用这些内容并不是从作品层面的使用,而是提取作品中的向量数据,不应该认为是著作权意义以上的使用(复制等)行为。这个理解主要是从技术角度出发,但比较片面,笔者认为AI对于任何类型数据的学习都不同于人类,人类学习者在一开始接触数据的时候,就能够分辨出数据的类型,而机器算法无所谓数据类型,它们按照统一的规则进行学习,所以我们要从学习之后的结果来考察学习行为的法律属性,如果学习了一个作品之后可以使得AI掌握了这种作品的表达能力进而可以复现或者以其它方式进行作品意义上的生成,就应该认为这是一种著作权意义上的使用,从而考虑通过“合理使用”等制度进行规制。

所以人工智能法需要关切的更应该是超出著作权法之外的数据使用问题,如何兼顾到这部分数据已有权利人的合法权益,使得数据可以可持续的使用,特别是针对非公开数据以及公共数据,这两类数据都具有极高的商业价值,但权利人和权利类型都有不同的特点,需要使用的规则也不一样。

@ 三. AI内容产权与开源促进

AIGC生成内容的可版权性对传统的版权法形成了巨大挑战,学界对此问题仍存在争议,而且这个问题对产业界的后续发展也影响颇深,关系到AI创作者的有效激励,进而关系到AI工具的盈利和模型可持续训练等一系列问题,但这个问题似乎跟版权训练数据的合理使用一样应该交给《著作权法》来解决,《人工智能法》可以做一点方向性和开放式的规定以便回应产业关切,例如“对于AI生成内容的著作权保护,法律有规定的依照法律规定”,这样一来在表明了态度和方向的同时,也没有过分侵入《著作权法》的领地。

除此以外,考虑到开源在AI产业界占据的重要地位以及对未来我国AI产业发展的推动性作用,《人工智能法》可以对AI开源问题给予更多回应,例如对开源协议(规则)的效力确认,开源模型开发者的责任豁免、开源资源使用者的注意义务等现阶段的法律模糊地带给予明确,让开源世界有法可依

@ 四. 模型提供者侵权:责任分层

我们习惯了一谈到网络服务提供者的侵权责任就引用避风港,但还是要先搞清楚避风港的适用场景通常是针对第三方网络平台服务提供者的,因为其并不直接生产和发布内容而由平台用户来完成的,平台在买方用户和卖方用户之间搭建了一个“双边市场”。

大模型为代表的AI出现之后,就要区分AI服务提供者的具体类型,不是所有AI都是平台,在笔者代理的两个涉奥特曼形象的AI侵权责任案中,其中一个AI模型可以直接生成奥特曼相关的内容,另一个则是由用户训练出定向lora模型,然后提供给其他用户使用进而生成奥特曼相关内容,显然这两个被告所提供的AI服务不一样,前者没有搭建双边市场而是直接提供内容,所以应该是直接侵权责任人,后者给用户提供了定向模型训练和内容发布平台的服务,其更接近传统意义上的平台,应当承担共同侵权或者帮助侵权的责任。

因此,在讨论模型提供者面对侵权主张的责任豁免条件时,我们应当结合AI的产业实践,跳出避风港的窠臼,对平台进行分层(基础模型、垂直模型、应用模型),根据其技术特征、商业模式和服务类型规定不同的注意义务和免责条件

@ 五. AI安全风险:产品质量安全

AI安全是一个宽泛的概念,理论上可以包括国家安全、网络安全,数据安全、产品质量安全等等,很多问题在《网络安全法》、《数据安全法》中是有规定的,或者可以通过修订已有法律进行调整,《人工智能法》 是否还有必要像欧盟一样作出非常细致的规定,这一点国内学界的主流意见是“不发展才是最大的不安全”,因此大概率我们会走一条不一样的路。

但在AI安全这个主题下,从产业角度应该更加关注的恐怕是AI产品安全责任问题,毕竟AI作为一个具有涌现能力的复杂系统,如何确保用户使用AI产品有起码的安全性保障,如果出现了安全风险如何分配相关责任,这个问题与传统的产品责任相比有很明显的不同和难点,值得认真讨论。

@ 六. 具身智能与AI agent的“准主体”属性问题

这个问题与前面的产品安全问题有一定交叉但不完全重合,这里的具身智能指的是即将到来的人形机器人(以及类似的具有逼真仿生效果且与真人长期互动的AI),AI代理则是指各类AI agent软硬件应用,这两种人工智能的特点在于具有极强的“准主体”属性,并且自主决策、行动能力更强,很大程度上可以替代人类参与社会活动。

对于这类AI如何进行规制,特别是其与人类主体之间的法律关系,其决策及行动效力(对外完成交易、工作等)、责任承担以及对这类AI采取不利行动的后果等(例如对伴侣机器人的诋毁、物理伤害)。

人类不可避免的生活在充满了具身智能和AI代理的世界,它们不再是一般意义上的工具或产品,法律应该在更有前瞻性的维度上给出保护性、推动性规则

@ 七. 科技向善:机器伦理和数字弱势群体保护

AI的深度思考能力已经随着chatgpt-o1和deepseek等模型的出现直观的展示在世人面前了,这意味着接下来人们将依赖AI作出复杂决策,AI不仅仅提供内容生成,还提供思考和判断能力,并且随着AI与智能手机和各种互联网产品的绑定,其对人类生活的渗透将变得无处不在。

届时,我们的衣食住行、工作就业、理财消费、情感关系、教育养老等等各种复杂决策都在很大程度上依赖AI的判断,如何确保AI在这些方面给人正确的辅助和引导,如何避免出现算法的歧视(越来越多的企业用AI做面试官招聘新员工)、机器对人的控制过度(例如在学校用AI监控学生情绪和学习过程)和滥用个人信息等等,这些都牵扯到了备受关注的机器伦理问题。

与此同时,对于一些数字弱势群体(老人、残疾人、贫困人口等)如何实现AI平权,使之均等的获得AI资源和相关机会,这个关系到AI技术是否被用于增进全社会的福祉而非少数人,产业界一直奉行着“科技向善”的原则,怎样把这些抽象的原则更加具体的落实到立法中,让AI“人为”,是绕不开的关键问题。

@ 八. 即时正义:AI法律普惠与普适

AI凭借计算机已有的逻辑处理能力(建立在《布尔代数》基础上)和大数据训练,在法律领域具有了足以匹敌人类的能力,且在处理效率和准确度上甚至具备显著优势,这一点使得长期以来法律供给侧相对需求端严重不足的问题可以得到前所未有的突破。

因此,我国的《人工智能法》应当旗帜鲜明的推动AI在法律各个领域中的应用进程,提高自动化纠纷解决水平,允许当事人使用AI处理法律纠纷,尤其是通过立法扫清现阶段在法律领域中使用新技术的法律和政策性障碍,通过快速部署解决司法资源短缺、裁判质量参差不齐、法律服务水平滞后、案件侦破速度迟缓等诸多长期困扰公众的问题,让公平正义的法治环境实时的围绕在每一个公民身边,同时设置科学的监督机制,让AI的法律应用不脱离正轨,此举如能实现,必将成为国际范围内的立法亮点,并且让我们的法治环境达到国际领先水平。

@ 九. AI的国际协作与霸权反制

AI是席卷全球的技术革命,人类作为一个命运共同体应当一起携手迎接它的到来,一起享受技术红利。我国作为AI产业大国,应当通过立法积极推动中国AI技术在全球范围内的使用,发挥我国AI技术的主导和引领作用,推动AI技术出海、大胆尝试引进外部先进技术和境外训练数据资源,鼓励从业者参与制定国际标准,参与国际层面的AI风险防控、伦理审查等。

与此同时,通过制定针对性的规则反对他国的AI霸权,对于别国的垄断性、限制性、排除竞争等恶意行为给出反制措施,必要时可以赋予行政机构专门的执法权限

@ 十. 行业自律与多方共治

大模型为代表的新一代AI技术至今不过短短两三年的发展历程,产业届仍处在萌芽和快速生长阶段,产业终极形态还远未到来,所以在今后的长期实践中必然会出现种种新问题,法律的滞后性进一步显现,因此应当更加强调AI产业的行业自律和多方共治让市场上积极的力量显现出来,并且在法律层面给予鼓励和确认,允许和鼓励行业从业者在法律框架下制定更加细致、前沿的自律文件,允许和鼓励多方力量参与到AI治理过程中,特别是引入AI或其他相关技术实现对其自身的治理,以弥补人的欠缺。

@ 小结与倡议

以上十个点仅作为笔者个人的初步想法,实际上随着AI进程不断向前,会有更多更新的问题涌现,在我国人工智能法已经被列入全国人大常委会立法规划的背景下,法律实务界和AI产业界应该积极作出响应,对一线实践中最关切的问题进行讨论和梳理,为下一步的立法打下坚实基础,这是时代赋予我们的重大使命。

笔者会联合更多有志之士对这个话题开展更多工作,对这个话题感兴趣的朋友可以联系作者一同探讨。(张延来律师)

声明:本文来自网络法实务圈,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。