文 | 阿里研究院人工智能治理中心主任、电子科技大学公共管理学院协议副教授 傅宏宇;阿里研究院人工智能治理中心专家 彭靖芷
自DeepSeek系列模型发布以来,我国的开源模型能力大幅提高,逐步赶上以OpenAI旗下的GPT-o1为代表的闭源模型。以开源模型为核心的开源人工智能(Open Source AI)开放了模型权重、训练数据、工程方法和微调策略,降低了人工智能大模型后续部署和应用的门槛,推动了人工智能技术的快速扩散。围绕开源人工智能形成的模型分发、组件开发、应用研发和服务提供的有机生态,使人工智能技术更加普惠、利用更加便捷,推动开源成为人工智能高质量发展的基本要求。然而,开源人工智能在研发和应用过程中也伴随风险。开源本身的不可逆性,以及人工智能技术扩散的动态性,增加了开源人工智能被滥用或误用的可能性。因此,必须根据开源人工智能的风险特点和技术扩散特征进行针对性的治理,通过能力建设提高开源人工智能的安全性,并通过负责任的应用生态建设提高开源人工智能的可控性。开源人工智能治理需要在包容创新和管控风险之间取得平衡。本文借鉴欧盟、美国和国际组织对开源人工智能的治理经验,为我国开源人工智能的有序发展、利用开源人工智能推动前沿科技创新和构建负责任的开源人工智能生态体系提供参考。
一、开源人工智能治理的国际经验
开源人工智能在降低技术开发和使用门槛、促进资源和能力的普惠、推动知识传播和积累,以及为科学基础研究和产业化应用提供多样性等方面,展现出不可替代的价值。同时,各利益相关方也担心开源人工智能是否会导致安全风险的更快扩散,带来负面社会效果,并对应采取何种治理方案进行有效防控。
整体看,排除风险评价标准差异化等因素,开源人工智能并未带来比闭源人工智能或其他现有技术更多的风险。考虑到开源能降低使用门槛,使人工智能技术更加普及,开源人工智能生态的滥用误用情况可能会增多。由于风险的不可逆和生态的复杂性,针对闭源人工智能的事前源头管控模式并不适用于开源人工智能的风险管理。一方面,人工智能在开源之后难以完全回溯为封闭形态,无法通过下架或召回等传统手段进行技术管理,即便从源头上删除也无法彻底阻断其传播和使用。此外,人工智能一经开源发布即保持基础能力相对固定,除非开源方迭代另一新版本模型,原版本难以通过开源方的直接修改或社区开发者的参与进行及时修复和优化。另一方面,开源人工智能的安全风险并非模型开发和应用的初衷,安全危害的发生涉及复杂的上下游生态链。下游各类跨领域、跨场景甚至跨国界的应用主体间相互关联、相互依存。模型只是生态系统中的一环,而非唯一的风险源。
基于开源人工智能的价值发挥与风险特征,欧盟、美国和国际组织都尝试人工智能开源治理机制的变革,且在路径选择上各有侧重。欧盟以“事前风险全域防控+开源豁免除外”实现利益平衡;美国则强调基于“增量风险”原则的责任分层和多方共治;国际组织则尝试从定义层面划定开源边界,维护自由宗旨。
(一)欧盟的开源人工智能治理机制
欧盟通过综合性法案,首先确立了对人工智能全域风险的事前管控,并设置例外豁免机制,实现对开源人工智能的监管放松。
欧盟《人工智能法案》以事前风险防御为核心,旨在通过统一的综合性立法,识别并囊括几乎所有人工智能可能存在的额外风险或单独风险。在法案的制定过程中,欧洲议会于2023年6月14日采纳了欧盟委员会关于人工智能开源的修订意见,考虑到开源模式在软件时代体现的经济价值和有效促进技术创新的价值,应专门针对开源人工智能进行单独定义,并设置“开源豁免+豁免除外”规则机制。该机制要求将开源人工智能纳入法律规制之后,再进行利益平衡考量。根据最终生效法案,相关条款(如“鉴于条款”第89、102、103、104条)规定,对符合定义要求的开源人工智能模型,如果其参数、架构信息和使用信息公开透明,则可免除部分透明度和问责相关的义务要求。欧盟《人工智能法案》通过开源协议定义前述符合要求的开源人工智能。具体而言,当使用的开源许可允许用户运行、复制、分发、研究、修改和改进软件及模型,并要求尊重原始模型提供者的署名权、遵守相同或类似的分发条款时,该许可应被视为符合要求的开源许可,只有此类开源许可的开源人工智能才能享受豁免。
根据欧盟《人工智能法案》第2、25、53条等相关条款的规定,在为人工智能开源提供责任免除的同时,也设置了“豁免除外”,具体包括以下几个方面:一是版权合规除外,即规定免除的义务中涉及文本和数据挖掘的版权合规性义务不能因开源被豁免;二是透明度除外,模型以开源方式发布不能直接豁免透明度的基本义务,仍需制定和提供关于模型训练所使用内容的概要,帮助外界了解模型开发所依赖的数据概况;三是系统性风险和被禁止的人工智能除外,即如果开源的通用人工智能模型被认定达到高影响力阈值,存在系统性风险,则仍须遵守法案相关义务;对法案第5条规定的“禁止的人工智能实践”(如利用人工智能进行人类潜意识操纵与欺骗、利用或针对特定弱势群体、对个人或群体进行社会评分系统、犯罪预测、无目标面部数据抓取、情绪推断等),开源豁免不适用;四是商业利益除外,即如果人工智能模型及其他组件并非完全免费提供,而是存在任何形式的商业化利益(如通过技术支援、附加服务收费,或利用个人数据,且目的不仅限于提升软件的安全性、兼容性或互操作性),这些模型和组件就不享有开源人工智能的特殊豁免政策。
(二)美国的开源人工智能治理机制
2024年2月,美国商务部国家电信和信息管理局(NTIA)正式启动了一项针对开源人工智能治理的公共咨询流程,并于7月底发布正式报告。根据报告,美国强调基于“增量风险”原则理性认知人工智能开源的风险,并根据利益平衡机制审慎制定监管措施。美国主张目前不需要针对开源人工智能进行额外的单独治理,而是应构建一个符合技术发展特征的敏捷治理框架,通过协同共治和治理能力的提升,实现对风险的长效管理。
现有的“提供者-使用者”二分机制过度强调模型研发者的责任,且无法涵盖开源人工智能生态中上下游各方的参与者。因此,现有的责任机制不符合开源人工智能的生态特征,无法基于各类参与者的角色合理地界定责任,导致作为底层技术支持方的云服务提供商和模型研发者实际上承担了过多的兜底责任。对此,美国国家标准与技术研究院(NIST)于2025年1月发布《双用途基础模型滥用风险管理指南》(NIST AI 800-1),提出了一套适应“云+开源模型”生态的责任分层治理框架。该框架明确指出,开源模型的风险不应仅由模型研发方承担,模型应用生态的各类直接参与方(包括云计算提供方、模型托管平台、下游模型使用者和应用开发者、分发平台、三方评测审计方、用户等)以及间接参与方(如学术机构、外部研究者和政府机构等)都需要根据自身角色承担相应责任。多方合作和协同治理能够有效管控模型应用风险,并通过负责任的生态机制建设管控开源人工智能的滥用误用风险。
在州立法方面,美国曾进行过较严格的开源人工智能监管立法尝试。例如,加利福尼亚州曾于2024年提出《安全与可靠前沿人工智能创新法案》(SB1047),对模型开发者提出了系统性风险防范措施和严格的责任分配方案。一方面,法案设立了连带责任机制,要求模型开发者对下游滥用行为(如非法应用或微调)承担相应的法律责任,或面临民事处罚甚至模型被强制关闭的风险;另一方面,法案要求所有符合要求的模型须进行安全测试、提交年度报告,并接受第三方审计。这些规定同样适用于开源模型。然而,该法案也被批评缺乏对技术和能力的实证科学分析,并过度夸大了人工智能领域的风险,可能以牺牲技术创新为代价,损害公共利益。最终,该法案在通过地方立法机构后被该州州长否决,未能正式生效。
(三)国际组织的开源人工智能治理机制
除了各国开展的开源人工智能治理外,长期致力于开源治理的专门机构也提出了相关治理方案。
开放源代码促进会(OSI)尝试对开源人工智能进行定义。定义开源人工智能面临较大困难:一方面,开源人工智能具有新颖性,开源模型与开源软件在开发方式、构成要件、部署应用等多个方面均呈现不同,因此,基于旧有的软件开源定义无法直接套用于开源人工智能;另一方面,开源人工智能尚处于动态发展阶段,呈现出较强的复杂性、动态性和不确定性,人工智能模型的开闭源界限模糊且动态演变,静态定义难以跟上技术的迭代更新。
在这一背景下,OSI于2024年10月推出了开源人工智能定义的第一代版本(OSAID)。该版本包含三个主要部分:一是“前言”,解释了为什么需要开源人工智能,认为“对于人工智能,至少需要与开源相同的基本自由”,确保人工智能开发者、部署者和最终用户能够享受开源所带来的自主性、透明度、无阻碍使用和协作改进等好处;二是“定义的主体内容”,解释了构成开源人工智能的前提条件,包括原则和构成要件两大部分。原则部分提出四大“自由”,即无需征得许可并用于任何目的的使用自由、探究系统工作原理并检查其组件的研究自由、允许人们为任何目的修改系统的自由、无论是否经过修改可出于任何目的共享给他人的自由,同时明确指出对系统整体和各独立的组成要素的要求须一致。独立组成要素包括数据信息、代码和参数三个要素,并对每个要素都进行了相应的举例;三是“名词解释”,解释了开源人工智能相关部分特有技术名词,阐明了开源模型、开源权重、人工智能系统和机器学习等核心组件,区别于传统软件开源的特有技术内容。
总体上看,OSI的定义延续了传统开源软件的定义思路,将开源人工智能的目标聚焦如何赋予使用者以尽可能无限制的“自由”,以便构建和部署开源人工智能系统。OSI明确提出,进行开源人工智能定义的主要目标是认识到“将目前的传统开源软件代码和许可证原则应用于人工智能组件时,已不足以保证使用、研究、分享和修改系统的自由”。这一考虑贯穿了整个OSAID的制定过程:自2023年7月第一次召开针对OSAID的会议讨论以来,OSI强调“开源旨在让用户拥有软件自主权”,而开源人工智能也应旨在让用户在使用人工智能系统时拥有这种自主权。此外,在11轮的定义版本更新中,唯一没有大幅变动的便是前言中关于四大“自由”的要求。
二、“严格定义-总体控制-局部豁免”与人工智能开源不适配
从政策制定角度看,OSI的开源人工智能定义和欧盟《人工智能法案》的开源豁免机制,本质上并未认可开源人工智能是一种技术创新和扩散的路径。它们没有从顺应技术发展的角度重构治理制度,而是把传统法律框架置于技术发展规律之上,通过严格定义将开源人工智能视为一种独立的、静态的监管对象,采取“削足适履”的方式将其纳入现有的监管体系。当法案通过“符合开源条件即可免除合规义务”作为激励工具时,其隐含的前提是现有监管框架的核心逻辑无须调整,只须将开源视为可控的“例外空间”。这一预设折射出立法者在应对技术变革时的路径依赖,试图通过局部豁免缓解制度与创新的冲突,而非重构治理范式适应开源生态的独特性。“严格定义-总体控制-局部豁免”的矛盾在于,它与开源生态的自组织特点难以兼容。
从定义角度,开源生态是“能力建设”而非“产品服务”。与传统软件开源强调的“自由使用、复制、修改、分发源码”不同,模型开源应更强调降低大模型的使用门槛,实现模型能力的普惠,让更多人能够使用人工智能技术,并参与人工智能技术的开发、应用和推广过程。然而,OSI坚持以“自由”为核心的传统软件开源原则,并未充分体现模型开源与软件开源在目标价值上的本质区别。虽然在多轮迭代中,OSI也吸纳了一部分产业观点,从严格要求可复现性和不允许开源协议施加任何使用限制,逐渐转变为承认百分百的可复现并非开源人工智能的目标,并不再明确反对使用限制,但该定义仍然过于严苛,并非所有的开发者都有充足的资源和能力提供OSI要求的所有组件并达到相应的效果,进而满足他人研究、修改、使用和分发的自由。这种严格定义可能存在矫枉过正的风险,降低模型开源贡献参与的积极性,从而偏离模型开源以“可用性”为核心的价值所在。
从风险管控角度看,开源的分布式协作形成了一种新型的风险控制生态。通过广泛的开发者和参与者的自律自治和内生规则,能够实现动态的利益平衡和默认的规则遵循。这种方式比静态合规更能适应人工智能技术的进化速度。例如,目前对人工智能安全的研究绝大部分基于开源人工智能,推动了人工智能安全技术的发展,也让人工智能总体的安全性不断提高。同时,开源生态的专业开发者相互监督,人工智能安全评测的可信度更高,也更容易发现和修复安全漏洞。更充分且对称的安全信息提高了开源人工智能的透明度,可以提前发现风险、群策群力并及时进行风险处置。
三、构建适配开源人工智能特征的治理机制
随着人工智能从研发走向应用,在技术存在高度不确定性、产业应用需求多样化的背景下,社会可获取的模型、工具以及技术解决方案的选择应尽可能多样。对开源人工智能实行较宽松的监管政策,并非放任风险,而是从技术工具的视角重新审视人工智能开源的价值,采用生态建设的方式管控风险并分配责任。考虑到开源对我国人工智能高质量发展的重要作用,以及人工智能开源带来的客观风险特征,本文对我国开源人工智能治理提出以下建议。
第一,尊重开源生态的自组织性,包容人工智能开源的多样性。贾开曾在《人工智能争议之一:开源是发展AI的合适路径吗?——从经济民主视角理解开源在AI时代的挑战与革新》一文中提出,开源人工智能的有序发展依赖开源生态的自演进和自组织性,单纯依赖传统的合规豁免规制反而无法适配生态自然发展的规律。鼓励开源人工智能的最终目标是降低全社会获取、使用和改进人工智能技术的综合成本,从而实现技术的广泛扩散和公共知识的积累。因此,政策评判标准应转换为多样化的视角,判断开源人工智能能否更充分地且负责任地被使用,政策重心应从监管开源转向降低开源技术流动的阻力,保障市场与社区选择的自主权和公平性,将治理资源用于提高算力接入公平性、接口协议标准化和知识共享可持续性等开源基础设施建设。
第二,提高开源人工智能的专业评价和反馈,推动“众人拾柴火焰高”的正向循环。与开源软件开发过程中共同改代码、实时反馈的方式实现技术进步不同,开源人工智能的阶段式训练模式对评价和反馈的专业性和体系性要求较高,需要在较短时间内将开源人工智能应用于多样化的场景,评估人工智能的性能,测试人工智能的安全。对于开源人工智能而言,专业化的用户越多,经验反馈和交流得越丰富,才能更好地构建起围绕技术建立的生态,开源对技术和产业助益才能充分体现。开源人工智能需要鼓励普惠,包括更多强调使用成本的降低、提供更具多样性的技术路线和选择方案,以及在合法性和价值对齐方面的透明度等。通过不断提高开发者和使用者的专业度水平,推动开源人工智能持续创新和发展。
第三,推动公共知识的积累,提高开源人工智能生态治理的确定性。开源人工智能治理的目标不仅是防范风险,还需要为技术的负责任发展提供可操作、可借鉴的实施路径,通过促进合作和增进公共知识提高治理的确定性。同时,坚持“人工智能安全作为公共产品”的基本理念,注重信息共享和披露,支持开放透明的人工智能研发与应用,鼓励学术机构、开源社区和公众用户进行监督,根据各个主体在开源人工智能生态的角色进行责任设定,为负责任的开源人工智能提供更多的确定性。
(本文刊登于《中国信息安全》杂志2025年第2期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。