文 | 清华大学智能法治研究院 刘云
算法不仅是数据驱动的计算方式,还是在智能社会发挥事实性约束作用的规制效力。随着算法成为影响社会秩序和公众权利的重要因素,中国将算法作为独立的治理对象,构建了一套以算法行为为调整对象的政策法规体系。中国在2021年发布的《关于加强互联网信息服务算法综合治理的指导意见》和《互联网信息服务算法推荐管理规定》,分别从政策和法规两个角度勾勒了算法治理体系,明确将生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术作为重点管理对象。本文认为,需要进一步强调算法治理的独立性和体系性,将算法治理规则作为人工智能立法的关键内容之一。
一、算法治理的对象
算法是指被定义好的、计算机可执行其指示的有限步骤或次序的计算方法,在技术层面表现为数学函数或一系列计算机指令。当企业和机构利用算法构建虚拟空间的运行规则时,算法便超越了单纯的工具属性,从而具有规范智能社会行为的功能。信息分发算法决定用户能够接触到哪些信息,排序算法影响商品的曝光和交易,风险模型决定贷款申请能否获批,自动驾驶算法则关乎公共道路安全。在这些场景,算法已不再是后台隐匿的技术细节,而是具有直接规制效力的网络运行机制。在智能体广泛应用的智能社会,大模型通过提示词、微调与温度参数把“算法”拆解为可交互、可定制的动态规则集,用户也借此间接参与规范生成,使算法从封闭代码升维为准公共的“规范生成平台”,其输出既受平台权重初始约束,又随千万级实时调用不断漂移,形成脱离单点控制、具备集体演化性的“分布式治理权力”。一些机器学习算法在训练与部署过程中会持续生成人类工程师无法完全预测的中间表征与权重组合。这种非线性、非透明且可自我强化的特征,使其不再是被动执行指令的“中性工具”,而是构成一种需要加以控制的智能行为体。因此,有必要承认算法作为独立治理对象的法律地位,从而把法治要求落实到虚拟空间。
推荐、排序、匹配、风控乃至自动驾驶等算法程序已经构建了一套行为规范体系,直接影响信息传播、市场竞争和社会秩序。当自注意力机制所构建的算法模型,因“黑箱”逻辑(决策过程不可追溯、不可解释)处于规制空白状态,并进一步主导智能社会的核心运行环节时,不仅可能直接削弱公民的数据权利与决策参与权,还可能会通过算法偏见加剧资源分配失衡,进而侵蚀公平正义,最终危及社会成员对技术系统及公共治理的信任基础。例如,荷兰“福利丑闻”即是典型例证。荷兰政府利用算法筛查福利欺诈,却因过度依赖历史数据与僵化假设,将大量移民家庭错误识别为高风险对象,导致无辜者福利被剥夺,从而引发政治丑闻与法律问责。在美国,量刑风险评估工具(COMPAS)被发现对非裔被告的评分系统性偏高,如美国威斯康星州诉卢米斯案(Wisconsin v. Loomis),导致算法被推入公正性司法审查。类似问题也出现在英国教育领域,例如,A-Level成绩预测算法由于依赖学校过往表现而忽视个体能力,致使弱势群体学生成绩普遍被压低,最终引发大规模抗议。
除了歧视风险,算法的不透明性也是一个治理难题。深度学习等复杂模型往往难以揭示其决策依据,使受影响者无法知晓缘由,也无法寻求有效救济。法国的社会保障系统因福利风险评分算法的“黑箱式”运行遭到司法质疑,国际特赦组织(Amnesty International)甚至直接起诉并要求停止使用相关算法。算法的不透明性削弱了问责机制,也损害了社会信任。基于此,提升算法可解释性和可审计性,普遍被视为治理的核心环节。算法滥用与操纵更凸显其作为规制对象的必要性。在信息传播领域,大型平台通过算法推荐机制能够影响舆论走向,一些放任的算法推荐机制还会加重社会的误解。中国主管部门在2025年9月分别查处了快手、微博、UC、今日头条几个平台滥用热搜榜助推不良信息炒作的行为,强调了平台利用算法提供信息分发服务时的作为义务。发生在2016年的Facebook与剑桥分析丑闻揭示了基于算法的微定向广告如何改变选民选择的过程。法国检察机关在2025年调查社交平台X(原推特)涉嫌操纵信息分发系统干预公共舆论的行为,也说明了算法治理是维护国家安全的一个抓手。在市场领域,大数据“杀熟”现象广受诟病,老用户或特定群体因算法定价机制反而付出更高成本;更隐蔽的则是算法共谋,不同企业通过类似的定价模型形成事实上的价格同盟,虽无人为协议却能达到限制竞争的效果。传统反垄断法难以应对这一技术驱动的新型合谋,迫使各国执法机关将数据与算法纳入规制。中国2022年修订的《中华人民共和国反垄断法》已明确禁止利用算法实施协同行为,并辅以《关于平台经济领域的反垄断指南》予以细化。
在民事权利层面,信息分发算法所引发的侵权与安全问题日益凸显。美国联邦第三巡回上诉法院在2024年于Anderson v. TikTok案中做出的判决,首次动摇了《通信规范法》第230条对平台的免责规定。此案表明,司法正在重构平台对算法分发的责任认定。同类风险亦体现在金融高频交易的“闪崩”事件,以及未经充分验证便投放市场的医疗人工智能诊断工具,因其均可能带来系统性危害与生命安全威胁。欧盟于2019年通过的《数字单一市场版权指令》第17条要求,大型平台在处理用户上传的内容时,必须采取“最佳努力”防止受版权保护的作品未经许可被使用。这在实践中通常意味着部署自动化内容识别与过滤算法(即“上传过滤器”),对音频、视频、图像等进行比对和筛查,防止侵权内容传播。这种义务直接把信息分发算法与过滤机制置于法律规制之下,并要求平台在算法运行中平衡版权保护与用户的表达权。
算法还深刻推动了劳动关系变革。外卖平台调度系统曾经通过严格的送达时限和绩效考核,迫使骑手在高压下冒险作业。这在中国和欧盟分别引发了交通安全与劳动权益问题。中国监管部门已联合发布《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》,要求优化调度规则、保障劳动者休息与知情权。意大利监管机构依据《通用数据保护条例》(GDPR)第22条规定,认为外卖平台完全通过算法为骑手进行评级、排名甚至处罚,而缺乏人工干预机制,会影响骑手的工作机会,并且有可能对骑手造成歧视。一些企业虽宣称引入“关怀模式”,但算法治理能否真正改变劳动者处境,仍有待法律制度明确平台责任与用工关系。
算法既是创新驱动力,也是社会风险源。其作用机制决定了算法治理不能简单附属于数据治理。数据治理强调对信息要素的管理,而算法治理则聚焦“运算规则”的合法性与正当性。即使数据合规,但若算法逻辑本身存在歧视或不透明,仍有可能造成严重不公。因此,算法治理必须在独立性上获得承认,在体系性上形成制度化回应。只有通过风险识别、透明机制、责任归属和外部审计等多元手段,将人类价值判断与法治原则嵌入技术逻辑,才能确保算法在虚拟空间服务于正当利益而不背离社会正义。
二、域外算法治理的典型模式
随着自动化决策技术的广泛应用,算法治理已成为各国数字治理的共同议题。各国正采用“以制度体系强化算法治理”的共同路径,通过透明、问责与风险管理将平台与人工智能系统纳入规范。在具体的做法上,各国各有所侧重,尤以欧盟、美国等为典型代表。
欧盟以“权利—透明—分级监管”三位一体,突出自动化决策的可选择权。GDPR第22条确立了“免受纯自动化决策”与“获得人工干预”的权利基础,奠定了算法对个体产生法律或类似重大影响时的权利边界与救济路径。在平台层面,欧洲《数字服务法案》(DSA)要求超大型平台与搜索引擎为其推荐系统提供至少一种“非基于画像”的选项,细化了“对个性化推荐的退出/可选择权”,并配套更强的信息透明与控制界面的设计要求。欧洲《人工智能法》以风险分级为主轴,禁止类场景(如社会信用评分等)直接禁用,对高风险系统施加严格的合规与治理义务(数据治理、技术文档、监测与事故通报等),而通用目的人工智能模型与具有系统性风险的模型须履行透明与压力测试等强制义务,配套高额罚则与分阶段生效时间表,形成纵深的硬法框架。这一套“权利先行、平台选择、风险分层”的组合拳,使欧盟在“退出权—透明度—问责链”上彼此衔接。
美国以“问责与风险管理”为主线,强化推荐算法与高风险决策算法的可问责性。在联邦层面,美国多届国会提出《算法问责法案》,主张由美国联邦贸易委员会(FTC)推动对自动化决策与关键决策流程展开影响评估、透明度与治理要求,旨在让“使用与销售算法的企业”系统性识别差别影响与已知风险,并对外披露关键信息,强化事前与持续性问责。美国国会研究处梳理了“算法化推荐的责任问题”,指出立法与判例正在探索当推荐系统放大有害信息时230条款项适用范围的边界及潜在改革将成为平台治理的新兴议题。在州一级,美国科罗拉多州的《人工智能法案》(SB 24-205)要求开发者与部署者承担算法歧视“合理注意义务”,并配置数据治理、性能评估、差别影响缓解与持续监测等合规文档,体现出高风险场景(信贷、就业、教育、医疗等)更具操作性的合规路径。在技术标准治理配套方面,美国技术标准化研究院发布的《人工智能风险管理框架》(AI RMF 1.0)以自愿性标准化方式提供的从识别、评估、减缓到治理的全生命周期方法论,已被政府与产业广泛对齐采用,成为“软法—最佳实践—审计基线”的关键纽带。整体来看,美国路径强调通过影响评估、差别影响治理与风险框架,推动推荐与其他高影响算法的“可解释—可评估—可追责”闭环。
荷兰以“可审计性+可登记”为抓手,推动基于证据的算法治理。在欧盟法律之外,荷兰将公共部门的算法纳入“可被盘点、可被解释、可被审计”的制度路径:全国性“政府算法登记册”(Algoritmeregister)制度要求各机关单位披露具有影响的算法用途、工作原理与风险信息,形成面向社会的可查询清单。这也为后续的内部控制与外部监督提供了“证据底座”。在项目前期评估环节,荷兰政府推广的“算法与人权影响评估”(IAMA),将基本权利、数据治理与实施情境一体化纳入审查流程,强调从设计之初即证明可解释性与可问责性。在司法层面,海牙地方法院2020年对“SyRI”反欺诈系统案作出判决,因其数据汇聚与画像机制对隐私与人权构成不相称的干预而被认定违反了《欧洲人权公约》。这既为高风险算法的可审计性设定了“比例原则”的司法边界,也倒逼行政机关提升可解释性与差别影响评估的质量。总体上,荷兰路径通过“登记—评估—审计—司法校验”的链条,把“基于证据的治理”落到可操作的工具与清单上。
总体看来,各国的算法治理方向虽有差异,但其共性在于都意识到了算法不再只是技术,而是关乎国家利益与社会秩序的独立要素。随着生成式人工智能和跨境数据流动的复杂化,国际社会可能会出现多模式并存的算法治理格局,各国的制度互动既有竞争也会出现趋同。对中国而言,如何在总结本国治理经验的基础上参与国际规则制定,推动形成兼顾安全、公平与创新的全球算法治理秩序,将直接决定能否在这一新兴话语场掌握主动权。
三、算法治理在人工智能立法中的体系定位
人工智能立法已被列入中国立法工作的重点议程,有必要考虑人工智能立法与《网络安全法》《数据安全法》和《个人信息保护法》之间的关系。它们的联系在于,都涉及数据处理行为,共同构成数字经济的法律保障体系;它们的区别在于,人工智能立法更侧重调整算法运行规则,关注人工智能系统如何自动化地模拟、辅助或取代人类行为,并创造新型的人机交互关系。目前,中国的算法治理相关工作已经取得了突破性进展,特别是大量的算法备案和相关专项执法已形成了规制经验。未来,应当在人工智能基本法中确立算法治理的统一原则与责任框架,同时在特定领域制定配套法规,如自动驾驶、医疗诊断、信息分发等,形成总分结合的算法治理规范体系。
算法治理不仅是人工智能立法的重要组成部分,也是人工智能法治能否落地的关键环节。人工智能立法应当明确要求算法的透明性、公平性、可控性与可问责性,避免技术“黑箱”对权利与秩序造成侵蚀。透明性是算法治理的前提。立法需要确保算法的主要逻辑和决策依据能够被监管者和受影响者理解,而不是完全封闭的“黑箱”。这并不意味着要强制公开源代码,而是要求有意义地披露。例如,信息分发算法需说明其排序的主要考量因素,政府部门使用算法处理公共事务时应当履行告知义务。公平性则要求算法不能产生系统性歧视,尤其是在招聘、信贷、医疗等领域,不得因不正当因素而差别对待。包容性强调算法应服务于普惠共享,为了避免加剧数字鸿沟,应当在设计时考虑老年人、残障人士等群体的需求,并赋予用户一定的调控权利。可控性则意味着算法运行必须处在人类监督与干预的范围之内,特别是在涉及公共利益的领域,应当坚持人类最终决策权。问责性是算法治理的落脚点。立法需要明确责任主体,建立追责机制,确保在算法造成损害时能够进行有效救济。
这些原则在中国政策与伦理规范中已有所体现。例如,《新一代人工智能治理原则》提出了公平公正、安全可控、责任担当等基本要求。中国未来立法的关键,在于将这些原则转化为可操作的法律条文,建立算法备案、审计与问责机制,赋予监管机关必要的监督权,并通过司法和行政途径提供救济,甚至通过立法将透明性、公平性、可控性、可问责性上升为具有强制力的法律义务,方能真正构建系统化的算法治理体系。
四、用户深度参与的算法治理新方向
技术的发展正悄然改变算法治理的生态。过去,算法主要由开发者和平台单方面设计和调控,用户只能被动接受算法安排。随着人工智能技术的普及和用户权利意识的提升,一个“用户深度参与算法治理”的时代正在到来。这一趋势体现在两个层面:其一,越来越多的应用开放了可调节参数与选项,并允许用户对算法输出施加影响;其二,一些低门槛的工具和平台使普通人能够直接定制甚至改造算法,从而由被管理者转变为规则的共同塑造者。这种变化意味着,算法治理正逐步走向多元共治的格局。
用户可调节算法参数的实践日益广泛。大型语言模型常见的“温度”(temperature)参数决定输出内容的随机性与创造性,图像生成模型也开放了风格预设、迭代步数等选项。这些接口让用户得以根据个体需求塑造算法行为。在个性化推荐系统,用户可通过“不感兴趣”“删除标签”等操作,直接干预算法的推荐逻辑。《互联网信息服务算法推荐管理规定》明确要求平台提供“关闭个性化推荐”和“用户标签管理”功能,由此赋予用户对自身画像的自主调控权。这些机制虽仍有限,但方向明确:算法的运行参数不再是单向指令,用户开始拥有调整乃至重塑算法的能力。在更专业的场景,自动驾驶系统允许驾驶员调整跟车距离和加速灵敏度,医疗辅助算法亦可能在未来为患者提供“保守”或“积极”的治疗路径。算法不再是“一刀切”的工具,而是逐渐转化为可由用户部分掌控的社会性机制。
用户直接设计和定制算法的趋势正在形成。低码或无代码平台,如“扣子”(Coze)等,使普通用户能够在图形化界面选择模型、配置对话逻辑和外部接口,快速生成专属的智能体。开源模型的普及和轻量化微调工具的出现,也让具备一定技术背景的个人可以自行训练和优化算法,用以满足个性化需求。甚至,有些平台可以通过邀请用户反馈或人工精选改进推荐系统,将用户行为直接转化为训练数据。这些发展降低了算法设计的门槛,使算法生产出现去中心化趋势,用户逐渐由算法消费者转向算法的共同生产者和改进者。
这种变化的意义不仅在于提升个性化体验,更在于推动算法治理结构的重塑。传统的治理模式强调政府规制与平台责任,如今,用户逐渐成为算法规则形成的参与者。用户的介入有助于满足个性化的技术服务需求,同时带来新的问题:其一,责任分配的复杂化。在算法完全由平台控制的条件下,平台在出问题时应承担主要责任。如果用户拥有调整或定制算法的权限,在不当行为发生时责任如何划分便成疑问。例如,若因车主选择了激进驾驶模式导致事故的发生,制造商是否可以部分免责?若用户自行微调模型生成违法或有害内容,责任应归属平台、开发者还是用户本人?这类问题迫使法律探索新的责任分配机制,如以用户参与程度为依据合理划分责任比例。平台在赋权用户时也必须承担说明与提示义务,避免通过赋权逃避责任。其二,公众算法素养不足。当算法成为人人可调控、可设计的工具时,整个社会都需要具备基本的算法理解与驾驭能力。否则,一方面,恶意利用开源模型制造虚假信息、进行诈骗的行为的出现;另一方面,普通用户可能陷入“算法误区”,误以为只要控制了参数就能完全掌握算法,也可能因缺乏专业判断而误用甚至滥用技术。因此,在全民教育、专业培训和社会科普中,都应加强算法原理教育、提升公民的“算法素养”、支撑用户广泛参与的有效治理。
总体而言,用户参与正在重塑算法治理的基本图景。用户不再是被动接受的算法消费者,而是逐步成为算法规则的共同建构者。这一趋势既是技术普及的体现,也是治理理念向“共建共治共享”延伸的必然结果。法治应当顺应这种变化,通过立法与政策为用户参与设定边界与责任,强化“算法素养”教育,并推动政府、企业与社会协同治理,使算法治理真正走向一个多元参与、权责明晰、共治共享的智能社会。
(本文刊登于《中国信息安全》杂志2025年第12期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。