文 | 对外经济贸易大学法学院教授 许可;对外经济贸易大学法学院 苗铭
自2021年9月国家有关部门印发《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《算法综合治理意见》)以来,我国正式开启算法治理,并逐步构建起“基础规范+专项规定+专项行动”的多层次治理体系。其中,2021年,《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)在《个人信息保护法》的基础上细化算法推荐规则;2022年,《互联网信息服务深度合成管理规定》确立了算法评估、算法检查的监管工具箱;2023年,《生成式人工智能服务管理暂行办法》将新一代人工智能算法纳入治理范畴。2024年,我国开展了“清朗·网络平台算法典型问题治理”专项行动,聚焦“信息茧房”、违规操纵干预榜单、大数据“杀熟”、算法向上向善服务缺失等重点问题,督促企业自查整改。回观《算法综合治理意见》提出“利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”的宣示,言犹在耳。2025年,值此收官之年,恰是检视我国算法治理效果之时。
《算法综合治理意见》将“维护意识形态安全、社会公平公正和网民合法权益”作为并置的治理目标,“清朗·网络平台算法典型问题治理”亦将“聚焦网民关切”作为治理的出发点。为此,从主观维度考察网民对算法的认知度、接受度与安全感,既是识别监管落地偏差等治理隐忧的关键环节,也是反向验证相关企业合规措施是否具有现实成效的核心标尺,更是公众参与算法协同治理体系的直观展现。为此,本文基于研究团队在2021年与2024年展开的两次全国性算法调研,通过对其结果的梳理、对比,分析公众对算法认知、态度与行为的变迁,评估我国算法监管体系的监管实效和社会影响,进而为算法治理的未来发展与完善提供可检验的和可追溯的实证基础。
一、算法调研过程与问卷设计
为清晰呈现两次全国性调研的科学性与系统性,下文首先对调研的具体实施过程及问卷的设计逻辑进行详细阐述。
(一)调研过程
2021年12月和2024年8月,研究团队通过“问卷星”在线平台与“支付宝”应用程序分别推送问卷5000万份,覆盖全国31个省、自治区、直辖市,兼顾我国人口结构具有不同年龄、学历、收入、职业等特征的用户群体。两次调研持续时间均为一周,分别收回有效问卷6941份和8030份。
(二)问卷设计
研究团队从我国算法治理的价值立场、法律原则和监管导向出发,以根据《算法综合治理意见》《算法推荐管理规定》等确立的“算法透明、算法安全、算法公平、算法向善”原则为经,以“用户认知—用户态度—用户权利—用户行动”为纬设计问卷问题。其中,“算法透明”聚焦用户的算法知情权以及用户特征标签管理,如用户是否清楚企业使用算法的规则,算法依据用户标签推荐商品、服务或广告时用户是否可以关闭算法推荐功能、选择或删除算法依据的个人特征标签;“算法安全”侧重用户对个人数据搜集、使用过程中安全与隐私保护的感知,如用户是否认为算法在推荐个性化的广告、视频、新闻时侵犯了个人隐私;“算法公平”关注用户对企业干预信息呈现行为的感知,如用户是否认为企业利用算法进行人为的信息扭曲(操纵热榜买卖、流量造假和信息屏蔽等),算法对用户造成的不良影响以及差别定价(大数据“杀熟”)现象是否存在;“算法向善”主要考察用户对平台“适老化”和“未成年人模式”等人性化设计的感知,包括智能算法是否满足老年人的使用需求,是否传播不利于未成年人的信息、诱导未成年人沉迷网络。
二、算法调研结果的历时性剖析
两次调研数据的历时性对比,清晰展现了2021年至2024年公众算法认知的变化趋势,既印证了治理政策的成效,也揭示了深层次的治理需求。
(一)算法透明
消费者对算法的基础认知和应用理解水平显著提高。就消费者对算法的基础认知而言,2024年,表示“完全清楚”或“比较清楚”企业使用算法的受访者比例由44.02%增至66.28%,而“完全不清楚”的受访者占比由16.9%降至7.21%。就消费者对算法应用理解水平而言,表示“完全了解”或“比较了解”企业使用算法的内容和目的的受访者比例由35.02%增至59.71%,而“完全不了解”的受访者比例从20.34%降至8.53%。这种从基础认知到应用理解的提升,印证了在多方协同努力下用户知情权基本得以保障。
受访者对算法个性化推荐的接受度与权利意识均有提高。就广告推送模式而言,选择“千人千面、精准推送”的受访者比例从25.71%增至29.33%,选择“根据数据大致分类,按照类别推送不同广告”的受访者比例从55.43%增至59.90%,而希望“对所有用户推送相同广告”的受访者比例从7.17%降至4.52%。这组数据表明,消费者对差异化广告推送的接受程度呈现积极态势,算法驱动的分众化广告业已成为共识。在企业根据个人标签推荐商品的态度上,表示“不接受、希望关闭该功能”的受访者比例从27.87%降至11.88%,选择“依法排除某些标签”的受访者比例从25.82%增至36.99%。该变化反映出消费者既认可基于个人标签推荐商品的合理性与便利性,又注重对个人信息权益的保护,治理亟须在个性化体验与权益保护之间寻求平衡。
消费者对算法的拒绝使用权以及可解释性诉求强烈。随着算法和人工智能大模型的发展,2024年超过80%的受访者认为“用户应有权拒绝使用算法和人工智能大模型”,只有11.16%的受访者认为用户“无权拒绝”。在企业是否需要向用户解释算法和人工智能大模型问题上,39.33%的受访者主张“需要详尽解释”,44.65%的受访者认为“需要简单解释”,而“不在乎”或“不需要解释”的受访者仅占16.02%。
(二)算法安全
消费者对算法风险的感知有所减弱,但其核心风险认知仍处于较高水平。认为算法对消费者权益损害“存在很高风险”的受访者比例从20.28%降至10.47%,认为“不存在风险”的受访者比例从4.86%增至10.15%。这反映出消费者对算法损害消费者权益风险的担忧有所减轻。对于“算法推荐侵犯了个人隐私”这一说法,持“完全同意”的受访者比例从31.01%降至14.78%,持“不太同意”和“完全不同意”态度的受访者比例从12.54%增至25.46%,从正反两方面印证了消费者对算法侵犯隐私的负面感知持续弱化。必须正视的是,2024年,仍有超过80%的受访者认为算法损害消费者权益存在不同程度的风险,46.72%的受访者认为算法推荐侵犯了个人隐私。这意味着算法安全问题尚未得到根本解决。
表1 消费者对算法导致权益损害风险的认知变化

表2 消费者对算法推荐侵犯个人隐私的认知变化

面对算法可能带来的不利影响,消费者的主动防范意识和能力显著增强。要求“关闭个性化推荐”功能的受访者比例从45.30%降至30%,选择“使用搜索功能精准定位需求”“有意识地多样化浏览内容以打破信息茧房”等策略的受访者比例上升,表明消费者在认知层面已逐渐理解算法的运行规律与利弊边界。在行为层面,从被动接受算法推送到单一的“拒绝使用”,转向通过主动操作影响算法的风险应对模式,在算法安全治理中扮演了重要角色。
(三)算法公平
消费者对企业利用算法进行人为信息扭曲行为的评价明显好转。2024年,认为企业借助算法实施操纵热榜、流量造假、信息屏蔽等信息扭曲行为“很多”或“比较多”的受访者比例由81.53%降至53.99%,尤其是选择“很多”的受访者从41.52%骤降至12.73%,充分说明在监管强化与行业自律的双重作用下,算法信息扭曲现象得到有效遏制,消费者对网络信息环境的信任度正在企稳回升。
消费者普遍感知到企业利用算法差别定价的行为整体向好。认为差别定价的情况“减少”的受访者比例达到53.67%,而认为“有所加重”的受访者仅占10.06%,表明消费者对算法公平定价的认可度显著提高,企业滥用算法进行价格歧视的行为得到了有效约束。
(四)算法向善
消费者对算法推荐信息流的正面评价比例显著增加。选择“推送精准,节省获取有用信息的时间”和“推送内容较多元化,可获得较丰富的信息”这两个选项的受访者比例从40%增至52%,凸显了算法在信息获取效率方面的优势。与此同时,选择“推送内容过于娱乐化,容易上瘾”和“推送信息比较同质,限制了知识获取的多元化”这两个选项的受访者比例从43%降至37%,表明算法导致的“上瘾”风险和“信息茧房”效应得到了一定程度的缓解,算法在内容推荐的平衡与优化上取得了积极进展。
消费者普遍感知到平台在人性化设计方面取得了实质性的进步。2024年,有高达68.78%的受访者认为平台在“适老化”“未成年人模式”等人性化设计方面“进步明显”或“有一定进步”,认为“有所退步”的受访者仅占5.12%。以人为本的算法设计不仅体现了企业对数字弱势群体需求的关注,更是消弭数字鸿沟的重要保障,为算法向善奠定了坚实基础。
三、算法调研结果对算法治理之镜鉴
消费者算法认知的两次调研数据充分表明,2021年至2024年间,随着算法治理体系不断完善,我国算法透明、算法安全、算法公平、算法向善的整体面貌日新月异。毋庸讳言,我国仍存在不易化解的算法痼疾,尚需政府、企业、公众的共同努力。
首先,持续增进算法透明。尽管用户对算法透明度的感知有所提升,但用户对算法解释的需求依然强烈,而这其实是用户“算法素养”和“消费者主权”共振的结果。当前,我国企业已经在为公开算法的基本信息而努力,但出于对知识产权、商业秘密保护的担忧,相关信息的完整性、可及性和可理解性均有所欠缺。对此,不妨转换思路,从算法客观解释转向以用户为中心的实用主义解释。为此,企业可以着重提升基于主观理解的算法透明度,针对“无助、焦虑”的个体,依托公众关切的大数据“杀熟”、深度伪造、工作管理决策等关键场景,以容易理解的方式说明算法结果。例如,企业可以通过动画演示、图表解析等直观形式,向用户清晰呈现算法收集个人信息、生成特征标签及实现精准推送的全过程。同时,考虑到用户权利意识的勃兴,企业应积极保障用户选择甚至拒绝使用算法的能力。一方面,企业可以通过兴趣偏好管理、内容负反馈等功能设置,便于用户自主调节优化算法推荐内容;另一方面,企业可以在可能影响人的尊严、人格发展、公平程序的场景,帮助用户实现一键“退出”算法的权利。
其次,回应新兴算法风险。尽管消费者对算法风险的主观感知有所降低,但算法安全仍不容忽视。虽然泄露个人信息和隐私等既有算法风险有所缓解,但随着生成式人工智能的应用以及智能网联汽车等场景的拓展,作为人工智能核心技术的算法可能衍生新型风险:对抗性攻击、数据污染、数据投毒、音视频伪造等安全事件,使个人自主和主体性面临前所未有的挑战。鉴于算法风险日益不可预测、不可控制,亟须采取“以技治技”的方法,通过企业和监管机构的公私合作,融合技术、标准和法律的“治理科技”(GovernTech),有望基于算法生命周期展开全程治理。在事前,基于风险研判储备应急预案;在事中,定期评估算法安全风险指数;在事后,针对算法安全违法违规行为,及时采取约谈、责令改正、警告、暂停信息更新等多种措施,督促相关企业履行算法安全主体责任。
再次,巩固算法公平成果。调查数据显示,同质化推送营造“信息茧房”、违规操纵干预榜单炒作热点等乱象已经显著减少,公众对大数据“杀熟”的感知趋于中性,总体算法公平在近两年得到较大改善。为此,监管者需对正常市场营销行为与严重价格歧视行为进行区分治理。前者主要依靠市场进行自我调节,后者则需要进行监管干预。监管者可以充分利用技术手段,定期对平台算法进行公平性检测,并基于《反不正当竞争法》新增的“平台经营者不得强制或者变相强制平台内经营者按照其定价规则,以低于成本的价格销售商品,扰乱市场竞争秩序”的条款,从算法治理角度予以规范。
最后,深化算法向善引导。作为具有中国特色、生动体现中国价值观的治理目标,算法向善拥有丰富的内涵。在人工智能算法治理的背景下,令算法与人类的价值、真实意图和伦理原则相一致的“价值对齐”(value alignment)成为算法向善的重中之重。一方面,关爱“一老一小”依然任重道远。企业应深入研究老年人的使用习惯和需求,简化操作界面和流程,降低老年人使用智能设备的难度,同时优化算法推荐,为老年人提供健康养生知识、社区活动信息等实用、便捷的信息,防范网络诈骗、虚假信息和长期沉迷。此外,持续健全未成年人模式,确保算法有效过滤暴力、色情、赌博等有害内容和不良信息。另一方面,要以“公共善”(common good)为宗旨,将满足“有利于每一个人的一般条件”的理念应在算法设计、部署、应用等阶段,按照负责任的理念实现“前瞻性”道德嵌入,并在不同场景进行个性化的迭代,帮助个人做出合适的道德选择。此外,算法并不只是营利工具,它还可以应用于教育、医疗、环保等公共服务领域,发挥算法在资源优化配置、提高服务效率、解决社会问题等方面的优势,促进社会公平与可持续发展。【本文系教育部人文社会科学重点研究基地重大项目“数字经济基础性私法制度研究”(项目编号:22JJD820016)的阶段性研究成果】
(本文刊登于《中国信息安全》杂志2025年第12期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。