文/麻策律师

我曾试图用AI沉迷,替代女儿所沉迷的小马宝莉卡,但结果显然是极其失败的——我自始自终没见过女儿主动索求或者偷偷玩我手机中的AI产品。

当今,许多极受欢迎的数字产品(如短视频、游戏和社交媒体等)之所以受欢迎,直接原因在于其具有成瘾性。但是,生成式人工智能具有导致成瘾的潜在能力吗?

按照中国的法律法规说法,答案显然是“是”。

01 AI沉迷的起源

2023年7月10日发布的《生成式人工智能服务管理暂行办法》第十条首次认为我们应该采取有效措施防范未成年人“用户过度依赖或者沉迷生成式人工智能服务”。由此办法铺成开,《网络安全技术 生成式人工智能服务安全基本要求》规定,“应允许监护人设定未成年人防沉迷措施”。

我国《未成年人网络保护条例》的网络沉迷防治一章倒是将全量的“网络产品和服务提供者”都纳入了防沉迷的义务对象,要求“应当建立健全防沉迷制度,不得向未成年人提供诱导其沉迷的产品和服务,及时修改可能造成未成年人沉迷的内容、功能和规则,并每年向社会公布防沉迷工作情况,接受社会监督”。但法定可成瘾产品,目前仍然仅限于“网络游戏、网络直播、网络音视频、网络社交”等四类。

从些法规的交叉的表象来看,法定可成瘾四类产品必须配套防沉迷措施,而面向未成年人的AI产品或功能则是第五类法定可成瘾产品。当然,这些法规并未涉及到成年人的沉迷问题。

条款只是条款而已吗?当然不是,一旦法规落地AI成迷规则,会引发极高的合规成本。法定可成瘾产品必须配套基于账号、认证、时长、功能、内容、监控、消费、软硬联动等一系列防沉迷措施。而上述每一项功能的调整,从我们日常的合规经验来看,都是极富挑战性的存在。

有学者认为:“生成式人工智能令人沉迷的原因在于其生成的虚拟世界更具有吸引力、精准推送产生舒适性、虚拟人物使人产生情感依赖”。2023年,OpenAI首席技术官Mira Murati也曾敦促对人工智能技术的影响进行密切研究,以降低其成瘾和危险的风险。特别是当生成式人工智能引入更长的上下文能力以及个性化功能时。

至少从现有信息来看,大量将人工智能和成瘾联系起来的说法,并不是人工智能本身具有成瘾性,而是具备人工智能的产品本身即具有成瘾性,人工智能可能将上述既有成瘾性进行了加强,比如人工智能能够更快分析到人类的情绪变化从而进行个性化推荐。或者是,人们将注意力转向于高频利用人工智能产品来为人类工作赋能,比如高频使用chatgpt来获得答案,经常使用智能体来生图生视频。但这些,都不是所谓的,类似于游戏或短视频一样的人工智能产品功能的成瘾。

上文所述的人工智能沉迷的说法,似乎仅仅只是添层自认为的感知,而没有强有力的数据以及生活感知作为立论基础,且这些成瘾往往还是基于法定可成瘾产品中的内容及算法推荐,和人工智能生成物无直接相关——即使无AI的参与,现有的成瘾内容仍然具有沉迷性。

事实上,北京师范大学认知神经科学与学习国家重点实验室发表的一篇实证论文结果显示:“目前缺乏关于人工智能依赖与心理健康困扰关系的实证研究,人工智能成瘾在人群中的流行程度也不明。”

中国《生成式人工智能服务管理暂行办法》中,为何硬要给人工智能强加一个沉迷的标签?——我没有找到出处和实证研究,仿佛这一条只是“拍脑袋式”认为。

02 数字成瘾的逻辑

众所周知的是,令成人成瘾的产品似乎都是违法或有禁限的,首当其冲即是色情、毒品和赌博,此类沉迷需要法律的干预才能有效杜绝。而令未成年人成瘾的产品往往并非违法但有碍身心健康,特别是游戏类产品,因此也需要法律的干预。但这对成年人并不适用,毕竟作为完全能力责任人,法律没有干预的资格。

在生成式人工智能领域,AI沉迷也是基于人类奖励系统而实现,这和人类获得不断的游戏通关奖励而不断沉迷的逻辑是一样的。这种奖励还包括新奇的体验,在现实世界中无法达成的成就等等奖励。

比如,越来越多的“AI女友”产品,让人类在虚拟世界中寻找情感宣泄。有报道称,日本出现了“蛰居族”现象,男性成年后仍留在父母家中,沉迷于网络游戏和在线社交。上文提及北京师范大学研究论文认为:对于 AI 使用动机,逃避动机和社交动机在心理健康问题与 AI 依赖之间的关系中起中介作用,而娱乐动机和工具动机则不起中介作用。”

这说明,社会的迟滞发展,社会生存及工作压力的增加,将导致部分人群出现逃避现实的动机,这些人群也可能使用“反对PUA”、“为什么这么卷”、“选择自己的生活”等强弱口号,意图对现实世界努力的人群实施反向PUA,并让他们产生心理负罪感。

著名的历史学家和哲学家威尔·杜兰特(Will Durant),在《世界文明史》等著作中对人类文明的发展进行了深入的研究和思考。他的观点是:“文明诞生于坚忍,消亡于享乐”,强调了坚韧和奋斗对于文明的重要性,以及过度享乐可能导致文明衰落的风险。

为此,作为全球备受追捧的人工智能对企业和政府领导人的竞争战略影响方面的专家Daniel Faggella甚至提出,要“对纯粹逃避现实的技术征重税或予以禁止”,他们认为超虚拟现实体验(完全是贪图享乐的逃避现实技术)应当被重税、禁止或设置时间限制,这就像如今人类对毒品、赌博的管制一样。

03 AI沉迷的规制

数字成瘾的底层原因,本质上还是数字商业模式质的变化,甚至我们现有所有数字立法都是基于这个底层原因而发生。

数字商业模式和传统商业模式中一次交付即买断并赚取差价逻辑不相同,是因为数字商业基于在线隔空提供商品和服务,其基于电商、广告、增值服务等而赚取利润——商业利润在很大程度上取决于用户使用产品的时间,从而形成获客、运营、粘性、复购等一系列商业逻辑。

这些商业逻辑给互联网产品提出了极高的用户体验需求:降低用户进入的门槛以及增加使用的粘性,并将退出机制复杂化。映射到产品中,从宏观来看,就体观为默认勾选、持续的个性化推荐,以及复杂的注销账号设计。从微观来观察,就体现为“信息流刷新”,比如“X”会不断在信息流顶部告诉用户又有35条新的信息出现,引导用户不断点击查阅新内容;比如“无休止的瀑布流”,包括通过手指不断上下左右划动以查阅短视频。

这才引发了我们关注个人信息的保护合规,引发针对生成式人工智能的沉迷性合规的思考。但我们仍然需要明白,基于限制防沉迷的全球通行规则的存在,我们需要画蛇添足地在人工智能法案中实施特殊合规吗?

令人遗憾的是,除了中国人工智能立法外,欧盟的《人工智能法》《数字市场法》,以及美国现有针对人工智能的立法中,没有任何直接的条款对人工智能的防沉迷进行明确直接的约束,这一点令人惊讶和费解。

2023年12月12日,欧洲议会在通过的《关于欧盟单一市场在线服务成瘾设计和消费者保护的决议(2023/2043(INI))》立法建议案中,也直言不讳地承认:“尽管欧盟在数字领域(包括DSA或AI法案)存在强有力的演变,但现有欧盟立法中没有充分涵盖成瘾设计问题,如果不加以解决,可能会导致公共卫生领域的进一步恶化,特别是影响未成年。”

2024年7月10日,西班牙数据保护局(AEPD)发布了一份题为“个人数据处理中的成瘾模式:对数据保护的影响”的报告,分析了在众多平台、应用程序和服务上处理用户(特别是青少处)个人数据时如何设计产品成瘾模式,以增加用户的沉迷时间。该报告对人工智能的成瘾性只字未提。

就在2024年5月16日,欧盟委员会针对Meta启动了调查程序,欧盟委员会认为Facebook、Instagram的算法系统可能会刺激儿童的行为成瘾,并产生所谓的“兔子洞效应”。而“兔子洞效应”,通常用来描述一种用户在互联网或其他信息媒介中浏览内容时,逐渐深入特定主题,结果深陷其中,花费大量时间且通常偏离最初目标的现象。

但是,这一调查是基于《数字服务法》(DSA)而不是《人工智能法》而展开。委员会认为,Meta各产品的界面可能会利用未成年人的弱点和缺乏经验来引起成瘾行为,并通过其建议的内容将儿童带入越来越有害材料的兔子洞。

在中国生成式人工智能规则下,根据我们在算法及大模型备案实务中遇到的情况,至少算法备案评估报告中,仍然是需要回答各类算法和模型的适用人群的。在不涉及到完全针对或可能引发未成年人集聚的产品中,人工智能的防沉迷仍然是一个无意义的伪命题,用所谓的产品规则公告即可解决。

在法定可成瘾四类产品中,如果适用了生成式人工智能功能,则势必需要回答如何防止未成年人的防沉迷。当然,这种评估内容和生成式人工智能没有必然关联,以往的立法规则中,早就已经有了明确的答案来替人工智能“挡刀”。

人工智能立法之所以复杂,恰在于我们似乎很难将常规网络法合规、个人信息保护合规、竞争和反垄断合规进行有效切分清楚。很多时间,和稀泥式立法反而能够有效解决立法真空问题。

‍‍‍‍‍‍‍‍‍但是,毫无根据将“成瘾性”和“人工智能”直接联系捆绑起来,属实是一种合规的假象。

-作者微信:macelawyer-

声明:本文来自互联网法律匠,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。