2025年2月2日,欧盟人工智能法案正式开始生效,被禁止开发和投入的人工智能规则是首批生效的规则。
2025年2月4日,欧盟委员会正式发布140页的《欧盟委员会关于禁止人工智能系统实践的指南》,对包括被禁止的人工智能类型进行了详细的说明。
而令人窒息的是,2025 年 2 月 5 日,欧盟人工智能法案生效仅仅三天后,首批针对禁止🚫型人工智能的集体诉讼已经在德国🇩🇪上演了。欧盟人工智能法案的压力已经到来。
So 快!
2025 年 2 月 5 日,荷兰市场信息研究基金会 (Stichting Onderzoek Marktinformatie, SOMI) 在德国对 TikTok 和 X(原 Twitter)提起了四起跨境集体诉讼。
据原告律师透露,该批诉讼是针对TikTok 和 X违反德国和欧盟法律的行为,特别是《数字服务法》(DSA)、《通用数据保护条例》(GDPR)和全新的欧盟《人工智能法》。除了要求两个平台立即停止非法行为外,诉讼还要求被告赔偿数十亿欧元。
荷兰市场信息研究基金会 (SOMI) 是一家非盈利组织,成立的目的是发现和影响具有社会重要性的问题,致力于保护使用在线服务的消费者和未成年人的基本权利。
自 2020 年以来,该组织一直致力于为所有欧洲人提供隐私保护和数据自主权代表诉讼,已经多次对TikTok、Meta 和 X采取了法律行动。
SOMI认为,TikTok 故意操纵年轻用户,滥用敏感数据来推动其推荐算法。该平台部署了令人上瘾的设计策略,利用行为心理学来最大限度地提高用户参与度。基于最私密的个人数据的推荐系统个性化危害了儿童和青少年的心理健康。
由于这种剥削性的系统设计,TikTok 受到了《人工智能法案》新出台AI法案关于操纵性、欺骗性和剥削性人工智能系统的禁令适用。
需要说明的是,早在2024年2月,欧盟就已经正式启动对TikTok的调查,检视TikTok是否在未成年人保护、广告透明度、成瘾性设计和有害内容风险管理等方面有违反欧盟《数字服务法》(DSA)的行为。该起调查将重点聚焦于TikTok的系统设计,包括算式系统,看看其是否刺激行为成瘾以及/或制造所谓的“兔子洞效应”。
但是,这一调查是基于《数字服务法》(DSA)而不是《人工智能法》而展开。
请参考本人文章:AI沉迷的起源:破除“兔子洞效应”合规的假象
SOMI认为,X 多次未能报告重大数据泄露事件,没有通知受影响的用户,也没有提供赔偿。此外,X 处理敏感的用户数据以支持其推荐算法——没有任何法律依据。这种深度个性化破坏了意见的自由形成,并加剧了社会两极分化。
SOMI认为,TikTok 和 X 都助长了虚假信息、深度伪造和误导性内容的传播,尤其是在选举期间,他们可以操纵公众舆论。
而,政治内容通常是秘密赞助、从国外资助或在没有明确标签的情况下传播的。这些做法严重违反了德国和欧盟法律,特别是《数字服务法》(DSA)、《GDPR》和《人工智能法》。这些诉讼旨在制止非法行为,并追究 TikTok 和 X 的财务责任。
SOMI通过诉讼提出了要求,禁止被告实施非法分析,不得为了个性化内容和广告而处理敏感的个人数据(例如健康、政治观点、宗教或性取向)。这种微目标定位侵犯了信息自决权,并对民主、健康和安全构成风险。
加强儿童和青少年保护措施:保护儿童免受有害内容的侵害,特别是免受可能危及生命风险的危险“挑战”。
有效防范虚假信息和外国干涉:严格控制虚假信息和外国影响行动,维护民主选举的完整性。
对受影响用户的经济补偿。即,TikTok须对每位用户的补偿金额从 500 欧元到 2,000 欧元不等,TikTok在德国拥有约 2000 万用户。对于X而言,每位用户的赔偿金额在 750 欧元至 1,000 欧元之间,德国约有 1100 万用户。
以上总计赔偿款,可能达到令人窒息的10亿美元!
根据欧盟委员会正式发布140页的《欧盟委员会关于禁止人工智能系统实践的指南》,有害操纵和欺骗的AI正属于禁止开发和部署的人工智能类型。
指南认为,有害操纵和欺骗的AI包括了AI系统部署的潜意识技术、故意操纵技术或欺骗性技术三类技术。
潜意识技术指作用于人的意识阈值之外的技术;故意操纵技术旨在影响、改变或控制个人行为,破坏其自主选择;欺骗性技术则通过提供虚假或误导信息影响个人行为。
潜意识技术必须能够影响行为,而人们对此一无所知,无法了解其工作原理或对其决策和价值观以及意见形成的影响。特别是,潜意识技术可能使用通过音频、视觉或触觉媒体传递的刺激,这些刺激太短暂或微妙,无法被察觉。故意操纵技术的例子是感官操纵,即人工智能系统部署背景音频或图像,导致情绪变化,例如增加焦虑和心理痛苦,影响用户行为,造成严重伤害。
而在欺骗性技术中,一个 AI 聊天机器人伪装成一个人的朋友或亲属,使用合成声音试图假装,从而导致欺骗和严重伤害。
因此,指南要求对"深度造假"和聊天机器人进行可见标识,可减少内容被传播到公众之后产生的欺骗风险,并降低对个人观点、信念形成和行为产生有害的扭曲效果。
指南还特别指出,偶尔呈现虚假或误导信息并产生幻觉的生成式人工智能系统可能不会被视为在《人工智能法案》第 5(1)(a)条所述的欺骗性技术范畴内,考虑到生成式人工智能的局限性和技术水平。特别是在系统提供者已充分告知用户系统局限性,并将适当的保障措施融入系统以最大程度减少此类结果。
当然,该批诉讼中如何有效区别《数字服务法》(DSA)、《通用数据保护条例》(GDPR)和全新的欧盟《人工智能法》三大法案的行为适用,仍不够清晰。
最重要的是,Tiktok和X被诉的“剥削性的系统设计”属于人工智能法案中的潜意识技术吗?
需要知道的是,除了中国人工智能立法外,欧盟的《人工智能法》《数字市场法》,以及美国现有针对人工智能的立法中,没有任何直接的条款对人工智能的防沉迷进行明确直接的约束,这一点令人惊讶和费解。
2023年12月12日,欧洲议会在通过的《关于欧盟单一市场在线服务成瘾设计和消费者保护的决议(2023/2043(INI))》立法建议案中,也直言不讳地承认:“尽管欧盟在数字领域(包括DSA或AI法案)存在强有力的演变,但现有欧盟立法中没有充分涵盖”。
这说明,Tiktok和X仍然存在一定的机会,逃脱欧盟人工智能法案首案的“荣耀”。
声明:本文来自互联网法律匠,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。