本文作者:殷嘉宜

摘要

近年来,欧洲极端恐袭案件频发,为遏制极端思想通过互联网传播,欧洲议会通过了一项最新反恐法规,加强对涉恐内容的互联网监管。此法案展现了欧盟对于在线恐怖主义治理较强的监管特色,进一步证明了欧盟对于监管大型平台公司的决心。

https://www.kent.ac.uk/courses/postgraduate/52/security-and-terrorism

前言

2020年12月10日,德国理事会主席和欧洲议会就防止恐怖主义内容在网上传播的欧盟条例达成政治协议。2021年4月28日,欧洲议会通过一项最新法规,要求在欧盟国家境内运作的网络平台必须在接到成员国命令的一小时内删除涉恐内容,否则将面临高达全球营业额4%的罚款。恐怖主义内容在线传播的治理,往往面临在社会安全(互联网安全)和个人隐私保护(互联网言论自由)之间取得平衡的两难局面,也内含政府和大型平台公司在相关责任权利上的博弈。欧盟对于在线涉恐言论的治理方案是什么?大型平台公司对此法案又有何表态?

【一】在线恐怖主义的欧盟治理方案:限平台一小时“删帖”,但平台可拒绝执行

近年来,欧洲成为恐怖主义袭击的箭靶,欧盟境内恐怖主义传播转向互联网的趋势也愈发突出。在此背景下,2018年9月12日,欧盟委员会提出了《防止恐怖主义在线内容传播监管条例》(Regulation on Preventing the Dissemination of Terrorist Content Online),其中包括一小时规则、网络平台的注意义务、托管服务提供商、成员国和欧洲刑警组织之间加强合作的框架、有效的投诉机制等。欧洲联盟基本权利署(FRA)建议修改恐怖主义内容的定义,以及打击恐怖主义指示的术语。2019年4月17日,欧洲议会通过了修订后的提案。为符合有关电子贸易和视听媒体服务的现行法例,修订后的文本规定托管服务提供商履行移除恐怖主义内容的义务,强化了科技公司在防范与治理在线恐怖主义方面的责任意识。

2020年12月9日,欧盟委员会发表的《欧盟反恐议程》(Counter-Terrorism Agenda)升级反恐策略,包括强加打击在线恐怖主义,积极推进跨境反恐合作。在此背景下,2021年4月28日欧盟各成员国就监管在线涉恐言论达成协议,并出台在线恐怖主义法案(The EU Online Terrorism Regulation),通常被称为 “TERREG”或“TCO法规”, 欧盟理事会于2021年3月通过该法案,欧盟委员会在未经欧洲议会全体会议最终表决的情况下于2021年4月推出该文本;该法规于2021年6月生效,并将于2022年6月开始实施。“TERREG”主要内容包括,网络平台必须在接到成员国命令的一小时内删除涉恐内容,否则将面临高达全球营业额4%的罚款。如果服务提供商的主要机构所在的成员国的主管当局认为驱逐令侵犯了基本权利,则有权对其进行审查并阻止其执行。

尽管这是欧盟在线恐怖主义治理里程碑式的进步,但围绕此法案有一定争议,主要焦点落在此法案对于言论自由、获取信息自由、隐私权和法治可能存在的威胁。第一,该法案对于服务提供商在短时间内删除被认为是恐怖主义的内容,将鼓励平台部署使用自动内容审核工具,如上传过滤器。自动化程度的提高可能导致,新闻内容和少数族裔等群体的歧视性待遇等合法内容的误删。第二,该法案呼吁成员国自行指定“国家主管部门”执行驱逐令,而独立司法监督的缺失,可能对言论、集会、结社、宗教和信息获取的自由构成威胁。第三,该法案中的核查程序,没有包含足够的防范国家越权和滥用权力的保障措施。跨境驱逐令中,司法审查的缺失,可能会破坏作为欧洲司法合作基础的相互信任。

【二】Content Regulation(内容管理):欧盟与大型平台公司之间的博弈

在新法案发表一个月后,Facebook负责全球事务的副总裁尼克•克莱格(Nick Clegg)对该法案表示欢迎,并补充说,Facebook将尽最大努力确保法规得到适当执行。在2018年3月,欧盟委员会针对科技巨头发布了关于删除恐怖主义和其他非法内容的广泛指导方针。对此,代表谷歌和Twitter等公司表示欧盟的一小时删帖要求过于苛刻,并批评该指令将可能侵犯言论自由及伤害欧盟的科技经济。

传统上,大型科技企业对于在线恐怖主义的治理只拿出了“删帖”的解决方案。2017年6月,谷歌、Facebook、Twitter和微软宣布成立全球互联网反恐论坛(GIFCT),阻止恐怖分子利用其服务。Twitter在23个月里暂停了近100万个宣传恐怖主义的账户,而Youtube在2017年下半年删除了15万个暴力极端主义视频。虽然这些科技巨头删除反恐言论,做出了一定努力和贡献,但在线恐怖主义的治理仍然存在包括外链技术、机器学习算法的不准确识别等的重大挑战。

然而,2020年12月中旬出台的《数字市场法案》(Digital Market Act,DMA)和《数字服务法案》(Digital Service Act, DSA)为大型平台公司的content regulation提出更多监管要求。在DMA与DSA的框架下,欧盟希望构建出一种“前置”型的解决方案,在罚款以外寻找出content regulation方案。在内容管理方面,DSA规定社交媒体需要迅速删除网上的非法及涉恐内容,大型平台公司也被禁止使用算法传播虚假信息和仇恨言论。月活跃用户超过4500万的大型平台需要就非法内容、对基本权利的负面影响以及对其服务的故意操纵进行年度风险评估。不仅如此,欧盟委员会提出为技术平台建立一个独立的审计机制,以便能够对虚假信息的转播、删除内容的潜在影响以及验证平台关于内容审核的声明等问题进行独立研究。截止2020年,只有Facebook就针对恶意内容提交的通知结果向用户提供了系统反馈。如不遵守DMA与DSA法案,罚款可高达全球营业额的6%-10%。

【余论与总结】

欧盟最新的在线恐怖主义法案(TERREG)以及欧盟contentregulation方案代表了美国和欧盟之前建立的监管方式的强烈转变。就在三、四年前,欧盟委员会还对对平台施加任何约束性规则持谨慎态度。例如,在2018年10月欧盟委员会制定了一项反对仇恨言论和虚假信息的自愿行为守则(Code ofPractice on Disinformation)。如今,通过“TERREG”,欧盟委员会旨在定义有约束力的规则,并制裁违反规定的行为。虽然平台有权审查并阻止政府要求,“TERREG”的定性规制及巨额罚款展现了欧盟对于在线恐怖主义治理较强的监管特色。可以预见,今后欧盟对科技公司巨头的监管力度会持续增大。

声明:本文来自海国图智研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。