文 | 国家计算机网络应急技术处理协调中心 宁珊 熊晶 贺文晨

随着第三次科技革命的快速发展,信息技术正在以新的理念、新的模式对人类生活的各个领域产生新的影响。特别是近年来,以人工智能为代表的信息技术快速发展,推动全球各领域优化升级,驱动我国加速迈入以数字化、信息化、网络化、智能化为主要特征的数字时代。在数字时代,网络乱象也随之出现智能化的发展趋势。网络谣言受互联网社交平台信息传播速度快、数据交互性强以及受众面广等特性的影响,在人工智能技术的“加持”下呈现出新的生产、传播、扩散特点。如何应对人工智能技术与网络谣言治理的问题和挑战,已经成为净化网络环境、营造清朗网络空间的一项重要议题。

一、人工智能技术重塑网络谣言的生成与传播机制

如今,数据、算法及算力的快速发展已使人工智能技术在部分领域取代人力成为社会发展的关键推动力。同时,网络空间开始出现大量人工智能合成技术生成的虚假文字、图片以及音视频等,“有图就有真相”时代似乎已成为过去式,网络谣言在人工智能时代的生产、传播和扩散等环节都发生了全新的变化。

(一)人工智能技术可促使网络谣言“定制化”生成

人工智能技术的广泛普及应用,为网络谣言的生产提供了定制化的可能。网络谣言在人工智能技术背景下可能形成“定制化”的新形态。不同于以文本信息为主的网络谣言形态,在机器学习(ML)、深度伪造(Deepfake)、生成式人工智能(AIGC)等新兴人工智能技术的影响下,网络谣言可能出现文字叠加音视频模拟内容等新的表现形式。网络谣言的文本内容本身已不再是辨识内容真伪的唯一关键因素。例如,可以利用人工智能技术操控视频中人物的语音和表情,或利用视频“换脸”歪曲事实真相,以及快速伪造文字、图片或语音、视频等。在俄乌冲突中,利用人工智能换脸生成的假冒乌克兰总统泽连斯基投降的视频在社交媒体广泛流传,影响了网络舆论。

网络谣言的产生源头恐被人工智能技术“定制化”。互联网时代,存储在数据库中的各类数据构成了网络信息生成及传播的基础。AIGC 能够利用多类机器学习方法从数据中学习不同谣言内容的生成特征以及谣言主体的表达风格,形成定制化的文章、新闻、报告等虚假信息。针对此类谣言的主要做法是通过把控训练数据源头、过滤算法输出结果等方式屏蔽和筛选内容。然而,在生成式人工智能发展过程中,“模型幻觉”的出现使上述方法难以奏效。所谓“幻觉”,是指生成式人工智能生成的内容依赖词和词、句和句间的概率关系,不依赖真实数据,属于大模型自己想象的产物。因此,即便使用准确且合规的数据进行训练,也可能出现不合实际的内容输出,从而加剧网络空间的信息污染。

深度伪造等技术的相关代码已被开源使用,一旦开源技术代码本身带有“非真实性”或“特定立场”意识形态,那么使用这些代码的群体则会助长加速“非真实性”内容的传播速度。此外,以 ChatGPT 为代表的人工智能应用也为网络谣言的“定制化”生产提供了便捷,用户可简单地向应用发起生成需求,便可快速获取或制作大量无可靠信源的内容。例如,利用生成式人工智能写作的关于“某地水灾”的新闻稿和关于“某企业被曝涉嫌大量采集用户隐私数据”的股市资讯,后经证实都系利用人工智能技术捏造的网络谣言。

(二)人工智能技术可促使网络谣言“精准化”传播

人工智能技术也同步重塑了网络谣言的传播路径与特征。基于网民间交互传递的网络信息往往受社交媒体编辑分发与社交群体分发规则和效率的制约与影响。人工智能技术的出现一定程度上缩短了网络信息的传播时间,提高了网络信息的传播效率。例如,基于算法的智能化分发策略的信息传播效率远优于传统网络信息的传播效率,如将其应用于网络谣言的传播,则可能大幅加速网络谣言的蔓延。

智能算法在网络谣言“精准化”传播过程中起到了推波助澜的作用。一方面,基于算法推荐的信息推送传播技术,将搜集的网民个体画像信息进行综合分析后,可更加精准获取易受谣言蛊惑的用户或群体,并对其进行精准推送。另一方面,基于智能算法对上网时间、阅读习惯等目标用户行为特征的提取与分析,能够实现在高曝光率的时间段,通过合理表达方式将网络谣言推送给特定的群体,并不断修正以期达到精细化传播效果。

人工智能技术还能够通过分析不同平台的内容表达与传播方式,实现谣言表达形式与平台特征的高度匹配,在提升网络谣言的逼真性、场景化的同时,进一步催化谣言传播和裂变速度。同时,在智能算法的加持下,网络谣言得以被多个平台推送,使虚假信息的感染链条跨越时空限制,造成严重影响。

(三)人工智能技术可促使网络谣言“智能化”扩散

人工智能技术可能进一步“刺激”网络谣言的扩散。网络信息扩散路径呈网状渗透性结构。从物理层看,常规的网络信息传播是在网络物理结构中不断复制、分流、再复制、再分流的过程。从传播要素看,传播者、网络内容、传播受众、传播渠道等是影响网络信息传播不可或缺的因素。

在人工智能技术背景下,虽然网络信息传播的物理结构没有变化,但是网络传播的要素却可能受技术的影响而发生变化。例如,传播者可能被非真实存在的网民——社交机器人所取代;网络转播渠道可能在深度学习技术的推动下,通过大量的发帖、转发实现时间短、速度高的传播,甚至实现“人机协同”,让网络谣言井喷式“灌向”网民。

同时,ChatGPT 等生成式人工智能技术能够进一步发挥社交机器人的信息宣传与谣言扩散能力。例如,GPT-3 人工智能系统可根据具体的宣传任务,自主确定谣言受众群体、自动生成虚假信息,并模仿特定的表达风格与情绪与用户展开对话,将具有针对性的谣言传播和扩散过程缩短。此外,ChatGPT 等技术能够给为社交平台提供内容生产和运营策略指引,拉低网络谣言生成成本及技术门槛,造成平台谣言四起、信息真伪难辨的网络乱象。

二、人工智能技术背景下我国网络谣言治理面临的问题和挑战

面对人工智能技术对网络谣言生成与传播可能带来的变化,借助人工智能技术治理网络谣言已经越来越成为共识。目前,已有部分大型互联网平台开始应用算法、区块链等新兴技术打击和治理网络谣言。但是,在人工智能技术的冲击下,网络谣言治理仍然存在许多现实问题和挑战。

(一)互联网平台治理网络谣言的能力水平参差不齐

互联网平台作为网络信息传播的重要载体,在维护良好网络环境中发挥重要的基础性作用。目前,我国部分大型互联网平台已经初步形成较为完整的网络谣言发现与处理机制,依托关键词识别、算法推荐等技术手段,初步构建了集谣言发现、识别、打击于一体的全流程机制,能够通过预警、分析、验真、标记、辟谣、拦截等手段快速有效地应对网络谣言。例如,阿里发布的 AI“谣言粉碎机”,利用人工智能技术遏制社交媒体和网络谣言的传播。但是,也有部分平台的技术治理水平较为落后,停留于对依赖人力进行谣言处置的阶段,并对大模型等相关技术发展可能带来的风险缺乏相关风险意识,更缺乏对已传播谣言实施精准辟谣的能力。不同平台在治理网络谣言方面的能力差距,将在一定程度上制约网络谣言治理的整体效果。

(二)应对智能化发展的网络谣言的技术储备尚显不足

现阶段,大多数平台通过提取规模化文本深层语义特征检测谣言内容,常以关键词查询过滤为主要鉴别方法,即对已被证实为谣言的内容信息,采取自动“打标签”的方式进行辟谣,同时,辅以算法推荐技术对已接受谣言的群体进行针对性辟谣。但是,随着网络谣言借助人工智能技术呈现出的高拟真形态、高裂变扩散能力、高跨圈层穿透力、高变化性等特征,亟待补齐现有技术手段在应对网络谣言时存在的短板。

在识别网络谣言方面,现有的谣言识别算法技术多聚焦于文字内容,对于文本形态之外的图片、声音、影像等多媒体内容的检测能力较弱。同时,面对海量传播数据,运用技术手段识别谣言的精度与速度之间的矛盾尚未解决。

在打击网络谣言方面,现有的技术手段还是以被动应对为主,目前所使用的关键词查询、过滤等技术尚处于随着网络谣言内容变化而不断调整的被动局面。在实践中,网络谣言内容可能会随着检测技术的调整而进化,直至让检测技术失效,现有技术模式不足以实现对网络谣言的源头性打击。

从技术对抗的角度出发,运用技术创新反制技术造假仍将是一个长期博弈的过程。目前,针对呈现出智能化新特征的网络谣言的技术反制能力,尚有欠缺。

(三)应对智能化发展的网络谣言的管理措施仍有缺位

相较于传统网络谣言,智能化发展背景下的网络谣言具备“定制化”生成、“精准化”传播、“智能化”扩散的新特征,这使网络谣言传播带来的复合风险更大、治理难度更高。目前,针对智能化发展的网络谣言治理,我国现有管理措施存在工作协同机制不完善、行为标准不一、技术发展保障机制不足、治理效果评价体系缺位等问题。

基于智能化传播扩散的网络谣言特性,对网络谣言的治理需要在全平台铲除谣言滋生土壤、切断谣言传播链条。在实践中,常常能看见在某个网络平台已被辟谣的内容仍在其他平台大肆传播,这反映出平台间缺乏处置网络谣言的协同治理机制,网络谣言治理的效率及协同性不高。同时,由于不同平台的传播特性、技术特性、运行方式等,平台在客观上对谣言识别、证伪、拦截等采取的技术水平也存在差异,在网络谣言的治理过程中缺乏统一的行为标准,影响整体的治理效果。

在管理制度方面,目前我国还缺乏对网络谣言治理的效果评价体系和技术发展保障机制。在制度缺位的情况下,许多平台对谣言的治理呈现“运动式”“选择性”治理的特征,导致平台主体责任落实不到位,缺乏开展谣言治理工作和相关技术应用研发工作的积极性。

三、关于人工智能技术背景下网络谣言治理的对策建议

当前,我国网络谣言治理效果不断彰显,网络谣言治理已经基本打通了主动发现、联合查证、权威辟谣等关键环节,有效减轻了网络谣言带来的负面影响。但是,面对人工智能技术带来的挑战,要持续强化网络谣言的治理效果,仍需要有针对性地强化法治化作用,进一步完善协同治理机制,加快形成有效的技术处置手段,并培育形成良好的全民自觉抵制网络谣言的基本素养。

(一)强化法治作用,以统筹发展和安全为根本原则,进一步规范技术要素管理

我国现有的关于网络谣言治理的法律框架涉及民事、刑事、治安管理、网络内容管理等领域,已初步形成了较为完备的规制框架。但是,目前的法律条文仍在一定程度上缺乏关涉人工智能技术管理的针对性措施。对此,要尽快着眼于人工智能技术的发展背景,谋划网络谣言治理的制度体系、法律法规与行动框架,强化针对人工智能技术的综合治理能力,例如从数据复核制度、数据管理制度、数据运用制度等方面设计针对算法治理的相关制度,从源头防范信息保护和使用问题,在制度层面引导人工智能领域的行业自律,鼓励大数据、人工智能等先进技术在兼顾安全的同时开展应用创新。在法律适用方面,加强法律法规中涉及网络谣言的民事、行政与刑事责任的衔接,优化谣言治理的具体标准,平衡好国家安全、社会秩序以及公民的知情权、表达自由、人格权的关系。同时,加大对网络谣言的法律惩治力度,充分压实平台责任,做到罚当其罪、罚当其过,进一步提高造谣者、传谣者的违法成本,从根源上降低网络谣言的产生可能性。

(二)强化协同作用,以共治共享为目标,完善谣言治理机制与平台

应进一步加强政府、企业、媒体、专业机构等各方的协作治理能力,从多个维度和角度入手,全面有效地遏制网络谣言的传播和影响,保护公众、社会以及国家的利益和安全。应联合有关单位和部门共建协作治理谣言的机制和技术平台,建立谣言有害样本共享库,及时更新谣言发布人等级分类、IP 属性等信息,通过构建人物画像库从而实现对谣言生产者和受众的精准分析;互联网平台间可以就用户的资质审核、声誉等级、账号监管、内容监管等方面达成一定程度的共识,在一定范围内制定跨平台的行业社群规则,并开放共享溯源、核查、打标、推送等技术能力,联合研判不实信息线索、核实存疑内容,形成良好的共治共享格局。

(三)强化平台主体责任,督促其尽快提升技术储备及风险意识

网络平台是网络谣言传播的主要载体,有效的平台内部治理机制对网络谣言治理发挥着重要的“止损”效用。平台应充分发挥自身对于网络谣言治理的主体责任,提升应对人工智能技术给现有治理方式带来冲击的风险意识,积极开展针对网络谣言反制技术的研发与运用,提升对算法模型的不断优化以及提高识别、控制与更正智能化谣言的能力,提早防止和及时阻断智能化网络谣言的传播与扩散。在发现网络谣言之后,要及时予以删除处理、切断传播路径,并积极进行网络谣言的源头打击,增强溯源及识别能力,对发布谣言的相关主体采取相关的惩罚措施。同时,应建立专门的辟谣通道,由专业团队基于用户投诉、政府机构与新闻媒体反馈等机制准确发现和识别谣言,进行联合辟谣。

(四)提高公民媒介素养,提升用户在治理环节的参与度

网民是维护塑造清朗网络空间的有机力量和根本要素,只有不断提升网民文明上网的自觉意识,才能从根本上保障网络空间的天朗气清。要进一步通过公共宣传等渠道提高网民的信息甄别能力,倡导网民不随意转发扩散未经证实的信息,促使网民养成文明的上网习惯。同时,也可以通过进一步健全激励机制,鼓励网民积极对网络违法行为和有害网络信息进行举报和监督,推动网络空间治理成为社会大众共同参与的常态化行为而非平台专项行动,让营造风清气正、天朗气清的网络空间成为社会各界的共同追求。

(本文刊登于《中国信息安全》杂志2023年第8期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。