转载请注明“刊载于《电子政务》2025年第5期”。
引用参考文献格式:
黄静,韩松言,田宇航. 生成式人工智能深度伪造风险的样态特征、生成逻辑与监管策略[J]. 电子政务,2025(05): 31-41.
摘要:深度合成是生成式人工智能最主要的技术,具有超拟真、反鉴别、快更迭、通用性强等特征,由此衍生出的深度伪造风险日益严重,亟待监管治理。结合典型案例分析和扎根理论,发现这一风险在样态上呈现出技术架构中嵌套性内生风险和层级化衍生风险相互交织的特征;其生成逻辑主要包含技术路径和内在机理两个面向,前者呈现出“特征提取-图像转换-生成整合”的理路,后者则表现为一个动态化系统,是技术、制度和环境因素相互联动和叠加的产物。在此基础上建立了包含深度伪造风险的识别、评估和应对在内的全链条监管策略。
关键词:生成式人工智能;深度合成技术;深度伪造;监管策略
DOI:10.16582/j.cnki.dzzw.2025.05.003
一、问题的提出
生成式人工智能(generative artificial intelligence,GAI)强调在归纳学习后进行演绎创造,通过模仿和缝合式的生成创作以产生全新的内容[1],深度合成(deep synthesis)是最主要的技术。与传统人工智能基于预设规则和训练算法不同[2],深度合成利用深度学习、虚拟现实方式等生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术[3],具有生成内容的定制化、技术整合集成化以及表现形式拟真化等特点。深度合成技术在给人类带来丰富体验感的同时,其滥用也导致深度伪造(DeepFake)风险。奇安信发布的《2024人工智能安全报告》显示,2023年全球基于生成式人工智能深度伪造欺诈增长了30倍。因此,如何规范深度合成技术的应用、防范深度伪造风险,是当前智能社会治理所面临的棘手问题。本文以深度伪造风险的样态分析为逻辑起点,并基于技术和内部视角对其生成逻辑进行解析,在此基础上对可能的高风险应用场景提出从风险识别、评估再到应对的全链条监管策略。
二、文献评述与研究方法
(一)文献评述
当前,学界对深度伪造风险监管的讨论呈现出基于价值导向聚焦法制完善的特点,表现为以下两种观点:一是认为深度伪造风险必须纳入法律和政府层面的严格监管。其原因在于这一风险已经对社会秩序和国家安全造成了严重冲击和损害[4],不仅加剧了国际社会中本已存在的“信任赤字”,而且在国防安全、政治安全、经济安全和国民安全等领域制造了更多、更复杂的治理问题[5]。其本质上涉及个人生物识别信息的滥用和身份盗窃行为[6]。因此,有必要在刑法中引入“身份盗窃”或“身份冒用”的概念,并将平台、制作者和受众均纳入监管体系,以实现严格规制[7]。二是基于“工具说”的价值观念,认为深度合成技术应被视为辅助人类进行社会活动的工具,并无赋予其权利能力的疑问[8]。对于深度伪造风险的监管应根治“柔性”监管思维和弹性思维观念[9],明确管理主体并构建层次分明的责任体系,以实现法律与技术的共存共融[10]。这种观点主张以“两面性”的视角控制监管力度。认为技术应用的差异化会导致两极化的结果。当技术的应用导致潜在风险向现实危害后果转化时,需要刑法等强势监管工具的介入;而当技术被应用至社交、娱乐场景,表现出“友好面相”时,则应运用劝诫、约谈等放松型的监管工具[11]。此外,也有学者提出了深度伪造风险监管的关键方法,指出需要尤为注意深度伪造风险的内部不确定性与法律行为之间缺乏一致性的问题[12]。与此同时,监管过程中执法行为缺乏规范可能会成为一个影响深度伪造风险监管效能的严重隐患,会导致公民的权益进一步受到损害[13]。在此基础上,运用人权方法监管深度伪造风险的思路也被提出并被进一步发展[14]。
综上所述,已有研究多是基于价值层面探讨深度伪造风险监管的理路,抑或关注法制健全,提出了诸多提升监管效果的路径。但深度伪造风险作为一项颠覆性技术发展过程中的负面效应,对其监管理应始于风险自身的样态及生成机理,并据此制定动态、精准、有效的监管机制和具体举措。然而,已有研究对这一方面的内容探讨较少,由此提出的相关监管建议可能会陷入落实困难和同质化执行的窠臼。
(二)研究方法
本研究运用了案例研究法和扎根理论相结合的混合研究方法。在新浪微博、X(原Twitter)、Facebook、新浪网等国内外社交媒体及主流新闻网站上选取了177个深度伪造风险的典型案例进行研究(部分案例参见表1)。选取标准有两个:第一,是否引发了社会的广泛讨论。以阅读、评论或转发量是否超过5000次为依据。第二,是否引起了官方重视。以官方媒体是否对其进行公开报道为依据。通过对这些典型案例的分析,梳理了深度伪造风险的样态特征。再运用爬虫技术,以“深度伪造”“深度伪造风险”“AI换脸”“AI欺诈”“Deepfake”“Deep fraud”等作为关键词,在百度、Google、夸克等国内外搜索引擎中进行检索,共收集数据102987条,内容涵盖文字新闻报道、视频新闻报道、官方通报、学术研究、受害人采访视频、网友评论及专家点评等多种类型。在筛除广告、重复内容等与研究主题不相关的内容后,对收集的数据进行文本转换,最终获得9589条有效文本数据,约合12.7万字。运用Nvivo 14.0软件对原始数据进行编码,归纳深度伪造风险生成的内在机理。
三、深度伪造风险的样态特征
解析风险样态是监管的逻辑起点[15]。根据“技术分层架构-风险分层架构-风险类型架构”思路[16],通过对典型案例进行分析和特征归纳,发现深度伪造风险的样态呈现出技术分层架构中嵌套性内生风险和层级化衍生性风险相互交织的特点。一方面,深度伪造风险样态在表现形式上呈现出较为明显的结构性特征,与深度合成技术的分层架构相对应,包括内容层面的数据安全风险、服务层面的个人/组织/社会/国家的安全风险、网络层面的网络安全风险以及设备层面的算法安全风险和数字基础设施安全风险。但在层次上,根据风险源的差异,表现出内生风险的嵌套性和衍生风险的层级化特征相互交织的特点(参见图1)。
(一)内生性风险:“算法-设施-网络-数据”的嵌套性特征
深度伪造的内生性风险是指由技术本身的特性以及技术发展过程中所引发的一系列内在风险,呈现出设备层面的算法安全风险、数字技术设施风险、网络安全风险以及数据安全风险相互嵌套的特征。
⒈算法安全风险
算法安全风险是指在使用算法进行自动化决策过程中面临的攻击、侵入、干扰、破坏和非法使用及意外事故[17]。主要表现为两种形式:一是算法的不可解释性问题。深度学习算法通常包含数以亿计的参数,这使得其推导逻辑成为“不可观察的黑箱”。这就会导致当深度伪造风险造成实际损害时,由于不可解释性,责任归属变得模糊,影响了责任追究的有效性;二是模型存在被攻击的风险。通过对抗性攻击手段,如提示注入和输入扰动,模型可能会被操纵以产生错误或有害的结果。同时,模型的关键信息,如核心结构、权重参数和偏差,可能遭到窃取、复制或篡改,可能被用来制造深度伪造内容。
⒉数字基础设施风险
数字基础设施是深度合成技术的底层架构,其安全状态决定了深度伪造风险的演化与变异。与模型训练密切相关的算力、网络和软硬件等数字基础设施主要面临着被后门攻击的隐患。例如,2024年10月,包括ChuanhuChatGPT、Lunary、LocalAI和DJL在内的多个开源模型被披露存在安全漏洞,其中一些漏洞可能导致远程代码执行或信息盗窃,为制造深度伪造内容提供了可乘之机。
⒊网络安全风险
网络是深度伪造风险传输和传播的重要途径,其产生的风险包括身份认证与访问控制以及信息泄露两类。首先,深度合成技术可生成高度逼真的面部、声音等生物特征伪造内容,从而轻易绕过基于生物识别的身份认证系统。例如,攻击者利用深度伪造的面部视频或音频,通过虚拟摄像头等工具将伪造图像直接输入系统数据流,实现数字注入攻击,使系统误认为是合法用户的生物特征,进而获得非法访问权限。其次,深度合成技术的滥用可能会导致个人的面部图像、声音样本等敏感信息被窃取和滥用。这些信息可用于训练更逼真的伪造内容,进一步扩大攻击范围和危害程度,甚至可能引发连锁反应,导致更多关联信息的泄露,乃至利用深度合成技术篡改或伪造重要数据和文件,如在金融交易记录、医疗病历、法律文件等关键领域制造虚假信息,破坏数据的真实性和完整性。
⒋数据安全风险
其一,有毒性的训练数据和不精确的标签可能导致数据安全风险的产生。深度合成技术所依赖的训练数据源自真实世界,因此可能包含有害信息或被恶意篡改,不精确的数据标注会降低数据的整体质量,从而可能引发输出错误、产生非法内容以及造成偏见等风险。其二,未经净化的训练数据可能会导致敏感信息的外泄。数据要素天然具有外部效应,用户向在线平台共享其数据或在训练过程中,可能也会透露其他人的信息[18]。如果这些数据没有得到适当的保护、筛选或脱敏处理,就可能造成敏感信息的泄露。例如,在2024年11月,埃隆•马斯克所创建的X公司在其隐私政策中提到,用户信息可能会与第三方合作伙伴共享,这可能会被用于制造深度伪造内容。
(二)衍生性风险:“个人-组织-社会-国家”的层级化特征
深度伪造衍生性风险是指由技术的应用、滥用或谬用所引发的一系列次生风险。深度合成技术深度合成的图片、音频或视频等产品直接被个人、组织、社会和国家四个层面所使用和消费。因此,这类风险的不良影响主要集中于服务层,呈现出由高到低的层级化特征。
⒈个人层面风险
深度伪造技术在个人权益侵害维度主要表现为对公民人格权的系统性威胁。根据《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,公民隐私权保护范围已从传统的身体隐私扩展至数字化人格权益,包括既往公开但具有再隐私化必要性的个人信息。然而,通过深度合成技术制作的虚假影像资料,实质上构成了对公民隐私权的技术性侵犯,并可能衍生出“深度色情”(deep porn)这一新型侵权样态。与此同时,当前深度合成技术的演进已突破传统的面部替换范畴,延伸至声纹合成领域。我国民法典虽确立人格权编,但尚未将具有身份识别功能的声纹特征纳入声音权保护范畴。由此,个人层面的深度伪造风险既可能引发新型民事侵权纠纷,又可能因法律定性模糊产生道德风险溢出效应。
⒉组织层面风险
其一,导致组织声誉受损。伪造的内容可能包含对组织的诽谤或不实陈述,误导公众,从而破坏组织多年来建立的良好形象。其二,组织安全威胁。深度合成技术可能被用于网络钓鱼攻击,模拟高层管理人员的声音或形象,诱骗员工泄露敏感信息,如财务数据或登录凭证,这不仅威胁到组织的数据安全,还可能导致更广泛的网络安全问题。其三,组织的知识产权也可能受到侵犯。品牌标识、产品图片或技术文档可能被非法复制和使用,这对组织的合法权益构成直接威胁。其四,遭受财务损失。深度伪造风险可能导致市场信心下降,影响股价和投资,造成直接的经济损失。同时,随着监管机构对深度合成技术的监管越来越严格,组织需要确保其操作符合不断变化的法律法规,否则可能面临罚款和其他制裁,由此导致运营成本的增加。
⒊社会层面风险
深度伪造风险可能放大社会阶层矛盾,将未妥善解决的冲突转化为公共安全事件。深度合成技术可能编造富人与穷人、执法者与经营者、企业经营者与员工之间的冲突。由此生成的视频或图片在互联网上的大规模传播可能引发舆情危机,激化社会阶级矛盾,加剧社会分化。与此同时,也存在引发社会对公共机构信任危机的隐患。2023年,一段伪造的美国移民及海关执法局官员使用种族主义语言讨论移民的视频再次引发舆论危机和广泛抗议。这些事件表明,深度伪造风险对国家公共部门的公信力可能产生严重的消极影响,尤其在公众长期对公共机构持不信任态度的国家或地区,这种风险可能导致更严重的政治后果。
⒋国家层面风险
其一,深度伪造风险可能会威胁公共安全。深度合成技术提升了虚假证据的可信度,尤其在社交媒体的助力下,虚假信息的传播速度和范围呈指数级增长。这种传播可能引发民众恐慌,对公共安全构成威胁。正如前美国大法官奥利弗•温德尔•霍姆斯所言,“在拥挤的剧院里错误地喊着火是危险的”,隐喻了虚假信息传播可能引起的恐慌和混乱。2022年,印度有人利用深度合成技术,在网络上随机搜索了20余名刑满释放人员的照片,仿造了10多段犯罪视频并上传至社交媒体,引发了公众巨大的恐慌和无辜人员遭受暴力致死。凸显了深度合成技术、虚假信息与媒体传播在当今时代的深度结合对公共安全的直接威胁。
其二,深度伪造风险会破坏国际关系及形势稳定。在国际政治框架下,战略性互信是全球性协作与多边主义架构的基石。深度合成技术与其他变革性技术的融合可能削弱全球及地区性多边组织和国际关系参与者之间的信任。以2019年印巴紧张关系升级为例,路透社揭露了约30个与该事件相关的深度伪造视频。这些视频多源自2017年印巴冲突时期,记录了两国一些城市居民对对方的抗议活动。某些“有意者”通过深度合成技术对这些视频进行了篡改,故意将其标记为印巴当前正在发生的事件。这些经过人工合成的深度伪造视频极大地激化了两国民族主义者的情绪,使得紧张局势进一步恶化。
四、深度伪造风险的生成逻辑
(一)深度伪造风险生成的技术路径
“换脸”是深度伪造人脸图像合成方法里最典型也是最具安全威胁的方法,其旨在替换目标图像中的人脸区域为特定身份的人脸图像。由此引发的深度伪造风险的生成从技术角度可划分为特征提取、图像转换和图像整合三个关键步骤(参见图2)。
首先,特征提取步骤涉及构建分类和回归模型,这些模型能够实时从图像中提取预定义特征,用以描述图像的局部纹理特征[19]。同时,这些模型亦可在预设的特征空间中进行训练,或利用神经网络(如卷积神经网络)[20]直接从数据中学习人脸特征,并进行分类和回归分析。在训练阶段,需收集标记人脸位置的图像作为正样本,以及不包含人脸或人脸信息不完整的图像作为负样本,并基于这些样本的特征进行模型训练。通过比较分类结果与样本标注的差异,不断调整模型参数,直至检测和定位的准确性达到满意水平。人脸成功定位后,识别人脸中的标准关键点是下一步。对于深度伪造视频的制作,技术步骤与伪造图像类似,即将视频分解为单帧图像,对每一帧进行定位、特征提取、面部转换和图像合成,最后将处理后的图像序列重新组合成视频[21]。
其次,在图像转换步骤中,神经网络自编码器技术将校正后的人脸图像转换为目标人脸图像[22]。自编码器由编码器和解码器组成,编码器负责压缩图像数据,而解码器则将压缩数据恢复成图像。这一过程需要训练自编码器模型,以确保通过解码器重建的图像与原始图像高度相似。两个自编码器的编码器部分参数相同,而解码器部分则有所区别,以便通过统一的编码器提取的特征捕捉人物A和人物B的共有特征,然后通过不同的解码器将这些特征转换成不同的人脸图像。训练完成后,实现人脸A到B的转换,只需将人脸A的图像输入编码器以提取特征,再使用解码器进行图像重建。
最后,伪造图像的整合过程需要利用基于生成对抗网络(GAN)的图像合成技术来完成。生成对抗网络涉及同时对生成器和判别器进行训练。生成器接收随机噪声信号或特定图像作为输入,创建计算机生成的图像,而判别器的任务是区分合成图像与真实图像[23]。在训练阶段,生成器的目标是制造出足以迷惑判别器的图像,而判别器则致力于从众多真实图像中识别出合成的假图像。随着判别器识别能力的增强,生成器和判别器之间形成竞争关系,促使生成器不断提升其生成图像的真实度[24]。
(二)深度伪造风险生成的内在机理
扎根理论能够高效地对信息进行分类和总结,并在此过程中形成概念,同时通过开放性编码、主轴编码和选择性编码三个主要步骤明确这些概念之间的逻辑联系。在这一基础上,通过不断地检验和修正,构建出一个初步的理论框架。
⒈开放性编码
开放性编码是扎根理论研究中模型构建的起始阶段。这一步骤的核心任务是深入且全面地对原始数据进行分析和编码,为理论的发展打下坚实的基础。应用Nvivo 14.0软件,对文字资料进行逐一的节点编码分析,识别出初始概念。
⒉主轴编码
主轴编码的主要目标是建立不同概念类属之间的联系。在这一过程中,将开放性编码阶段得到的初始概念进行分类和比较,围绕中心类别构建关系,明确概念间的联系,并提炼出副范畴。再通过选择性编码进一步分析副范畴之间的关系,以识别主范畴。依据开放性编码和主轴编码的结果,根据语义联系和相似性对初始概念进行比较、归纳和抽象,并在此基础上进一步归纳出副范畴、主范畴和核心范畴。依据语义联系和相似性,最终总结出数据的不确定性、算法的不确定性、逐利动机、技术至上的价值观念等16个副范畴;包括技术自身的局限性、技术开发者的观念异化以及技术与社会的单向互动等8个主范畴,并据此提炼了风险源、风险诱因和风险传播的3个核心范畴(参见表2)。
⒊选择性编码
选择性编码的主旨在于识别并深化核心范畴。其核心工作是通过不断地对经验材料进行对照,检验不同范畴之间的逻辑联系,并构建起一个连贯的“理论框架”,揭示范畴之间的内在联系。通过对编码结果的反复分析和对照,最终归纳出深度伪造风险生成的内在机理(参见图3)。
深度伪造风险的持续生成与转化表现为一个动态化系统,遵循着“风险源生成-风险影响扩大-风险传播扩散-风险爆发”的基本理路,是技术、制度和环境因素相互联动和叠加的产物。其生成逻辑在于:从内部看,深度合成技术算力的迅猛增长和应用模式与场景的持续演化共同构建出复杂的技术体系。这一体系自身即存在着数据和算法不确定的内生局限性;从外部看,深度合成技术开发者可能会在利益的驱使下,秉持“技术至上”和“功利主义”的价值观,从而在产品的设计过程中并非以人类福祉为最终目标,由此带来了难以预知的风险。上述内外部因素相互叠加最终导致技术与社会的单向互动的衍生性因素,表现为公众监督渠道的匮乏以及社会反馈机制的不畅,由此产生了深度伪造风险源。在此基础上,制度因素直接作用于此,并进一步使得技术的不确定性转化为社会风险。根据风险社会放大机制,由于技术创新中伦理审查缺位及技术伦理和向善文化缺失共同导致的伦理规约失效、以监管主体规范尚未建立和监管闭合链条尚未建立为主要表现的机构监管失能,以及模糊性表述下监管配套措施缺失的法律约束失范共同构成了深度伪造风险的“放大器”,并通过社交媒体、移动终端等传播媒介,在促进技术创新的同时进一步扩大了深度伪造风险的传播范围和破坏力,最终表现为内生性和衍生性的双重风险。
⒋理论饱和性检验
理论是否饱和是评估扎根理论研究是否达到终点的重要标准。为了确保理论模型的科学性和可验证性,对预先保留的200份文本再次进行了三级编码过程。在这一过程中,所有编码结果均已包含在现有的范畴内,没有发现新的概念或范畴,所构建的理论框架通过了理论饱和度的检验。
五、深度伪造风险的监管策略
通过上述研究可以发现,深度伪造风险在样态上呈现嵌套性内生风险和层级性衍生风险相互交织的特点,其生成逻辑也是技术、制度和环境等因素共同作用的结果,体现在风险生成、影响扩大和传播扩散的各个环节之中。这就要求必须构建从风险的识别、评估再到应对的全链条监管策略(参见图4)。
深度伪造风险全链条的监管策略涵盖深度合成技术从规划设计到数据处理、模型建设,再到测试验证和部署上线的全流程之中,主要包含风险识别、评估和应对的三方面内容。在风险识别环节,首先构建显隐标识结合的识别技术框架。在此基础上,以确保技术的安全性、可靠性和可控性为目标,从数据、算法系统、软件和基础设施四个关键要素对多维风险要素进行解构,并建立异常识别与风险阻断的风险监测体系。在风险评估环节,构建了由基础共性标准、行业应用标准和安全伦理标准在内的风险评估标准体系及风险的量化评估机制,并对于“高级优先”“中级优先”和“低级优先”风险采取不同的分级管理措施及资源配置思路。在风险应对环节,需在明确深度合成技术的提供方、应用方等多元主体责任的基础上构建深度合成技术的动态监管机制并加强国际合作治理。
(一)构建分层分类的识别机制
风险识别是监管深度伪造风险的第一步,涵盖技术本身和其衍生应用的各个层面。随着生成式人工智能和深度合成技术的不断发展和广泛应用,精确识别系统化的风险成为监管的核心工具。风险识别是指识别和描述在深度合成技术生命周期中可能导致不利影响的不确定性和潜在威胁,为后续的风险评估和应对提供基础。
⒈识别框架构建:显隐标识结合的识别技术框架
2025年3月,国家互联网信息办公室、工业和信息化部、公安部和国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《办法》),并将于9月1日正式施行。《办法》指出要构建显性标识和隐性标识相结合的深度伪造风险识别的技术框架。具体而言,在深度合成内容的显性标识中,所有深度合成内容(如换脸视频、合成语音、虚拟场景等)必须在交互界面或内容本身显著位置添加可感知标识,例如文字提示(如“AI生成”)、语音提示、角标或视频水印,确保用户能直观识别内容的合成属性。此外,也需要明确诸如文本、音频、视频及虚拟场景等具体的场景规范;隐式标识技术则需要在文件元数据中嵌入不可见的技术标识,包括生成合成属性信息、服务提供者编码、内容编号等,为后续追溯和验证提供技术基础。并鼓励采用数字水印等抗篡改技术,确保标识在内容传播过程中不易被恶意删除或篡改。
⒉风险要素解构:多维风险识别的安全策略
识别深度伪造技术风险的目标是确保技术的安全性、可靠性和可控性,涉及数据、算法系统、软件和基础设施四个关键要素。在数据层面,应重视数据来源的合法性和质量,例如通过数据脱敏和匿名化技术减少敏感信息泄露的风险,实施实时数据质量检测和偏差检测,及时发现不完整或被篡改的数据集;在算法模型层面,应集中于模型的鲁棒性和透明度评估,例如通过对抗性训练和压力测试评估模型在异常输入下的稳定性,并结合可视化工具和可解释性算法分析决策逻辑,减少因不透明性导致的风险;在基础设施层面,侧重于关键硬件和计算资源的保护,可以利用监控技术识别恶意占用或滥用行为,应用硬件指纹和加密认证技术确保计算资源的安全,并在硬件受损或遭受攻击时实施多级应急响应计划,以快速恢复服务。
⒊风险监测体系:异常识别与风险阻断的协同机制
首先,应通过建立基于行为模式的异常监测系统,实时监控技术的运行状态,以便及时发现任何异常行为。这种系统能够分析和识别出偏离正常行为模式的异常事件,从而为监管机构提供即时的预警。其次,应利用跨阶段审查工具,全面跟踪从开发到应用的整个过程,包括对技术的设计、开发、测试、部署等各个阶段进行细致的审查,确保深度合成技术在每个阶段都符合安全和合规性要求。通过这种方式,监管机构能够及时发现并解决潜在的风险点,防止风险的扩散。最后,还应加强对深度合成技术各层次风险的研判能力,部署先进的监控系统,以行为模式为基础进行异常检测。这不仅涉及技术层面的风险识别,还包括其可能引发的社会、法律和伦理问题的综合评估。
(二)健全系统科学的评估体系
对深度伪造风险进行系统、科学的评估是为了量化风险的严重性,预测其可能对个人、组织乃至整个社会造成的影响,以及这些影响发生的概率。同时,也能够确定深度伪造风险的可接受阈值,并据此确定风险的优先排序。
⒈标准体系构建:分层框架与技术验证
对于深度伪造风险的科学评估需要以统一的标准为前提。为此,应构建风险检测标准的统一框架。首先进行标准体系分层,共分为三个层次:一是基础共性标准。需要定义深度伪造技术分类,如换脸、语音合成、文本生成等不同类型、数据格式规范,检测算法性能指标,如误报率、实时性等。二是行业应用标准。针对金融、政务、社交媒体等不同应用场景,制定差异化的风险检测要求。三是安全伦理标准。明确检测过程中的隐私保护和算法透明度要求。在此基础上,要通过建立国家级深度伪造检测测试平台,构建包含视频、音频、文本等在内的多模态开源数据集,覆盖高仿真伪造样本,由此加强技术验证与基准测试。
⒉量化评估机制:多维分析与工具创新
这一过程为每个已识别的风险赋予一个潜在损失值,为后续的风险评估和应对提供量化基础。首先,需要确立一个清晰的风险分析框架,以增强评估结果的可靠性和时效性。一个合理的框架应详细列出需要量化的各种损失,如直接的财务损失、企业声誉的损害、法律诉讼等可能导致的赔偿和惩罚,以及对社会秩序和伦理的潜在影响。其次,广泛搜集所需信息。充分的信息是有效分析风险的基础。因此,分析流程应与风险识别紧密相连,确保所有相关信息都被纳入分析范围。在分析过程中,监管机构应进行调研,全面了解风险所处的法律、经济、社会和伦理环境,从多个角度全面理解潜在风险。最后,选择有效的分析工具。在量化损害程度方面,通常采用定量分析方法,如概率风险评估、影像分析等,以确定风险的直接损害程度;在分析影响范围方面,可以通过分析风险事件可能影响的地理范围、受众群体及其社会经济特征,评估风险对国家经济安全、社会稳定、公众信任度、个人权益等方面的深度和广度。
⒊风险分级管理:优先级划分与资源配置优化
风险是任何系统的固有组成部分。完全消除所有风险既不现实也不必要。因此,深度伪造风险的监管应在风险分析的基础上,对不同风险进行排序,并制定相应的应对策略。首先,制定灵活的风险可接受度评价标准。风险可接受度与现有的风险应对技术、组织能力和资源紧密相关,同时也受到应用场景的限制。法律和监管要求、行业标准、社会伦理和经济发展水平都可能影响风险的可接受度。因此,监管机构应采取有效方法,灵活调整可接受度评价标准。其次,基于风险严重程度和可接受度的权衡,评价风险优先级。对于严重程度远高于可接受度的深度伪造风险,可以划定为“高优先级”风险。对于严重程度相当于和远低于可接受度的风险,则可以划定为“中优先级”和“低优先级”风险。最后,构建包含规划、策略和技术工具的综合风险管理方案。鉴于资源有限,监管机构需根据风险评估结果和优先级,合理配置管理资源,基于“成本-效益”分析确定合适的管理策略。如果“高优先级”风险对特定应用场景的影响显著且短期内难以缓解,监管机构应优先考虑风险规避,可能推迟或取消相关技术的部署。若存在低成本措施能有效降低风险发生的概率或减轻潜在损害,组织应选择风险缓解。对于“低优先级”风险,可以选择接受风险,并持续监控。对于那些可能导致重大经济损失但社会影响较小的风险,可以通过购买保险等方式进行风险转移。
(三)制定协同合作的应对策略
风险应对是检验深度合成技术监管成效的核心步骤。在对相关风险进行识别和评估之后,需要采取具体的措施来减少、缓解或控制这些风险,以保障生成式人工智能和深度合成技术的安全可靠应用。依据风险评估的结果,制定并执行风险应对策略,以应对或消除风险。
⒈责任主体协同:技术研发与部署监控的治理联动
技术提供方作为深度合成技术的基础能力构建者,应专注于数据处理、模型开发、软件架构和基础设施建设,并在系统设计和开发阶段遵循风险治理原则及机制,确保系统的安全性、透明性和可控性。应用提供方作为深度合成技术的产品打造者,需根据业务需求制定部署方案,并在实际使用中持续监控和评估深度合成技术的表现,及时发现并应对潜在风险。双方应建立沟通合作机制,通过信息共享和协同制定深度伪造风险识别、评估与应对策略,提升行业整体的风险治理能力。
⒉动态监管机制:效果评估与经验共享的迭代优化
首先,应定期评估风险应对措施的效果,并进行必要的改进。实施风险管理措施后,监管机构应评估剩余风险,包括已采取措施后仍未完全控制的风险,并与设定的风险可接受度进行比较,以决定深度合成产品是否满足特定场景的部署要求。如果发现风险缓解措施未达到预期效果,需要及时进行改进或更新技术手段。其次,积极分享风险管理的最佳实践,以提升整个行业的安全水平。监管机构应与行业内外的相关方分享其在深度伪造风险管理过程中积累的经验,帮助其他组织提高风险管理能力,从而增强整个行业的整体风险应对能力。
⒊国际合作治理:框架构建与规则互认的跨国合作
生成式人工智能深度伪造风险具备跨国性、技术复杂性与社会危害性,要求国际社会建立高效协同的监管机制。首先应构建多层级的国际协同治理框架。强化国际组织主导作用,推动联合国教科文组织(UNESCO)、国际电信联盟(ITU)等机构牵头成立“全球深度伪造风险治理联盟”,统筹制定包含数据匿名化要求、伪造内容标识规范等国际技术标准与伦理准则,在G20、亚太经合组织(APEC)等多边平台设立“人工智能安全工作组”,协调成员国政策立场,定期发布风险预警与最佳实践报告。其次,应着力建立区域协同治理网络。借鉴欧盟《人工智能法案》的区域立法经验,鼓励如东盟、非洲联盟等地理相邻或技术生态相似的国家签署区域性协议,明确跨境数据流动规则与联合执法程序。最后,需要完善国家间法律互助与责任共担机制。在明确跨国案件管辖权划分的基础上,推动跨境司法协作以及电子证据调取规则的互认。与此同时,通过国际公约要求社交媒体平台履行“主动筛查义务”,对未标注的深度伪造内容采取限流或下架措施,并定期公开治理透明度报告。
六、结论与讨论
通过系统解构深度伪造技术的风险样态及监管策略,发现深度伪造风险呈现双重耦合特征:在技术架构层面形成内生性技术风险与多层级衍生风险的嵌套结构,在应用场景维度产生算法黑箱与价值异化的复合效应。基于技术溯源与逻辑推演,研究揭示了风险生成的三维动态机制:技术本体存在算法偏差与模型不可解释性缺陷,开发环节存在工具理性僭越价值伦理的异化倾向,社会层面呈现监管体系与技术创新速率的结构性失衡。针对上述机制,提出“识别-评估-应对”的全链条监管框架。研究可能存在两个方面的局限:一是数据源依赖公开信息可能造成隐蔽风险的识别盲区;二是监管策略面临生成式人工智能快速迭代的时效性挑战。后续研究重点突破的方向是强化风险溯源能力,构建基于技术成熟度评估的动态监管模型,通过演化博弈分析预判技术演进轨迹,最终实现监管体系与人工智能技术的协同进化。
参考文献:
(略)
作者简介:
黄静(1978—),女,贵州安顺人,博士,四川大学公共管理学院教授,博士生导师,研究方向为数字政府、大数据挖掘与分析、智能社会治理。
韩松言(1997—)男,黑龙江大庆人,四川大学公共管理学院博士研究生,研究方向为智能社会治理、公共政策。
田宇航(1995—),男,湖北天门人,博士,四川大学商学院助理研究员,主要研究方向为数据挖掘、机器学习、金融风险管理。
*基金项目:国家自然科学基金面上项目“‘一网统管’如何统起来?基于数据融合的城市公共服务系统智慧转型研究”(项目号:72374150);国家自然科学基金面上项目“公共服务个性化如何可能?基于智能决策的城市公共服务精准配置研究”(项目号:71974139)。
声明:本文来自电子政务杂志,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。