近日,欧洲刑警组织发布了其首份深度伪造研究报告--《面对现实?执法和深度伪造的挑战》(Facing reality? Law enforcement and the challenge of deepfakes),这是欧洲刑警组织创新实验室就新兴技术的风险、威胁和机遇等方面技术发展研究形成的报告。该报告详细概述了deepfake技术的犯罪用途,包括其在CEO欺诈、证据篡改和制作未经同意的色情制品等严重犯罪中的潜在用途。它还详细阐述了执法部门在检测和防止恶意使用deepfakes方面面临的挑战。它表明执法部门、在线服务提供商和其他组织需要制定政策并投资于错误信息的检测和预防解决方案,政策制定者也需要适应不断变化的技术现实。特别是,研究者确定了与数字化转型、新技术的采用和部署、犯罪分子滥用新兴技术、适应新的工作方式和在虚假信息增加的情况下保持信任相关的风险。报告的调查结果基于广泛的案头研究和通过战略前瞻性活动与执法专家进行的深入探讨磋商。这些战略远见和情景方法是欧洲刑警组织创新实验室研究和准备新技术对执法的潜在影响的一种手段。Deepfake已经是一个问题,但在未来几年内可能会成为一个更大的问题。

Deepfake技术使用人工智能技术来改变现有的或创建新的音频或视听内容。它有一些非恶意目的——例如讽刺和游戏——但越来越多地被不良行为者用于不良目的。然而,在2019年, iProove的研究表明,72% 的人仍然没有意识到 deepfakes。

Deepfake被用来创建一个明显来自可信来源的虚假叙述。两个主要威胁是针对公民社会(传播虚假信息以操纵舆论以达到预期效果,例如特定的选举结果);并针对个人或公司获得财务回报。对公民社会的威胁是,如果不加以制止,整个人群的观点和意见可能会受到深度伪造传播的虚假信息活动的影响,这些活动歪曲了事件的真相。人们将不再能够辨别真假。

对公司的网络安全威胁是,深度伪造可能会提高网络钓鱼和 BEC 攻击的有效性,使身份欺诈更容易,并操纵公司声誉导致股票价值不合理地崩盘。

Deepfake技术

Deepfake是通过使用神经网络来检查和发现生成令人信服的图片所必需的模式,并以此开发机器学习算法来开发的。与所有机器学习一样,可用于训练的数据量至关重要——数据集越大,算法越准确。大型训练数据集已经在互联网上免费提供。

目前的两项发展改善并增加了深度伪造的质量和威胁。首先是生成式对抗网络(GAN)的适应和使用。GAN使用两种模型进行操作:生成模型和判别模型。判别模型针对原始数据集反复测试生成模型。欧洲刑警组织的报告写道,“根据这些测试的结果,模型不断改进,直到生成的内容与训练数据一样可能来自生成模型。” 结果是人眼无法检测到但处于攻击者控制之下的虚假图像。第二个威胁来自5G带宽和云计算能力,允许实时操纵视频流。因此,Deepfake技术可以应用于视频会议环境、实时流媒体视频服务和电视。

网络安全威胁

很少有犯罪分子具备必要的专业知识来开发和使用引人注目的深度伪造——但这不太可能延迟他们的使用。欧洲刑警组织表示,犯罪即服务 (CaaS)的持续发展和演进“预计将与当前技术同步发展,从而实现黑客攻击、对抗性机器学习和深度伪造等犯罪的自动化。”

Deepfake威胁分为四大类:社会(引发社会动荡和政治两极分化);合法(伪造电子证据);个人(骚扰和欺凌、非自愿色情和在线儿童剥削);和传统的网络安全(敲诈勒索和欺诈以及操纵金融市场)。

带有深度伪造照片的伪造护照将很难被发现。然后,这些可用于助长其他多种犯罪,从身份盗窃和贩运到非法移民和恐怖分子旅行。

令人尴尬或非法活动的深度伪造可用于敲诈勒索。如果诱饵包括可信赖朋友的视频或语音,则网络钓鱼可能会上升到一个新的水平。BEC攻击可以通过与真正 CEO相同的视频消息和语音来支持。但真正严重的威胁可能来自市场操纵。

VMware的Tom Kellermann最近告诉SecurityWeek,市场操纵已经超过了勒索软件对犯罪分子的价值。目前,这是通过使用被盗信息来实现的,这些信息使犯罪分子能够从本质上是内幕交易中获利。但是,使用deepfake可以为犯罪分子提供更直接的方法。虚假信息、令人尴尬的披露、非法出口指控等可能导致公司股价急剧下跌。财大气粗的犯罪团伙,甚至是寻求抵消制裁的流氓国家,可以在股价下跌时购买股票,并在股价不可避免地再次上涨时进行大规模“杀戮”。

安全基于信任。Deepfakes在不应该存在的地方提供信任。

检测深度伪造

Deepfake的质量已经超过了人眼检测伪造品的能力。有限的解决方案使用原始源材料的出处原则——但这将有利于执法部门将深度伪造排除在刑事证据程序之外,而不是防止深度伪造网络犯罪。

技术是另一种潜在的方法。示例包括基于血流引起的肤色自然变化缺陷的生物信号;音素-视位不匹配(即口语对应之间的不完美相关性);面部动作(面部和头部动作没有正确关联);以及寻找组成视频的各个帧之间的不一致性的循环卷积模型。

但也有困难。就像恶意软件的轻微变化可能足以欺骗恶意软件签名检测引擎一样,对用于生成深度伪造的方法的轻微改变也可能欺骗现有的检测。这可能只是简单地更新GAN 中用于生成deepfake的判别模型。

压缩deepfake视频可能会导致另一个问题,这将减少检测算法可用的像素数量。

欧洲刑警组织建议避免深度伪造可能比试图检测它们更有效。第一个建议是依靠视听授权而不仅仅是音频。这可能是一个短期的解决方案,直到deepfake技术、云计算能力和5G带宽使其失效。这些发展也将否定第二个建议:要求实时视频连接。

最后的推荐是一种验证码;也就是说,欧洲刑警组织说,“要求在镜头前现场进行随机复杂的动作,例如在脸上移动手。”

未来之路

简单的现实是,deepfake生产技术目前的改进速度比deepfake检测技术要快。威胁是对社会和企业的。

对于社会,欧洲刑警组织警告说,“专家担心这可能会导致公民不再拥有共同的现实,或者可能造成社会对哪些信息来源可靠的混乱;这种情况有时被称为‘信息启示录’或‘现实冷漠’。”

公司处于稍强的地位,因为它们可以在决定是否接受或拒绝音频/视频方法的任何决定中包含上下文关联。他们还可以坚持机器对机器的通信而不是人与人之间的通信,使用零信任原则来验证机器所有者而不是通信。

然而,当深度造假被用来对抗社会(或至少是社会的持股部分)来操纵公司股价暴跌时,变得特别困难。“这个过程,”欧洲刑警组织警告说,“由于人类倾向于相信视听内容并从默认真相的角度进行工作,因此情况会变得更加复杂。” 公众不太可能立即相信该公司坚持认为这只是假新闻——至少不能及时防止股价崩盘。

Deepfake已经是一个问题,但在未来几年内可能会成为一个更大的问题。

参考资源

1、https://www.securityweek.com/deepfakes-are-growing-threat-cybersecurity-and-society-europol

2、https://www.europol.europa.eu/publications-events/publications/facing-reality-law-enforcement-and-challenge-of-deepfakes#downloads

声明:本文来自网空闲话,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。