据美国国际战略研究中心(CSIS)官网10月23日消息,CSIS发布《Trust Your Eyes? Deepfakes Policy Brief - 深度伪造技术政策简报》报告。“深度伪造”(Deepfake)是“deep learning”(深度学习)和“fake”(伪造)的混合词,即利用深度学习算法,实现音频和视频的模拟和伪造。

报告分析了Deepfake对个人生活和民主国家的影响,指出出于政治目的的伪造信息正在通过互联网迅速传播,破坏美国及其盟国的民主进程;报告指出Deepfake技术存在有益用途,可应用于电影制作和医学成像等领域;建议政府应制定相关规则与法律,并提高辨别真伪的技术能力。

文章仅供参考,观点不代表本机构立场。

CSIS发布《Deepfake技术政策简报》报告

作者:学术plus高级评论员 张涛

Deepfake

Deepfake是一种利用人工智能应用程序制作地逼真的合成音视频,这些程序可以合成伪造的图像和声音,描绘人们从未做过和从未发生过的事情。Deepfake技术生成的伪造图像和音视频可以模仿目标的面部表情、动作和语音的音调、色调、重音和节奏,这些伪造的方式使得伪造的图像和音视频与真实的图像和音视频之间很难区分和检测。

Deepfake最早获得关注是在2017年,有一个Reddit用户利用deepfake技术将色情视频中的女主角换成了名人的脸。由于其娱乐性,deepfake被网民广泛传播。随后该技术不断发展和传播。2019年8月30日,陌陌公司的一款产品ZAO一夜爆火,不到24小时就位居各应用商店免费App下载量前列。用户只需上传一张照片到ZAO,就能秒变“戏精”,甚至还能与偶像同台飙戏,保证“连亲妈都看不出来”。

随着深度学习等人工智能技术的发展,加上ZAO这样的免费APP,只需要几秒钟,每个人都可以换脸变成想要变成的人。但生成高质量的deepfake音视频仍需要专业的人员和软件。

Deepfake对网络可信的影响

Deepfakes是一种新的强大的造假工具。它们的效果将不仅取决于它们的说服力,而且还取决于否认一个深度假冒的时机和可信度

一段在选举前发布的令人信服的视频可能会造成真正的伤害,而在一次否认可能会消除这种伤害之前。2018年下半年,西非加蓬总统阿里·邦戈(Ali Bongo)被报道中风,消息一出,阿里几个月没露面。2019年元旦,网上突然出现一个官方发布的“阿里向加蓬人民讲话的视频”。但是视频中阿里的眼神有点迷幻。于是竞争对手称该视频是使用deepfake技术伪造的,并断言阿里已经去世了或丧失了行动能力,于是军队领导人发动了一次政变。

互联网的信息本来就是有真有假,但互联网并不提供判断真假的方法和工具。俄罗斯互联网研究机构(Internet Research Agency)在2018年被起诉,罪名是其在2016年美国总统大选期间,创建了用于传播并利用错误信息进行宣传活动的机器人账号。互联网的匿名性加剧了区分网络信息内容真假的难度,因为人们不知道deepfake的源头。而且,在互联网上发布内容并不需要经过任何的审查,也就是说人们可以自由地向上百万受众发布不知道真假以及是否可信的内容。

Deepfake为那些不靠谱的媒体搞事情提供了极为有利工具。极端组织和专制反对者可以利用deepfake技术来创建恶意内容的音视频,在轻信或不信任的人中制造不信任和混乱。

Deepfake技术威胁

对个人的威胁

目前deepfake的主要威胁是针对个人。研究表明在互联网上有超过15000个deepfake视频,其中有96%是色情视频。Deepfake还可以用于社会工程和钓鱼攻击,提高攻击的成功率。

据《华尔街日报》报道,今年3月,有诈骗犯利用“AI换声”技术仿造了英国某能源公司母公司首席执行官的声音,成功诱骗公司高管通过匈牙利供应商向其转账22万欧元(约173万元人民币)。

对民主的威胁

Deepfake被认为是一种破坏民主的工具。美国情报界发布的2019年全球威胁评估(Worldwide Threat Assessment)中就警告称,恶意攻击者或战略竞争对手可能会使用deepfake技术或类似的机器学习技术来创建看似逼真但其实是伪造的图片、音频和视频文件来加大针对美国和其盟友的活动的影响。

CNBC网站在其报道中称,“deepfake”将成为“2020年美国总统选举中的大事件”。就像2016年的“虚假新闻”一样,“deepfake”视频将在2020年的美国大选中,掀起更强大的血雨腥风。

非恶意使用

Deepfake技术本身没有善恶,只是有人将他恶意使用了而已。Deepfake也有很多非恶意使用的例子,主要是应用在娱乐行业

2000年《角斗士》拍摄期间,主演奥利弗·里德(Oliver Reed)不幸心脏病发过世,影片制作团队只能请来另外一位替身演员进行表演,后期再将里德的面部形象以CG形式“移植”到替身演员身上;《银河护卫队2》中出现过库尔特·拉塞尔(Kurt Russell)在1980年代时的形象;《星球大战外传:侠盗一号》中还原了1977年《星球大战4:新希望》中总督塔金(Grand Moff Tarkin)的形象,虽然其扮演者彼得·库欣(Peter Cushing)早在1994年已去世。

其他公司也在探索和开发deepfake技术的商业应用。腾讯就在实验将广告无缝地嵌入到旧电影中。

如何应对?

技术方面

应对的第一步就是开发检测软件和改善区分伪造和真实视频的技术能力。技术解决方案包括用AI系统来训练识别视频文件的异常,将加密技术融合到视频和音频记录设备中来对修改行为进行标记。但技术解决方案能做的毕竟有限。而且deepfake的检测方法和deepfake生成技术都在不断地发展。就算知道特定视频是否是伪造的也不能找出伪造视频的创建者。

美国国防部美国国防高级研究计划局在2018年就发起了媒体取证(Media Forensics)项目,以资助研发自动化辨识工具,目的是更高效更准确的检测被修改过的图片和利用深度伪造技术生成的视频等,并研发了全球首款“反换脸”AI刑侦工具。

在技术竞赛方面,有众议员在2019年6月26日提交众议院审议的情报授权法案中提及开展相关技术竞赛——开展深度伪造鉴别技术竞赛。法案要求国家情报总监通过情报高级研究计划局局长实施一项有竞争力的奖励计划,刺激技术的研究、开发或商业化,以自动检测被机器操纵的媒体,可向竞赛的一名或多名获奖者颁发500万美元以内的奖金。2019年9月,Facebook宣布启动一项“Deepfake视频检测挑战赛”,悬赏1000万美元激励行业创造新的方式来检测和防止通过AI操纵的媒体被用来误导他人,该项目得到了微软、麻省理工学院、牛津大学,加州大学伯克利分校等业界学界联合支持。

政策方面

因此,单纯的技术解决方案并不足以解决deepfake引发的威胁,因此需要更好地规则。

2019年7月,美国弗吉尼亚州扩大了正式生效《非同意色情法》(Nonconsensual pornography law)的修正案,修正案纳入了深度伪造的内容,澄清上述图像、视频包括“虚假创建的视频或静止图像”。德克萨斯州也通过了保障选举安全的专门的深度伪造法——《关于制作欺骗性视频意图影响选举结果的刑事犯罪法案》。纽约州的立法者也试图一刀切的禁止深度伪造的色情制品。

在联邦层面:

  • 2018年12月,参议员Ben Sasse提出了《2018年恶意伪造禁令法案》[4](Malicious Deep Fake Prohibition Act of 2018),法案规范了两类主体即制作深度伪造内容引发犯罪和侵权行为的个人,及明知内容为深度伪造还继续分发的平台(如Facebook)。

  • 2019年6月12日众议员Yvette Clarke提出了《深度伪造责任法案》(DEEP FAKES Accountability Act),法案的目标是阻止“外国和国内参与者的选举干扰,他们可以使用深度伪造技术来改变竞选候选人的图像和视频。”

  • 2019年6月28日,两党议员分别在众议院、参议院同时提出的《2019年深度伪造报告法案》(Deepfakes Report Act of 2019),法案由Derek Kilmer等四位众议员提交众议院,同时由Portman等七位参议员提交参议院,当前正在参众两院同时进行审议。法案要求国土安全部商有关部门对不断增长的深度伪造技术开展前瞻性研究,以评估防范这项新技术可能带来的风险及构成的威胁。

平台治理

由于deepfake的恶意使用引起大量网友批评,Reddit关闭了Deepfakes论坛,并更新了全网规则,称将会严格审查涉及非自愿情色和未成年性暗示的网站。Twitter(推特)等社交平台、Pornhub(色情网站)、Gfycat(GIF动态图片平台)等也都对此做出抵制,Facebook(脸谱网)还建立了一个机器学习模型来检测这类虚假照片或视频。

Deepfake技术作为内容创作工具有其积极的一面,可能被广泛运用在公众教育、媒体行业。但与此同时,任何人都可能成为deepfake的潜在目标,被敲诈和传播负面信息,甚至被敌对势力用于信息战、误导公众舆论、操纵选举,尤其是在媒体的信任度较低的国家,公众更易被阴谋论的影响,严重损害国家安全。美国近期各层面的立法活动频繁,也正表明了政府部门对治理deepfake技术风险的担忧。

【参考链接】

https://csis-prod.s3.amazonaws.com/s3fs-public/publication/191023_LewisNelson_TrustYourEyes_WEB.pdf

https://www.secrss.com/articles/12113

声明:本文来自学术plus,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。