来源:thedailybeast,编辑:鹏飞

去年下半年,西非加蓬总统阿里·邦戈(Ali Bongo)被报道中风,消息一出,Ali几个月没露面。

但是今年元旦网上突然出现一个官方的视频,人们惊讶的发现视频中Ali向加蓬人民讲话,虽然看起来有点眼神有点迷幻。

竞争对手站出来,宣称该视频使用“deepfake”伪造的,因此他们断言Ali肯定是死了,或者丧失了行动能力。于是在1月7日,军队领导人发动了一次政变。

政变失败了,因为Ali还没死。而这段视频也并非捏造的,只是一段怪诞的录像,记录了一个身体不适的人,努力使他自己表现的比实际他更健康而已。

但是政变策划者起码说对了一件事:deepfake完全有可能伪造令人信服的世界领导者或其他人的视频。

Deepfake是社交媒体的一项相当新的功能,已经在全国范围内加剧了暴力和不稳定,专家认为,问题只会越来越糟糕。

最早的Deepfake出现在2017年底的Reddit上。一个匿名用户称自己为“deepfakes”(人工智慧“深度学习”和“虚假”的写照),将名人的面孔加在色情内容上。

Reddit最终禁止了deepfakes,但是这只猫已经脱颖而出。斯坦福大学的研究人员Tom Van de Weghe在5月的一篇文章中写道:“一波模仿者在其他平台上取代了他。”

Deepfake视频,静止图像或音频记录是称为“生成对抗网络”或GAN的巧妙编码的产物。

在Facebook的搜索栏中输入“ deepfake”,你可以观看汤姆·克鲁斯(Tom Cruise)主演的漫威超级英雄电影,或者巴拉克·奥巴马(Barack Obama)出演漫威超级英雄电影。

不难想象,政党、情报机构、激进组织和在线巨魔会部署deepfakes来抹黑、陷害或使对手感到尴尬。这种风险使得计算机科学家已经在争先恐后地设计出深层的对策。乔治亚理工大学计算机科学副教授马克·里德尔(Mark Riedl)对《The Daily Beast》说:“这简直就是军备竞赛。”

也就是说,部署GAN容易但做起来难。底层代码并不难找到,但不仅需要代码。对于初学者来说,需要大量可靠的媒体作为生成器的核心。

要伪造某人的照片或视频,需要大量清晰的人脸图像。要伪造该人的声音,需要大量清晰记录他们的真实讲话。

Van de Weghe指出,社交媒体可以更轻松地找到良好的内容作为起点。但是收集所有原材料仍然需要时间和精力。

佐治亚理工学院计算机科学家Polo Chau对《The Daily Beast》说:“一个恶意实体可能需要不止一个图像、音频或视频来有效地大规模地影响舆论。”

单一的造假视频不会造成多大的声浪,只有当你制作了一堆不错的造假视频,它们都以相同的方式针对同一个人,并且假设你的视频没有被人识破,才会产生足够大的效果。

当然,GAN一直都在进步。但是目前来说识别假货比造假要更容易一些。Riedl解释说,当今的GAN擅长于人脸。但是它们在复杂,移动的材料周围变得不可信。在Deepfake视频中仔细观察对象的头发,你应该能够发现明显的失真。

可以自动进行这项检查。社交媒体公司和用户可以部署区分器,以筛选网络上的媒体,寻找GAN生产的假冒产品的像素化和其他数字指纹。

谷歌在9月份发布了3000个旧的deepfake作品,所有这些都是为了加强识别新假货的努力。

另外,还有一些不仅仅依靠代码来应对Deepfake的方法。Chau解释说,Deepfake的供应商需要社交媒体帐户和不道德的媒体来帮助传播恶意内容。

Riedl说,这会导致骗子暴露于社交媒体分析中。“你可以对其进行分析,找出这些事物的来源,查看此人周围的网络,并确定这些事物是人为的实体还是与已知团体相关联。”

“你可以对此进行反编程,” Reidl补充说。方法可能包括阻止或报告正在推动深deepfake的帐户。“这是不直接与技术打交道的非常有前途的方式。”

专家说,归根结底,抵御GAN及其制造的deepfake品的最佳防御方法是受过良好教育和持怀疑态度的公众,可以在知情的情况下查看媒体,并考虑其来源,支持者和反对者以及武器化的潜力。

奥巴马闲聊着一些Marvel的反派角色?对于渴望将前总统描述为愚蠢的边缘媒体而言,这无疑是有用的,因此很可能是假的。聪明的社交媒体用户应该知道这一点。

怀疑是关键。但是在一个多党派的媒体环境中,每个人都在为确认自己现有的偏见而努力,怀疑主义可能会供不应求。

这不仅使GAN变得更加虚假,而且使一些专家感到担忧。里德尔说:“deepfake假冒如此威胁的原因并不是技术如此出色,而是人们想被愚弄。”

参考链接:

https://www.thedailybeast.com/inside-the-deepfake-arms-race

声明:本文来自新智元,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。