有图已经不一定有真相!相信不少人都看过这样一则视频。视频中,奥巴马似乎正在进行演讲。但其实,这则视频是 AI 技术通过合成其声音和面部动作而制成的。这既令人毛骨悚然,又确实引人深思。显然,最近这段时间,该技术引发了美国国防部高级研究计划局 (Defense Advanced Research Projects Agency,DARPA) 的思考。

图丨伪造奥巴马的视频

今年夏天,DARPA 将资助一场人工智能造假比赛,世界顶尖的数字取证专家会齐聚一堂。比赛选手将努力一方面将通过人工智能技术产生假视频,假图像和假音频,角逐出最为可信的“AI 制品”(也被称为“Deepfakes”)。同时,在这场比赛中,选手们也将尝试开发能探测出这些 Deepfakes 的新型高级工具。随着人们越来越擅长开发专门用来愚弄我们的人工智能算法,这些工具也正在变得越来越精良复杂。

在不断涌现的 AI 新模型中,DARPA 特别关注生成对抗式网络(generative adversarial networks)。这个技术也入选了今年的《麻省理工科技评论》全球十大突破性技术,上榜理由是:它给机器带来一种类似想象力的能力,因此可能让它们变得不再那么依赖人类,但也把它们变成了一种能力惊人的数字造假工具。

GAN 的魔力在于两个神经网络之间的对抗。它模拟的是一个师出同门的赝品大师与鉴宝专家之间尔虞我诈的过程。师出同门,是因为这两个神经网络所使用的训练数据集为同一个。

这两个神经网络一个叫“生成网络”:它的任务就是试图学习数据集中的统计模式,例如一组图像或视频,然后尽力合成最逼真的输出,比如一张照片或手写文字;另一个叫“判别网络”:它的任务是把这些输出与来自原数据集的照片进行对比,来判断哪些是真实的,哪些是假的。

判别模型的反馈使生成模型能够制作出更逼真的例子.。根据判别的结果,生成网络会调整它合成图片的参数,直到判别网络无法找出真假之间的区别。而且,由于 GAN 的设计目标就是战胜人工智能系统,到目前还不清楚是否有系统可以自动捕捉到它们。

GAN 问世相对较晚,但已经风靡了机器学习的场景。它可以创造出非常逼真的虚构名人,或者令人信服地伪造图像,比如把皱眉变成微笑或把黑夜变成白天。

就拿去年一个广为人知的例子来说,在那场实验中,英伟达的研究人员使用明星照片对一个 GAN 系统进行了训练,让它学会了如何生成假明星照片。而虽然并不是每一张生成的照片都十分完美,但有些确实可以以假乱真。

此外,与其他机器学习手段所需要的数十万张图片来进行训练不同的是,GAN 系统仅需数百张照片就足够精通此道。而那些“深度伪造”视频——即在视频中将一个人的脸换到另一个人的身体上——已经在互联网上有所传播,有人已经用这项技术制作了大量假冒的名人色情视频。

图 | 一个用真明星照片训练出来的 GAN 系统可以自己想象出一套假明星照片,而其中绝大多数看起来都十分真实

DARPA 的技术人员特别担心的是,相对较新的 GAN 技术可能会使人工智能的造假行为无法被自动发现。“理论上,如果你'告诉'新的 GAN 网络所有我们知道的检测手段,它就能绕开所有这些手段,”负责该项目的 DARPA 项目经理 David Gunning 说。“我们不知道 GAN 是否有局限”。

而检测这种数字化伪造通常包括三个方法。首先是检查数字化文件是否有两个图像或视频拼接在一起的痕迹。第二种方法是观察图像的光照和其他物理属性。第三个是考虑逻辑上的不一致,比如某个特定日期的天气错误,或者某个地点的背景不正确,这是最难自动完成的,也可能是最难击败的。

参与 DARPA 项目的圣母大学数字法医专家 Walter Scheirer 说,(GAN)这项技术自几年前启动以来,已经取得了惊人的进展。“我们正处于一场特殊的军备竞赛中”,他说。

虽然技术娴熟的图形专家很久以前就可以制造出看上去令人信服的仿制品,但人工智能将使造假变得更容易。“无论是大牌演员和好莱坞明星,或者 Reddit 上的某位网友,它都可以仿造”,达特茅斯学院专门研究数字取证的教授 Hany Farid 说。“当务之急是保护民众。”

Deepfakes 使用了深度学习技术将一张新面孔融入到现有的视频中。将大量数据输入到一个很深的神经网络中,可以训练神经网络执行各种有用的任务,例如精确的人脸识别。但同样的方法也使得恶意视频操作变得更加容易。一个线上的工具就可以让一个略懂技术的人制造出新的造假视频。这个工具的创建者表示,他们正在研究更能方便用户使用的版本。

当然,这个问题远远超出了换脸的范围。专家们越来越多地表示,不久之后就会很难知道一张照片、一段视频或一段音频是否是由计算机生成的。要知道,最近一次 AI 引起人们的恐慌,就是谷歌开发的语音 AI“Duplex”已经部分通过了图灵测试,它在和人类打电话预约的时候,人类已经分不出它是人是机器,这也就意味着,它完全可以用于伪造通话。

密歇根大学社交媒体责任中心的首席技术专家 Aviv Ovadya 担心,目前正在开发的人工智能技术可能被用来损害某人的声誉,影响选举,甚至更糟。Ovadya 在彭博新闻社 5 月 15 日组织的一次活动中说:“这些技术可以用在娱乐方面,也可以用在很多非常可怕的方面。”他说:“在发展中国家,被修改过的图片可以制造真正的暴力。这是一个现实存在的危险。”

如果技术不能有效捕捉造假和错误信息,那么可能会有人推动使用法律来代替。事实上,马来西亚今年 4 月出台了打击假新闻的法律。然而,达特茅斯学院的 Farid 说,这本身就可能会有问题,因为事实本身是一个模糊的概念。

 “你如何定义假新闻?”他说:“这并不像你想象的那么容易。我可以通过裁剪从根本上改变一幅图像。你拿 The Onion 网站怎么办?”

图丨The Onion被视作虚假新闻的代名词

但是,Deepfakes 的参与者不仅仅只有爱搞恶作剧的家伙和仇视国家的视频创作者。通过浏览 Facebook 和谷歌出版的 AI 研究,我们也可以发现,这两家公司都对学习如何开发能够处理、分析和修改人的照片和视频的算法进行了大量的投资和探索。如果 DARPA 想把这个潜在的数字威胁扼杀在萌芽阶段,那么他们或许应该了解一下这些科技巨头们正在做什么。

有些研究是相对有益的,其可以用于消除被更改的或虚假视频的小故障,比如谷歌的 AI 项目旨在降低视频噪音,使其更加逼真。但是有些研究则更令人不寒而栗,同样是谷歌,其 AI 算法可以通过分析其他照片生成一个人的模糊正面照。

AI 研究员经常会想“我们能将最酷的东西变为可能吗?”,但他们很少考虑“我们应该这样做吗?”这种想法与 Facebook 的一个研究项目尤为相关,他们的一个项目找到了一种能让用户照片“活过来”的方法。其背后的研究员称,公司在构建项目时并没有考虑任何道德问题或其作品遭到滥用的潜在可能,他们只是想尽可能地制造出复杂的产品。

DARPA 要解决这个问题,就需要改变人们对开发技术的态度,同时也可能需要对掌握巨大资源、拥有熟练技术团队的科技公司保持更密切的关注。在那之前,我们将能继续看到越来越完善的 AI 生成的 deepfakes。

声明:本文来自DeepTech深科技,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。