在今年2月份的时候,有个视频火了:用AI技术将朱茵扮演的黄蓉换成杨幂的脸。

视频里杨幂版黄蓉,一颦一笑,非常自然,若不是预先知晓这是经过处理的视频,不少观众或许会误以为杨幂真的出演过这个角色。

事实上,这种换脸技术不单单被运用在娱乐明星身上,更曾出现在政治人物身上。

此前,美国演员Alec Baldwin在周末晚间秀中,曾对特朗普进行过模仿(见下方左图)。有网友借助换脸程序deepfake,将真正特朗普的脸换了过去(见下方右图)。

在信息爆炸的时代,我们每天都要面对大量真假难辨的资讯。以前人们相信“无图无真相”,可是现在太多的P图软件,让受众无法确定图片的真伪。视频的动态性提升了造假的门槛,人们认为“无视频无真相”是更加可靠的判断原则。但你以为有了视频内容的佐证,就能放心地“眼见为实”了吗?不存在的。

本期全媒派(ID:quanmeipai)编译了《华盛顿邮报》最新的视频事实核查指南,告诉你虚假新闻视频的六种“活法”。

文不对“频”

有的时候,发出来的视频是正确的,也没有被二次编辑过,但搭配的文字信息却是错误的。最常出现的情况是,文字里标注的时间或地点,并不是视频事件真实发生的时间或地点。

在上面这个例子中,2017年,美国白宫的社交媒体负责人Dan Scavino在推特上发了一个视频,配文说这是当前迈阿密国际机场的情况。结果没过几分钟就被机场方面啪啪打脸。机场表示,这根本不是在迈阿密机场拍的,而是前几周在墨西哥拍的。Scavino随后删掉了这条推特。

第二个例子则发生在2018年美国中期选举前夕。特朗普和代表共和党的美国众议院议员Matt Gaetz曾表示上面这个视频,讲的是在越过美国边境时,男人们在洪都拉斯发钱给当地的女人和小孩。Gaetz还表示,这些钱来自美国的机构和金融巨鳄George Soros的资助。然而经过考证,这个视频并非拍摄于洪都拉斯,而是危地马拉。但目前仍然不知道那些男人派钱的原因。

选择性拍摄

这种视频只拍摄了事件的一小部分,造成视频表现出来的内容与真实情况存在差异。值得注意的是,这种类型的视频并没有经过后期剪辑,只是进行了有选择性的拍摄。

在上面这个例子里,视频一开头就是“朋友们,公司也是人”。如果不了解整个事件,很可能会以为视频中的发言者是公司利益的拥护者。但其实并非如此。

这段视频出自2012年,当时的总统候选人Mitt Romney在对如何提高社会保障署的资金稳定性进行演说。但当时他被人群中高呼的一句“公司(corporations)”打断了。所以他就着这句话,说了一句“公司也是人(corporations are people)”。

但当时看到这个视频片段的大众,只能接收到“公司也是人”这部分内容。在信息缺失的情况下,很容易激起公众情绪。Romney因此被批评没有把“人”当“人”。但如果人们了解完整的现场情况,就会发现事情根本不是那个样子。

断章取义

与上面的情况不同,在“断章取义”的分类中,原始视频是完整的,只是后期剪辑者将完整视频中的一小部分截取出来,进行了二次解读和传播。这种缺失上下文的视频,很难表达当事人完整的意思。只有将完整视频翻出来进行比对,才能理解当事人在那个语境中想表达的真正含义。

在这段被剪辑过的视频中,当被问及如何与反对他所提议程的参议院共和党人合作时,民主党总统候选人Joe Biden声称他呼吁进行“身体革命(physical revolution)”。事实上,这段视频删掉了Biden讲话前后的一些重要内容,改变了真正的意思。

拼接视频

电影中有一种手法叫“蒙太奇”——将几个不同的镜头拼接在一起,衍生出额外的含义。

例如,第一个镜头是一辆车飞驰而过,第二个镜头是一个人躺在血泊中,人们可能会脑补“出车祸”的联想。但实际上,第一个镜头只能表达“有一辆车开过去了”,而第二个镜头也只能表达“有人受伤了”,并没有一个镜头直接反应这个人被车撞倒的瞬间,但会让观众下意识地认为是出了车祸。

当这类剪辑技巧被运用在新闻视频上的时候,也会产生同样的效果。被强行拼接的两个视频合在一起后,会产生本不属于它们的意思

在2016年总统竞选期间,一则支持克林顿的政治广告将特朗普的言论和其他视频强行拼接起来,却排除了关键的背景介绍,向观众传递了错误的信息。

在视频中,特朗普说到:“这就是特朗普式的战争理论。我真的很擅长战争。我喜欢战争。(This is the Trump theory on war. I’m really good at war. I love war, in a certain way)。”紧接着画面黑屏,下一个片段立刻播放,“包括核武器,是的,包括核弹(Including with nukes, yes, including with nukes)。”但他对核武器的这段评论实际上指的是日本使用核武器保卫自己免受朝鲜攻击的事件。然而两个片段连起来,仿佛在暗示观众,特朗普本人偏好使用核弹的核武器战争。

下面这个案例,同样也是一个被拼接过的视频。

美国众议院议员Alexandria Ocasio-Cortez曾接受过一家媒体采访。然而另一家媒体却将这个采访视频与自家主持人提出问题的镜头拼接在一起。整个视频看下来,像是主持人提问完,这位议员在现场对主持人提到的问题进行了回答,但事实却并不如此。然而,在不到24小时的时间里,该视频的观看次数接近100万。

恶意处理

如果说上面一种视频只是单纯进行了拼接,那么接下来的这类视频则在原视频的基础上经过了进一步的处理,例如改变播放速度、P上不应该存在的东西、删掉一些关键的信息。这类视频让人防不胜防。

美国众议院议长Nancy Pelosi的视频就遭到了恶意处理。在假视频中,她的声音被处理成像喝醉酒一样含糊不清。这些视频在社交媒体上迅速传播,观看次数高达数百万。这种行为显然带有一定政治目的,企图左右公众的看法。

下面这个视频的对比则更为明显,视频上的内容被恶意篡改。

右边的视频中,几位女生和枪支控制倡导者Emma Gonzalez将美国宪法撕成两半。但原本真实的视频中,他们撕的是一个枪靶,并非宪法。这个被恶意编辑的视频同样在社交媒体上被大范围传播。

无中生有

利用人工智能等技术,一些视频甚至可以无中生有。像是最开始提到的“换脸特朗普”,也属于该类。一些从来没有说过的话,从来没有发生过的事,却出现在了这些视频当中,观众甚至很难通过肉眼分辨