8月6日,美国防高级研究项目局(Defense Advanced Research Project Agency,DARPA)宣布启动旨在于“大规模的自动化虚假信息攻击活动中”快速检测“深度伪造(Deepfake)”及其他遭篡改媒体之技术的“语义取证(Semantic Forensics,SemaFor)”项目,并将于近期举办该项目相关的提案者交流活动。“深度伪造”媒体指由人工智能生成、看起来非常真实的伪造图片、音频和视频。

国防高级研究项目局认为,随着人工智能等技术不断进步,他国对手将可能越来越多地利用“深度伪造”媒体及其他虚假信息传播手段来操控美国公众看法,就像2016年美国总统大选期间俄罗斯黑客所实施过的那样;恶意行为者也因为相关技术越来越容易获得,而能更容易地对美国发起强有力的虚假信息攻击活动。国防高级研究项目局指出,尽管行业及学术界已提出利用统计方法判断视频或图像是否遭到篡改的技术,但现有工具仍将可能随着篡改技术的继续发展而快速地失效,“依赖于统计特征的检测技术仅需增加少量资源便可绕过”。

因此,国防高级研究项目局考虑另一个解决问题的途径:检测遭篡改媒体中的“语义错误”——当前的媒体伪造手段往往会忽视媒体的细节,例如人物佩戴的耳环前后不一致——只要计算机能识别出这样的错误,那么就可判断出其分析的媒体已遭篡改,并标记出需要人类分析师后续细致处理的内容。在识别伪造媒体之外,国防高级研究项目局还期望相关技术能通过伪造或篡改特征来识别媒体作者的真实身份,并确定这些伪造内容是否已被用于实施虚假信息攻击。

国防高级研究项目局期望该项目最终形成的语义不一致性检测工具将显著地提高媒体伪造者的作恶成本,因为媒体伪造者以后需要“完善每一个语义细节”,而防御者“只需找到一处不合理之处”就可判断媒体真伪。国防高级研究项目局计划在8月28日举办针对该项目的提案者交流活动,而关于该项目的正式通告也将于近期发布。

声明:本文来自国际安全简报,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。