当前,媒体操纵能力正在迅速发展,从家庭照片编辑者到国家行为者,每个人都越来越容易使用它。随着技术的发展,四处扩散的媒体操纵所带来的国家安全威胁也在不断增加。虽然今天的问题可能是Deepfake视频,但从整块材料上生成伪造的多模态资产,如嵌入照片和视频的新闻报道这一能力可能并不遥远。为了应对这一日益严重的威胁,美国国防高级研究计划局(DARPA)创建了“语义取证”(SemaFor)项目,旨在通过开发能够自动检测、归因和描述伪造媒体资产特征的技术,让分析人员在检测者和操纵者之间的斗争中占据上风。

据领导SemaFor项目的DARPA项目经理马特·特克(Matt Turek)博士介绍:“从防御的角度来看,SemaFor专注于利用自动媒体生成器的关键弱点。目前,自动生成算法很难获得所有语义的正确性。确保从新闻报道的文本到配图,再到图像本身内的元素,一切都保持一致是一个非常高难度的任务。通过这个项目,我们旨在探索使当前合成媒体技术失效的模式。”

本月初,DARPA宣布了被选中承担SemaFor研究目标的研究团队。来自商业公司和学术机构的团队将致力于开发一套能够自动识别伪造媒体的语义分析工具。用这些技术来武装人类分析人员,应该会使操纵者难以将被篡改的媒体当作真实或真相进行传播。

四个研究团队将专注于开发三种特定类型的算法:语义检测、归因和特征算法。这些算法将帮助分析人员在过滤和优先审查媒体时,了解操纵背后的“是什么”、“谁”、“为什么”和“如何”。这些团队将由Kitware公司、普渡大学、SRI国际和加州大学伯克利分校领导。利用DARPA的另一个项目“媒体取证”(MediFor)项目的一些研究(详情可参见防务菌此前推送:【Semantic Forensics】看DARPA如何应对媒体操纵事件),语义检测算法将寻求确定媒体资产是被生成还是被操纵。归因算法将旨在自动分析媒体是否来自其声称的来源地,而表征算法则试图发现内容造假背后的意图。

为了帮助向负责审查可能被操纵的媒体资产的分析师提供一个可理解的解释,SemaFor还在开发技术,以自动组装和策划由检测、归因和表征算法提供的证据。洛克希德·马丁公司先进技术实验室将领导被选中的研究团队承担这些技术的开发工作,并将开发SemaFor系统的原型。

对此,马特·特克表示:“当结合使用时,目标技术将有助于自动检测多模态媒体资产中的不一致性。想象一下,一篇内嵌图片的新闻文章和一段描述抗议活动的配套视频。你是否能够从图像中的提示确认场景位置的元素?文字是否恰当地描述了抗议者的情绪,并与支持的视觉效果保持一致?在SemaFor上,我们正努力让人类分析师更容易回答这些和类似的问题,帮助更快速地判断媒体是否被恶意篡改。”

为了确保这些能力的发展符合或领先于被篡改的媒体的潜在威胁和应用,研究团队还在努力描述威胁环境的特征,并根据对手可能做的事情设计挑战问题。这些团队将由埃森哲联邦服务公司(AFS)、谷歌/Carahsoft、纽约大学(NYU)、英伟达公司(NVIDIA)和系统与技术研究公司领导。

Google/Carahsoft将提供关于大规模互联网平台的虚假信息威胁的观点,而NVIDIA将提供媒体生成算法和对即将到来的硬件加速技术的潜在影响的见解。纽约大学提供了与纽约市媒体实验室和广泛的媒体生态系统的联系,将深入了解不断发展的媒体环境,以及它如何被恶意操纵者利用。此外,AFS还提供了SemaFor应用于国务院全球参与中心的评估、连通性和运营可行性评估,该中心已率先打击海外虚假信息。

最后,为了确保开发中的工具和算法拥有充足的相关培训数据,PAR(模式分析和识别)政府系统公司的研究人员被选为该项目数据策划和评估工作的负责人。PAR团队将负责进行定期的大规模评估,以衡量该项目所开发能力的性能。

声明:本文来自从心推送的防务菌,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。