作者:内森·斯特劳特

2019年2月12日,美国国防部首席信息官达娜·迪西和美国空军联合人工智能中心主任约翰·N·T·沙纳汉中将在华盛顿五角大楼举行圆桌会议。(美国陆军军士Amber I.Smith拍摄的DoD照片)

美国国防部联合人工智能中心主任杰克·沙纳汉中将说:“深度造假是一个国家安全问题,国防部需要在能够对付它的技术上投入巨资。”

“深度造假”可能是一段视频,其中一个人的脸被强换成另一个人的脸,使其看起来像他们说的或做了他们没有做的事情。随着深度造假的技术变得越来越复杂和普及,验证视频真实性和确定性的任务变得越来越困难。

8月29日,在约翰霍普金斯应用物理实验室主持的人工智能会议上,沙纳汉指出,尽管“深度造假”是一个特别令人担忧的问题,但它们只是“导致摩擦和混乱”的类似造假努力中的另一个阶段,以前对手曾尝试过。

沙纳汉说:“我们看到了在2016年选举中,这种情况如何发挥作用的强烈表现,我们完全预料到,如果不加以控制,我们以后将再次遭遇这种情况。”“作为一个部门,至少代表国防部,我们说这也是一个国家安全问题。我们必须在这方面投入很多。很多商业公司每天都在这样做。复杂程度似乎是指数级的。”

美国国防部试图解决深度造假的一个方法是通过DARPA的媒体取证(Medifor)计划。

沙纳汉声称:“在这个问题上,这是一个完全不保密的计划——深度造假的问题。”“它提出了一些方法来标记和分析[不考虑媒介的虚假信息]。”

根据Medifor报道的消息,DARPA的研究人员正在开发能够自动评估图像或视频是否被改变的技术。该程序的目标是一个端到端的媒体取证平台,能够检测操作并详细说明操作是如何完成的。

沙纳汉表示,他已于8月28日与DARPA官员会面,讨论该项目情况,并对他们的努力表示满意。

商业技术也可以在对抗深度造假方面发挥作用,主要是通过鉴定和验证数据。

例如,麻省理工学院(MIT)人工智能专家、未来生活研究所(Future of Life Institute)主席马克斯·特格马克(Max Tegmark)指出,区块链技术可用于验证,以便观众能够检查视频,确保视频没有改变其原始格式。投资者凯瑟琳•博伊尔补充说,社交媒体公司应该推动在其平台上验证媒体。

前美国国防部副部长兼国家安全委员会人工智能联席主席BobWork说,解决方案的一部分将是努力说服对手停止参与这些误传活动。

“这对美国来说真的是个大问题,”Work说。“民主国家尤其容易受到他们的伤害,因为我们非常开放。袭击已经发生,攻击还在继续。在我们找到某种方法来完全阻止他们之前,攻击就会发生,我认为这很困难,或者与其他大国达成协议,以限制它们对我们的人民进行反价值观的宣传。”

声明:本文来自网电空间战,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。