在AI 人脸技术下,每个人都可能成为受害者。

在交易网站上,搜索换脸的关键词,就会弹出购买信息。有的商家不仅提供成品的视频,还接受买家的专属订制,只要买家提供 20 张照片,就可以做出任何人的“小黄片”。

想想是不是还有点激动?

谁在买卖你的脸?

那么问题来了,究竟谁是幕后操手?

近日,新京报调查发现,网上有一些私下售卖人脸数据的卖家,有发帖者称 8 元可买 3 万张人脸照片。有卖家表示可以提供“更多渠道”的人脸图片,按照3000 元可买 24000 套人脸照片来计算,相当于一套只要一毛多。还有卖家表示,其出售的照片大部分来自朋友圈,且没有取得对方同意。

除此之外,在IT社区、网络商城等多个平台搜索发现,有不少人脸照片可供免费下载或付费购买。付费金额由帖子发布者自定,多在 10 元到 20 元左右,如有发帖者表示可以“ 8 元购买 60 名志愿者的每人 500 张照片,共计 3 万张照片”。

在IT社区中可公开下载的照片标记为外国研究机构提供的国外志愿者照片,如有帖子表示“耶鲁大学AR人脸数据库、卡耐基梅隆大学PIE数据库等打包卖15 元”,这些图片是为了训练人脸识别专门搭建的数据集,图片质量较好。

不过,也有部分照片来源于网站爬取。我们随机选取五张照片在百度识图搜索后发现,其中一张照片为一名香港艺人。而搜索与该艺人名字相关的图片后发现,所下载的人脸图片的来源五花八门,有的截取自娱乐新闻网站的新闻图片,也有博客发布的博文配图。

值得注意的是,有的图片来自于已删除的博客,但仍然可以在搜索引擎搜索到相关图片,只不过源网页显示“内容已删除”。

这样看来,我们大致可以推测AI换脸俨然已经成了一个黑灰产业链。

那么,这个产业链的上下游究竟是怎样的?

产业链的上游首先是要获取信息源。数字联盟联合创始人刘晶晶向宅客频道表示:“目前,电商出售的人脸认证技术来源主要是三个方面:一是通过木马程序,后台自动启动前置摄像头捕获人脸状态;二是通过数据黑市买卖的真实用户在某些APP、网站中的 人脸验证信息,三是通过免费赠送小礼品,骗取用户人脸等级信息。”

产业链的下游则是通过模拟器、篡改设备等自动完成注册、登陆和导入人脸信息完成注册,可全部自动化操作。

而在黑产业内通常将以上资料统称为“料”,贩卖人士则被称为“料商”。每条“料”价位在 1 元左右, 黑产人士则利用这个技术来赚取佣金。

由于目前各大电商、社交App均已增加了人脸识别机制,且机场、车站等也纷纷采取类似技术,如何保障存储安全、如何确保认证唯一,都是极为关键的安全建设问题。一旦不慎,大量人脸识别库、算法和统计维度、规则泄漏,将直接导致黑产可利用数据黑市买卖相关信息,从而批量进行冒名注册,甚至假借真实用户名义骗贷,隐患极大。

加之,人脸识别技术主要依靠固定的算法去匹配输入信息,如通过是否能完成固定动作来确认其是否为动态或者静态。一旦对应相关的匹配节点进行模拟,就可能直接绕过,比如通过多帧照片快播模拟在固定角度的上下抬头、左右摇头等。而存储相关认证信息的机构繁杂,缺少一定的安全管理和明确的隐私信息泄漏后的追责机制,一旦大量认证信息外泄,便可能被广泛利用。

所以,刘晶晶建议大家应该同时注意对账号和人脸信息对应等级的设备唯一性进行判断,通过可信ID实时甄别设备的唯一性,避免黑产通过模拟器、篡改设备等批量伪造大量信息注册信息。

人脸识别技术“背锅”?

这是否意味着人脸识别技术一定会催生大量的黑灰产业链呢?答案是否定的。

事实上,这些采集和存储数据的旁门左道和人脸技术本身就是两码事。身份证电话泄露可以被不法分子用来进行诈骗活动,而人脸数据泄露被直接利用的案例现在其实很少,很多人提到的“假视频制作”其实目前除了被用来恶搞,并无可以参考的真实犯罪案例。

芯盾时代副总裁杜旭向宅客频道透露,目前人脸数据泄露并没有产生大规模黑产,虽然已经有些已知的案例,但整体来看,人脸识别数据直接导致的案例量级很小。

“其实隐私被侵犯,主要是指线上服务和交易系统中对敏感数据采集、存储、使用以及共享等环节出现的问题。这与人脸识别以及其他生物识别技术无关,属于应用系统问题,只能说AI换脸技术是一种辅助手段。”

“在没有跟其他‘信息’做关联的情况下,本身并不会带来太多危害,但是假如同时能获取这个人的身份证、电话、具体消费出行信息以及行为踪迹,那么危害就很直接了。”

我们必须承认的一个残酷事实是发展技术就必然会牺牲一部分隐私。所以,我们是放弃发展这项技术而保护隐私?还是让出隐私来发展技术?

都不是。

「薛定谔的猫」这个理论说的是,当一件事情发生的时候,它带来的影响是不确定的。

有可能是好的一面,也有可能是不好的一面。

显然,AI识别人脸技术,目前就是一只薛定谔的猫。但技术本无对错,只是人心有善恶。

声明:本文来自宅客频道,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。