本月初,安全牛报道过新加坡国立大学(NUS)开发的对抗人工智能人脸识别的照片“加扰”技术,可以保护人们的数字隐私不受机器大规模人脸识别和采集技术的侵犯(例如社交媒体、电商巨头、有组织犯罪集团等等)。

近日,芝加哥大学的研究者在第29届USENIX安全研讨会发布了一个新的图像混淆技术,可以对人们发布的照片进行像素级的更改(肉眼无法察觉的图像伪装),实验证明,无论如何训练人脸识别深度学习模型,Fawkes都能提供95%以上的保护成功率(人像不被正确识别)。

然后,您可以像平常一样使用这些“伪装”的照片,在社交媒体上共享它们,将其发送给朋友,进行打印或在数字设备上显示它们,就像处理其他任何照片一样。但是,不同之处在于,当有人(编者按:例如ImageNet创始人李飞飞所做的那样)尝试使用这些照片来构建面部识别模型时,“隐身”图像将交给模型一个高度失真的版本。

Fawkes的研究团队宣称,即使面对最先进的人脸识别模型,Fawkes依然能保持极高的成功率,同时对于尝试检测或破坏图像伪装的各种对策具有强大的抵抗力。

参考资料

Fawkes:保护隐私不受未授权深度学习模型侵犯

http://people.cs.uchicago.edu/~ravenben/publications/pdf/fawkes-usenix20.pdf

声明:本文来自安全牛,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。