本文深入解析了对抗样本背后的数学定义,并帮助读者重新理解对抗样本的定义。
来自莫斯科国立大学、华为莫斯科研究中心的研究者们找到的新型攻击方法,让已经广泛用于手机、门禁和支付上的人脸识别系统突然变得不再靠谱。
一家时尚公司展示了它的首个“反监视套装”系列,这些卫衣、短袖、长裙和短裙可以给监视摄像头传递垃圾信息使其识别认证出现问题,从而影响到摄像头背后数据库的有效性。
MIT的最新研究对神经网络的对抗样本问题给出了非常新颖的解释和实验论证:对抗样本不是Bug,它们实际上是有意义的数据分布特征。
最近由北京航空航天大学、悉尼大学和剑桥大学的一项新研究表明,一张纸便可以“迷惑”AI自动驾驶系统。
微信公众号