10月底,北京地铁相关负责人透露:计划今后在安检中应用人脸识别技术——“研究建立人员分类标准,并形成对应的人脸库,依托人脸识别系统对乘客进行判别,并将信息推送给安检人员,安检人员据此对应采取不同的安检措施。”

这一消息传出之后,引发了不少讨论。人工智能技术的快速发展,使得我们必须尽快应对人脸识别等新技术带来的新问题。这是一次难得的讨论机会,其中清华大学法学院教授劳东燕的文章尤其值得一读:http://opinion.caixin.com/2019-11-04/101478652.html

新闻实验室会员通讯在10月初的时候恰好讨论过人脸识别问题,聚焦的是:为什么很多欧美国家和城市都在限制人脸识别技术的运用。

考虑到这一话题的公共讨论价值,在此,我与各位分享该期会员通讯的内容。也欢迎你加入新闻实验室会员计划,每3-4天就可以收取一份这样的会员专属内容。


作者:方可成

过去数年中,人脸识别技术是发展最快的新技术之一。助推人脸识别技术发展的主要是机器学习、云计算等人工智能相关技术的突飞猛进,以及越来越清晰和便宜的摄像头。人脸识别技术已经用在了很多人的手机上,刷脸购物、刷脸登机等等都不是什么新鲜事。

在中国,很多时候人脸识别技术的发展都被认为是令人鼓舞的技术进步,它的广泛应用也能引发很多人的自豪和称赞。然而,在欧美国家,人脸识别技术正遭遇着越来越多的质疑和限制。

今年5月,旧金山市通过决议,禁止警察等公权力机构使用人脸识别技术。这项决议很有代表意义,因为旧金山所在的硅谷湾区一直是数字科技创新的中心。随后,和旧金山同属加州的奥克兰市,以及马萨诸塞州的萨默维尔市(Somerville)也出台了人脸识别禁令。在全国层面,两位参议员提出了关于限制人脸识别技术应用的法案,这项法案目前获得了共和党和民主党两党议员的支持。众议院也有议员正在准备相关法案。

8月底,英国《金融时报》报道(https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-296ca66511c9):欧盟正在考虑对人工智能技术进行严格限制。在正在筹划的监管方案中,如果公权力机构或者商业公司想要使用人工智能技术,那么所有被牵涉到的欧盟公民就有权知晓:他(她)的人脸数据何时被使用了。

为何这些欧美国家和城市对这项新技术有着如此强烈的警惕?本期会员通讯,我们就来聊聊这个问题。

限制的对象:

不是个人,而是公权力和商业公司

首先要明确的是,这些针对人脸识别技术的禁令,不是禁止个人使用这项技术,更不是禁止这项技术的发展。也就是说,你用自己的脸解锁自己的iPhone,这完全不会受到限制。真正受到限制的,是公权力机构(政府、警察等)以及商业公司对人脸识别技术的应用。

这中间的一个核心逻辑是:消费者自己使用人脸识别技术的时候,是自愿使用的,并且是知道自己的脸正在被识别的。但是,如果是公权力机构在使用的话,比如警察使用这项技术在公共场所进行监控,那么公众很可能并不知道自己的脸正在被拍摄、扫描、分析、比对、纳入数据库,即便知道也不可能把人脸识别系统关掉。这种差别,使得欧美国家普遍认为:对公权力使用人脸识别技术要设一个高得多的门槛。

当然,公权力机构使用人脸识别技术可以带来不少好处,比如提高破案率、降低犯罪率等。一个实际的案例是:去年6月,马里兰州的《The Capital Gazette》报社曾经发生大规模枪击案,造成5人死亡。警方在破案的时候,利用了人脸识别技术来锁定犯罪嫌疑人。

但是,这些对于公共安全的好处,不足以抵消人们对这项技术被滥用的担忧。美国公民自由联盟(the American Civil Liberties Union,简称ACLU)是在倡导限制公权力机关使用这项技术方面最活跃的一家NGO。该机构的律师Matt Cagle说,“这项技术让政府获得了前所未有的追踪人们日常生活的权力。这样的权力过大,和健康的民主制度并不相容。”他认为,旧金山的禁令能够起到的作用,就是防止这项危险的技术被用来对付公众。(https://www.nytimes.com/2019/05/14/us/facial-recognition-ban-san-francisco.html)

Cagle律师还强调,现在我们根本不知道政府和企业在多大范围内使用着这项新技术,因为它们一直都对此保密,而公众则经常被蒙在鼓里,这是非常危险的状况。

简单而言,这些欧美国家限制公权力机构使用人脸识别技术,就是为了防止一个压迫性的监控国家(surveillance state)的产生。这样的国家也常被称为“奥威尔式”(Orwellian)的国家——这种说法来自奥威尔的经典小说《1984》。在小说中,老大哥通过电幕无时无刻不在监视者人们的生活,支撑起一种恐怖的极权统治。

为了避免这种可怕的状况成为现实,这些国家愿意在一定程度上做出妥协,不用人脸识别去追求破案率的提高。

与公权力机构相比,商业公司看起来并没有建立起“奥威尔式”统治的能力,为什么也要受到限制呢?

这主要是因为,如果不对商业公司作出限制,那么它们可能出于商业利益的追求,大规模地收集人脸数据,并且可能会在不经过消费者本人许可的情况下将这些数据出售、滥用。

很多人认为,人脸数据属于个人信息当中最为敏感的生物识别数据(biometric data),被滥用造成的后果是最为严重的,应该得到最高限度的保护。

人脸识别技术的误差和偏见

这些欧美国家和城市对人脸识别技术做出限制,还有一个非常重要的原因:技术本身依然不成熟,有很多误差,并且会造成对不同人群的歧视。

今年4月,一名18岁的美国大学生起诉了苹果公司,指责苹果在店内使用人脸识别技术,并且这项技术错误地将他识别成了小偷,导致他莫名其妙收到传票,后来还被警察逮捕,给他造成了严重的精神损失。这位大学生要求苹果公司赔偿10亿美元。

苹果公司否认了这些指控。不论该案的判决如何,我们可以明确知道的是:目前的人脸识别技术,确实可能造成“冤假错案”。

今年1月,ACLU测试了亚马逊公司开发的人脸识别系统Rekognition,让这个系统来识别美国议员的照片。结果,系统将多达28名议员识别成了罪犯。

尤其值得关注的是,在欧美国家,人脸识别技术对白人的识别准确率要远远高于对有色人种(尤其是黑人)的识别准确率,对男性的识别准确率要高于对女性的识别准确率。(https://www.theverge.com/2019/1/25/18197137/amazon-rekognition-facial-recognition-bias-race-gender)

这样的结果并不意外。在开发人脸识别技术的时候,研究者们用来训练机器的照片大多是白人男性,因此机器辨认白人男性的能力更强。相比之下,由于缺乏辨认黑人、女性的经验,机器也就更容易在识别少数族裔和女性的时候犯错。这种偏见的产生,是由于社会上既有的不平等,而它又会进一步加强不平等的状况,因为一旦警察大规模使用此技术,弱势群体陷入冤假错案的机率就会更高。

这种写在技术里面的偏见,常常容易被人们忽视,因为人们容易接受这样的观点:人是有感情的、容易产生偏见的,但机器是没有感情的,所以应该是客观公正的。然而,正如此前的新闻实验室会员通讯反复提到的,技术是由人在特定的社会条件下开发的,技术本身也会带有深刻的偏见。如果我们将一切都交给看似公正的机器,以为这样就万事大吉了,那么可能导致的结果便是社会不平等的进一步加剧、公正的进一步丧失。

技术是由人在特定的社会条件下开发的,技术本身也会带有深刻的偏见。

基于伦理的人工智能发展

正是因为以上两个方面的原因,不少欧美国家和城市都对人脸识别技术的应用做出了严格的限制。

旧金山在通过限制法令的同时,还通过了另一项涵盖内容更广的规定。根据这项新规定,旧金山市的公权力部门要想购买监控技术,就必须提前申请获得批准。这些监控技术包括自动的车牌扫描仪、带有摄像头的无人机等等。

科技媒体Recode的一篇文章(https://www.vox.com/recode/2019/5/14/18623897/san-francisco-facial-recognition-ban-explained)指出:美国对于数字隐私的立法速度是缓慢的,有一部分美国人看上去愿意为了便利而牺牲隐私(而且基本上都是向企业提供个人数据,而非政府);但是,人脸识别这项技术很可能戳中了美国文化的敏感点,那就是对个人自由权利的看重,对政府滥用权力的恐惧。因此,美国在针对人脸识别的立法方面要快得多。

而对于欧盟来说,对人脸识别技术的限制,是一项更为宏大的监管计划的一部分。这一计划,可以称为“基于伦理的人工智能法规”(ethically based laws governing AI)。此前的会员通讯也曾提到,欧盟在数字技术的发展方面不算领先,但在针对数字技术的监管方面走在世界前列。

当然,欧盟发展监管的目的并不是打压新技术,而是希望新技术能够尽可能造福社会,而不是带来副作用。在欧盟的立法者看来,对人工智能技术作出限制,其实可以使得公众对这项技术的信任度和接受度提高,这样一来,最终实际上是有利于这项技术的健康发展和妥善应用。

根据《金融时报》的报道,欧盟希望通过这方面的立法,树立一种“人工智能监管的世界标准”,这种标准可以通过清晰、可预测、统一的原则,充分保护个人的权益。

声明:本文来自新闻实验室,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。