Credit: Leopold Kanzler

文/李汶龙

所谓中国“人脸识别第一案”,跟人脸识别其实没有太大关系。生物识别信息没有被自动收集和处理,人脸识别系统也从未用在郭兵夫妇二人身上。郭兵的诉求也没有依据今年刚出台的两部重要法律——《民法典》和《个人信息保护法》——当然这可能跟诉讼时机有关。由于诉求建筑于《消费者保护法》还有《网络安全法》这种类数据保护规则之上,争议主要发生在合同履行层面,受合同法和消费者保护法调整。人脸识别的主要法律问题——例如隐私、数据保护、歧视——没有出现在这个案件当中。因此,真正关于人脸识别合法性的讨论可能还要等到第二案,第三案……尤其是当《民法典》和《个人信息保护法》都生效的时候。

郭兵案的案情并不是十分复杂,但一审判决涉及诸多细节,关于案情陈述和举证质证的文本长达万言,法院推理部分却非常稀少。总结而言,郭兵案的主要事实有以下几点:

1. 郭兵及其夫人选择在杭州野生动物园置办年卡。选择年卡与单次购票入园价格差异极大,杭州野生动物园甚至形成了一套折扣逐级提升的方案,跨度长达六年 (2014-2019)。基于此,动物园还有将数据留存六年的政策。

2. 置办年卡与指纹识别捆绑。所以折扣不仅跟捆绑消费有关(年卡),还涉及数据商品化的问题。被告辩护律师(来自大成)在其意见中也强调了这一点。

3. 郭兵夫妇办卡前后动物园就已经有了启动人脸识别系统的计划(判决中有提及)。办卡过程中,动物园要求郭兵夫妇拍照,但其目的并不是用于身份识别。如判决所言,这样做是为人脸识别系统“做准备”。

4. 办卡后的一段时间,郭兵被短信告知动物园将启用人脸识别系统。根据短信中的内容,若不参与升级则无法入园。郭兵为此驱车前往动物园确认,但现场工作人员并未告知其存在其他入园方式(也即不必一定“扫脸入园”)。

5. 郭兵将杭州野生动物园告上法庭,要求退还年费,赔偿用于现场确认和前往法院立案的交通费用,诉讼费用由被告承担。

由于判决争议的焦点过于特殊,本文尝试将其延展成人脸识别的一般性法律问题,仅在关键处对判决的推理和双方论点进行梳理。至于判决中争议的一些具体细节,例如法院仅赔偿郭兵部分年费的和稀泥做法,不在讨论范围之内。

一、人脸识别系统扩张中的“欺诈”

郭兵在本案中主动选择了一条窄路。他原本可以等到《民法典》和《个人信息保护法》出台之后,依据更有力的法律基础挑战人脸识别系统。他也没有选择更有把握获胜的法律基础:在被告和法官多次试图将问题转向合同可撤销问题时,郭兵依旧坚持以“欺诈”和合同无效为辩论焦点。他的初衷,据他自己所言,是可以通过确认无效间接保护到其他消费者。

郭兵希望将商家的多处“猫腻”都定性为欺诈。首先,捆绑消费(年卡)已经众所周知,但本案中商家还试图以折扣换取到指纹数据,将其定性为办理年卡的前提条件。郭兵主张在商家允许其他入园方式却强制要求用户提供指纹数据属于欺诈。其次,商家采用“瓮中捉鳖”的一招,在办卡过程中并未提及人脸识别即将启用,待消费者开始使用后才强迫“升级”,以年费挟持用户提供人脸识别数据。最后,还有另外一层欺骗性并未在判决中展开,即商家要求消费者办理年卡时需拍照而未明述拍照的理由。鉴于判决将此认定为“为人脸识别系统做准备”(第三十页),商家拍照的目的很有可能是为了获取训练数据,用于优化和提升系统性能。

法院关于欺诈的认定视角非常狭窄,仅关注缔约过程可能存在的欺诈,完全不考虑被告商家通判的算计,尤其是数据的隐性收集和利用层面。法官判断的尺度几乎完全关乎缔约有效性,而不考量商家与消费者之间的权力和信息不对等。换言之,法官采纳的是合同法视角,而未按照郭兵提出的诉求,从消费者保护的角度审视问题。因此,一审法官将所有问题转化为“不履行合同义务的违约行为”,对于“未产生任何欺诈后果”的结论(第二十九页)也没有提供分析。

实际上,《消费者保护法》第二十六条存在若干尺度和标准可能适用于本案的语境,但这些尺度并未得到充分的拓展和分析,包括郭兵在诉求中明确提及的“借助技术手段强制交易”。除此之外,第26条还原则上禁止“排除或限制消费者权利”、“减轻或免除经营者责任”、“加重消费者责任”,“结果上造成对消费者不公平、不合理的结果”等等。这些宽泛尺度的适用需要法官基于具体案情做语境分析。但是判决完全没有提及这些尺度,法官习惯性地依赖“合法”、“正当”、“必要”这些大口袋原则。

需要提到的一点是,即便法官转向消费者保护的视角,要认定商家在使用生物识别数据或者人脸识别系统中存在欺诈也很困难。难点在于如何在欺诈的框架中重新评估基于数据的商业模式。商家之所以乐此不疲寻求收集数据的渠道,很重要的一个原因是数据交易可以带来很大的经济红利。其次,当涉及到人脸识别等机器学习算法时,(训练)数据对于优化整个系统,确保稳定性和有效性,降低控制歧视等负面效果至关重要。如何说服消费者同意提供这类数据,一直是数字经济的“绊脚石”。

传统的消费者保护框架以金钱交易为基础。进入到数字时代,很多商品和服务都变得“免费”,既有保护规则也就难以延展。因此,这一法域的最近进展往往是试图扩张消费者保护的范围,将保护延伸到数字经济当中(例如欧盟2019年出台的《数字内容条令》)。这样的延展有赖于对“数据作为一种商品”的肯认,以及认同个人对于数据拥有一定的控制和使用权。中国一直重视德国法的发展,“信息自决权” (informational self-determination) 的概念经常被提到台面上来。但是,具体的数据保护规则却未严格围绕这个权利发展。认可信息自决是一件大事,它意味着将消费者置于一个强势控制,甚至绝对控制的地位。然而,中国法律中对这一理念或者权利的肯认都是言不由衷的。所谓“商业利用”和数字经济被认为是更重要的价值。

二、知情同意与人脸识别

由于郭兵没有选择隐私或者个人信息保护作为法律基础,知情同意的问题没有被提到台面上来说。本质上,《消费者保护法》第26条与数据保护中的知情同意里路相似,都是认定 1) 消费者是理性人,2) 确保知情权,尽量消弭信息不对等,以及 3) 确保消费者有理智和能力做出有效决策。

倘若在数据收集的知情同意框架下分析这个问题,思路会很清晰。欧盟的数据保护法(GDPR) 明确规定,向用户获取关于数据收集的同意不得与服务提供混淆,不得作为提供服务的前提条件,不得将二者捆绑 (bundled consent)。近来欧盟法院出台的譬如Planet49Orange Romania等案件也都在司法中明确禁止了捆绑同意的做法。我国的《个人信息保护法》第17条也“借鉴”了这一规则。郭兵案的情形明显属于将数据收集与服务提供捆绑,误导消费者对数据收集和使用问题不多做考量。由于判决作出时中国尚无数据保护框架,法官因此将重心放在了合同有效性上。

值得一提,草案中存在专门的人脸识别条款。第二十七条对于在公共场所安装图像采集、个人身份识别设备提供了一定的目的限缩和权益保障。但是,由于草案并没有严格禁止或者限制这类科技的使用,知情同意会成为一个主要的正当化事由。

三、生物识别信息的控制和利用

郭兵在本案中还要求对数据进行删除,法官也在判决中提及了所谓“删除权”和“被遗忘权”的概念。被遗忘权的理念来自于欧盟,在其数据保护框架升级换代的过程中被提出,先后在欧盟法院判决以及GDPR文本中予以明确。中国的《个人信息保护法》第47条也有类似的机制,虽未明确描述成一种权利,但模仿GDPR设立了若干删除事由。本案中,郭兵要求删除数据并非基于这部草案,而是《网络安全法》第43条。相较之下,《网络安全法》中的“被遗忘权”性质上可以被描述为“借鸡下蛋”:在个人信息保护框架尚未形成,个人又存在删除数据的正当需求时,《网络安全法》率先确认了删除权。但是,这个过渡版本的删除权构造极为粗糙,不具有太强的操作性。根据第43条,个人有权要求删除数据,但前提是网络运营者违反法律、行政法规或者双方约定。如此规定,既存在过宽表述的问题(法律、行政法规可以囊括所有规则),又存在过窄表述的问题(例如撤销同意不是事由之一)。令人遗憾的是,这样一个过渡性机制被原封不动地写进了民法典(第1036条)。

在没有法定的、具体的删除条件的情况下,法官的推理开始天马行空,逻辑混乱令人瞠目。本案的法官认为,如果消费者对个人信息进行“积极主动的商业化利用”(例如本案中郭兵不得不提交指纹数据才能办理年卡)而又“事后主张被动防御”,“无疑会造成经济成本和司法成本的浪费”(第九页)。法官认为,郭兵被要求提供指纹数据才能置办年卡属于个人主动追求商业利益,因此“应当限制、排除信息人要求删除的适用”。(第九至十页)此外,法院还认为,郭兵夫妇的入园记录(行踪数据)是商家的经营信息。在没有证据证明商家发生“泄露、篡改、丢失和其他违法使用前述信息行为,对信息权益造成损害或者损害风险的情况下,不允许郭兵删除数据。(第三十页)。

显而易见,本案法官对于本文上述提到的数字交易的本质、信息自决权的意义、捆绑同意等数字经济中存在的新问题完全不理睬,仍然遵循着传统金钱交易、“谁持有谁控制”、“商家可以拒绝服务为由威胁用户提供数据”的逻辑里路。

结语

郭兵看似取得了一定的胜利,但是判决中暴露出的问题令人堪忧。一定程度上,一审的结果跟个人信息保护框架尚未建立,知情同意、“信息自决权”等理念尚未渗透司法推理有关。但是,即便在不久的将来这些框架都付诸实施,个人能否借助法律工具抵制人脸识别系统的扩张和侵犯仍是个问题。整个社会对于这类黑科技有怎样的接纳程度也需要持续被讨论。双方都已提起上诉,因此本文提到的若干问题还有被进一步讨论的可能性。

除了这些问题之外,关于人脸识别系统的合法性尚有诸多问题还未开启。

2020年,在欧美讨论最多的主题莫过于人脸识别系统本质上存在歧视属性。无论是年中英国卡迪夫的Bridges案件,还是前两天谷歌将其负责人工智能伦理的负责人Timnit Gebru开除,都跟人脸识别系统的歧视问题有关。

系统的提升和有效运转有赖于训练数据,但是数据从何而来一直是数据科学家头疼的事情。2020年年初就爆出美国的Clearview AI公司在社交网络上到处爬取私人照片将其售卖以此盈利。这家公司目前正被英国的ICO以及澳大利亚的OAIC的调查。就在今年,李开复的一个演讲也不经意暴露出数据来源的问题。即便数据获取的渠道正当,商家如何确保他们获取到消费者的有效同意将成为个人信息保护法生效之后讨论的焦点。

人脸识别系统的准确性和有效性也是一个问题。据最新的研究显示,很多人脸识别系统都无法达到令人满意的准确性,且系统优化是一个渐进的过程,且需要够量、高质的训练数据。作为一个社会,我们能否容忍商家将一个尚未成熟的系统在人脸上做实验?这一问题尤其重要,因为“扫脸”的后果在中国绝不仅限于不让入园,抑或不让进入小区。

最后还有一个终极质疑:动物园里安装人脸识别,征求了动物们的同意吗?

声明:本文来自科技利维坦,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。