【编者按】2020年2月10日,美国布鲁金斯学会发布报告《在人工智能驱动的世界中保护隐私》(Protecting privacy in an AI-driven world),探讨了人工智能中潜藏的隐私问题及其治理方式。报告提出,美国隐私立法需要考虑能否或如何解决人工智能系统中使用个人信息的问题,防止歧视性算法决策是立法的重要组成部分,需要推动风险评估、透明度、可解释性和审计等多种措施组合应用。

1、人工智能中的隐私问题

美国国会面临的挑战是如何通过隐私立法保护人工智能中的个人隐私不被侵犯,同时又不过度限制人工智能的发展。在隐私立法争论不断的背景下,人工智能系统的局限性和缺陷成为讨论的焦点,例如可能会对少数群体造成区别对待的预测性警务,或对女性求职者产生偏见的亚马逊招聘算法。两者都引发了重大社会问题,即便没有这些人工智能引起的社会和政治问题,隐私立法也非常复杂。为了评估人工智能对隐私治理的影响,区分人工智能所特有的数据问题非常必要,例如假阳性和阴性事件发生的概率或模型的过度拟合,以及算法决策中的个人数据处理问题。

美国国会关于隐私立法辩论的焦点集中在算法偏差和算法决策中潜在的非法和歧视性问题。这也是民权和消费者组织的主要关切点。

解决算法歧视是确定隐私立法范围的基本问题。首先,立法可以或应该在多大程度上解决算法歧视?算法歧视是广泛存在的社会问题,并且属于各种民权法的范畴。隐私立法辩论将揭开人工智能的“潘多拉魔盒”。

其次,在人工智能背景下保护个人隐私需要改变隐私监管范式。大多数现有的隐私法以及联邦贸易委员会针对不公平和欺骗性行为的执法都基于“声明和选择”(notice-and-choice)的消费者选择模型。面对这些冗长“隐私条款”消费者往往未经阅读即选择同意,这种同意是毫无意义的。对于许多AI应用程序(支持无人驾驶汽车所需的智能交通信号灯和其他传感器)来说,这种模型完全不可行。

尽管国会几乎所有法案在某种程度上仍依赖于“声明和选择”模型,但国会的主要领导人以及隐私利益相关者希望改变这一模型,将保护个人隐私的负担从消费者转移到收集数据的企业。他们构建的模型侧重于规范公司数据处理流程(它们收集什么数据以及如何使用和共享这些数据)并以此来规范公司的商业行为。这一模型将适用于任何一项可能存在算法歧视的数据处理活动。

专注于数据收集和处理的隐私保护模型可能对算法歧视问题产生以下间接影响:

● 诸如公平等数据管理要求会阻碍影响数据主体个人利益的数据的使用。

● 数据透明性、披露规则以及数据主体的可访问权可以阐明算法决策的用途。

● 数据治理规则要求组织必须任命隐私官,隐私评估或“从设计着手的隐私保护”(privacy by design)可能影响算法程序设计。

● 有关数据收集和共享的规则可以减少有关行为预测的数据聚合,但是也要权衡数据多样性和数据量之间的利弊。

2、隐私保护的人工智能政策探讨

当前隐私立法中关于AI的讨论主要有两种形式。第一种形式直接针对算法歧视。一个由26个民权和消费者组织组成的小组在一封联合信中主张禁止或监视敏感个人数据的使用,这些数据包括有色人种、妇女、宗教少数群体、非主流性取向群体(LGBTQ)、残疾人、移民等其他弱势群体。公民权利和自由媒体的律师委员会已将此原则纳入示范立法,旨在解决影响经济发展、公共秩序或选民系统的数据歧视。该模型在《消费者在线隐私权法案》(Consumer Online Privacy Rights Act)中得到了充分体现。该法案包括类似的规定:限制处理可能会导致歧视的个人数据,例如种族、性别或性取向。共和党反提案草案呼吁联邦贸易委员会与执行歧视法和进行相关研究的机构合作,以解决个人信息处理过程中潜在的歧视问题。

这种用于解决算法歧视的模式引起了隐私立法中关于私权诉讼(private rights of action)的激烈讨论。私权诉讼的可能性是解决代表消费者和隐私权倡导者的民主党人与代表商业利益的共和党人之间分歧的关键。民主党人辩称,私权诉讼是联邦和州执法的力量倍增器,而共和党则表示私权诉讼权尤其是集体诉讼会给企业带来各种琐碎问题的诉讼负担。对于算法歧视提案中列举的多种歧视问题,现有的联邦、州和地方民权法能够支持公民提出歧视索赔。联邦隐私法中任何一项联邦先占权(federal preemption)或者对私权诉讼的限制都不应该妨碍现存民权法的施行。

第二种形式侧重于解决风险,其问责制旨在识别个人数据处理过程中的歧视问题。许多组织和公司以及立法者提出了这种问责制。他们的建议有以下几种形式:

透明性:指与算法决策有关的“隐私披露”。尽管冗长而详尽的隐私政策对大多数消费者没有帮助,但它确实为监管机构提供了监管基准,用以检查公司的数据处理合规性并追究公司的责任。用“隐私披露”(详细描述数据收集方式和内容、数据使用方式以及数据保护措施)代替当前的隐私政策声明将增强此基准功能。并且“隐私披露”是识别算法决策中关于个人信息处理的重要用途,将有助于监管机构和消费者迅速定位存在潜在隐私风险的数据处理环节。

可解释性:尽管透明性可以提前揭露算法决策中的隐私问题,但算法的可解释性可以对决策中使用的算法进行溯源。这是欧盟通用数据保护条例(GDPR)解决算法歧视的主要方法。GDPR要求,对于会对数据主体产生“法律效力或类似的重大影响”的自动化决策,例如就业、信贷或保险,受影响的个体必须向具备审查决策资质并能够解释算法逻辑的人员寻求法律援助。算法可解释范围包含“人在回路”(human-in-the-loop)和正当程序中的各项元素,这些元素可检查算法的训练样本中是否存在歧视因子。可解释性可用于任何一项对数据主体生活产生重大影响的算法决策,它要求:1)识别算法决策;2)解析特定决策;3)建立数据主体寻求算法解释的渠道。对于基于机器学习的逆向工程算法来说,实现可解释性非常困难,随着机器学习变得越来越复杂,这种难度会越来越大。因此,可解释性给算法决策的商业应用带来了巨大的监管负担和约束。所以在这种情况下,对于算法决策的监管应集中于应用本身,欧盟已经(至少原则上)以其“法律效力或类似的重大影响”来做判断依据。随着人们对人机功能具有的相对优势了解日益加深,“人在回路”将为人们的日常决策提供一种将机器力量与人的判断力和同理心相结合的方法。

风险评估:在1974年的《隐私法》(Privacy Act)中,风险评估最初是作为联邦政府内部的“隐私影响评估”而开发的。自那时以来,它们已发展成为一种广泛使用的隐私治理工具,可以预先评估和缓解隐私风险。并且GDPR要求将它们用于新技术应用或高风险的数据处理。风险评估为解决算法歧视问题提供了一种新的尝试,即预测算法设计和训练数据集中的潜在偏差以及对数据主体的潜在影响。为了减少监管负担,风险评估等级应与决策重要性相对应,即决策可能产生的后果、受决策影响的人数、用于决策的数据量以及算法的新颖程度和复杂性。

审计:审计可以对隐私治理进行回溯评估。大多数立法建议都包含自我审计或第三方审计等一般性的问责要求,以确保公司遵守其隐私计划。审计结果与前瞻性风险评估相结合即实现了关于算法决策的后见与先见之明的有机结合。与可解释性一样,审计也很难应用于机器学习。布鲁金斯学者Nicol Turner Lee、Paul Resnick和Genie Barton认为,算法开发人员在实践中应该始终反问自己:算法的设计或其潜在后果是否会给人们生活造成重大影响?

由于对机器学习以及逆向工程算法决策进行结果预测非常困难,因此任何一项单一的措施都无法有效地避免其不良影响。在需要进行算法决策的情况下,将多种度量措施组合应用才有意义。诸如透明度和风险评估之类的预测措施,再结合审计的回溯性检查和对决策的人工审查,可以帮助识别和解决不公平算法歧视。这些措施的互补可以实现“1+1>2”的效应。风险评估、透明度、可解释性和审计也将通过提供可用于诉讼的文件证据来加强现有的补救措施。但是,这些措施并非适用于所有算法决策,最终采取的措施应该根据算法决策的风险等级进行调整。

3、展望未来

2019年全年,美国国会众议院的商务委员会一直在两党的基础上开展工作并提出了商议草案,但他们尚未就一项法案达成一致协议。无论在2020年大选之前是否通过隐私立法,处理算法决策都是一个关键且具有政治挑战性的问题,需要可行的解决方案。对于许多民权、消费者和其他公民社会团体而言,建立保护措施以防止歧视性算法决策是立法的重要组成部分,现存的法律主张对于隐私立法通过与否至关重要,因为基于个人信息的算法歧视目前已受制于现有的民权和非歧视法律,以及一些附加的问责制度。

编译 | 李顾元/上海社会科学院信息所研究生

声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。