前言

人工智能在敏感领域的应用越来越多,包括招聘、刑事司法、医疗等,这引发各界关于偏见和公平的争论。在这些敏感领域和其他领域一样,人类决策也可能因人类偏见而引发不公平问题,而且人类的这些偏见往往是无意识,不易察觉的。人工智能决策是否会比人类决策带来更少的偏见问题?亦或是,人工智能决策会加重偏见问题?1988年,英国种族平等委员指控一所英国医学院涉嫌歧视,认为该医学院用来评估哪些申请人能被录取的算法对女性和非欧洲申请人存在偏见。但是,最初开发该算法的目的在于符合人类的录取决策,而且该算法的准确率高达90%到95%,该医学院录取的非欧洲学生比例高于其他大多数伦敦医学院。这意味着“有偏见”的算法仍然比其他学校的人类决策产生了更少的偏见,而且人类招生员的偏见可能永远不会被证明。

随着人工智能在各个领域发展,了解人工智能与偏见之间的关系日益重要,如何定义算法偏见是其中最大的挑战。虽然在定义上存在诸多困难,但是很多专家认为算法可能是解决人类偏见的方式。同时,一些人也担心,算法可能会加重和扩大人类偏见的影响。证据显示,这两种说法都是有一定意义。一方面,算法有机会让人工智能来识别和减少人类偏见;另一方面,我们需要改善人工智能系统,从数据的使用,系统的开发、部署和运营等一系列环节入手,来减少造成算法偏见的可能。因此,需要通过跨学科合作、技术改进、运营实践以及伦理标准等举措并行,以尽量减少人工智能系统和人类决策的偏见。

双刃剑:人工智能可能减少偏见,但同时也可能加重和扩大偏见

人类也会做出有偏见的决策。研究表明,法官会在不知不觉中按照个人喜好进行裁量,企业也会表现出对于条件相同的应试者进行不同对待的情况。而且,人类的决定难以探究或审查。人类可能会对自己考虑的因素撒谎,人类也可能不了解影响自己思考的因素,产生无意识的偏见。在许多情况下,人工智能可以减少人类对数据的主观解释,因为算法会根据所使用的训练数据,仅考虑提高预测准确性的变量。此外,一些证据表明,算法可以改善决策制定,在决策过程中变得更加公平。同时,大量证据表明,人工智能模型可以嵌入人类和社会的偏见并将其扩大。引用麻省理工安德鲁·迈克菲的话说,“使用算法时,偏见同时显现。”2015年芝加哥法院使用的一个犯罪风险评估算法COMPAS被证明对黑人造成了系统性歧视。如果一个黑人一旦犯了罪,他就更有可能被这个系统错误地标记为具有高犯罪风险,从而被法官判处更长的刑期。

偏见的源头:数据

数据的收集和使用可能会产生偏见。例如,在财务决策中,对某些特定群体抽样,可能会导致审批率降低。而且,对用户产生的数据进行反馈也会产生偏见。此外,利用算法进行数据相关性分析可能会被认定为违法。例如,如果抵押贷款模型发现老年人有更高的违约可能性并根据年龄减少对老年人的贷款,法律可能会认为这是非法的年龄歧视。

减少偏见的前提:如何定义和衡量公平

目前对于公平的讨论大多是集中于个体公平,即平等对待每一个个体,以及群体公平,即模型的预测或结果对于群体是公平的,特别是对于潜在的弱势群体是公平的。但是判断评估系统是否符合个体公平、群体公平或者其他公平的要求是非常复杂的。而且,对于公平的不同定义,也显示出了对不同利益的权衡。有研究显示,人工智能系统无法同时满足公平的多个衡量标准。这也说明了,为什么开发COMPAS的公司声称系统是公正。因为,COMPAS符合了“预测性等同”标准,但是无法解决“误报”问题。此外,过度强调公平,也会带来一些消极影响。例如,批准人们无力偿还的贷款,将会影响其信用评分。公平是非常复杂的,仅仅通过单一且通用的标准去定义公平将永远无法实现公平。应当根据不同情况,设置公平的不同衡量指标和标准。对此,有学者建议对不同群体设置不同的阈值。

人类判断:确保人工智能的公平性

在哪些情况下能够允许完全的自动化决策?人工智能算法是否消除了不公平的偏见,并能够进行使用?这些都需要人类进行权衡和判断,需要人类利用人文科学,特别是社会科学、法律和道德在内的许多学科知识来制定评判标准。

已有进展

(1)纽约大学的AI Now研究所连续三年发布年度报告,这是关于人工智能偏见开展的最长期研究。

(2)其他学术成果包括,哈佛大学、麻省理工、斯坦福相关研究中心所倡导的人工智能道德和治理准则。

(3)欧盟发布了《可信人工智能伦理指南》,提出可信人工智能具有三个组成部分:合法性,伦理性,和鲁棒性。《指南》旨在为实现后两个部分提供指导,具体提出可信人工智能的三层框架:基本权利奠基—七项基础要求—可信人工智能评估清单。

(4)谷歌提出的七大人工智能原则包括:对社会有益、避免制造或加强不公平的偏见、建立并测试安全性、对人负责、融入隐私设计原则、坚持科学卓越的高标准、为符合这些原则的用途提供服务。

(5)微软发布人工智能六大原则包括:公平、人工智能系统应当公平对待每个人、包容、人工智能系统必须赋能每一个人并使人们参与其中、可靠性和安全、人工智能系统必须安全可靠地运行、透明、隐私与安全、设计和应用人工智能系统的人必须对其系统的运行负责。

(6)IBM发布了AIFairness 360,这是一个用于测试和减少偏见的开源工具,微软已经在GitHub上提供了框架。

(7)Facebook、亚马逊、谷歌、IBM、微软等公司联合成立Partnership on AI组织,旨在汇集全球不同的声音,以保障人工智能在未来能够安全、透明、合理地发展,让世界更好地理解人工智能的影响。该组织提出六大伦理倡议,包括:确保人工智能是安全的、值得信赖的;打造公平、透明且负责任的人工智能;确保人工智能发展带来的成果得到广泛共享;确保人类与人工智能系统间的协作;促进相关深层合作与公开对话;利用人工智能的快速发展实现积极的结果。

(8)由Joy Buolamwini创立的算法正义联盟(AlgorithmicJustice League)旨在对偏见进行纠正并提供算法审计。

方法:如何减少偏见?

(1)清楚认识人工智能对于偏见的双刃剑功能。在开发人工智能系统时,应当依据先例着重考虑可能出现偏见的情况。鉴于人工智能可以降低人类偏见的案例越来越多,需要及时了解人工智能系统是如何提高公平性的。

(2)通过程序和实践以验证和消除人工智能系统中的偏见。解决偏见问题,需要通过一系列的程序设计,包括采用更加多样的抽样样本来改进数据的收集,通过第三方进行数据模型的审计等方式。

(3)了解人类决策中的偏见情况。人工智能决策其实也是反映人类决策的过程,需要考虑如何改进人类决策中的偏见问题。

(4)探索人类决策和机器如何能够更好地协同工作。研究人类决策与机器决策能够更好结合的情况,通过两者的结合来降低偏见。包括,在人工智能提供选择的同时,展现算法的透明度,能够让人类进行选择。

(5)加大科研力度,在保护隐私的前提下为研究提供更多的数据。采用多学科方法。推进人工智能发展需要跨学科的参与,包括伦理学家,社会科学家和最能理解过程中每个应用领域细微差别的专家的参与。

(6)促进人工智能投资领域的多样化。加强人工智能的多样化,将更好地帮助人工智能进行预测,发现和审查偏见问题。

评述

人工智能算法并非绝对客观世界的产物,如果算法的设计者或开发人员对事物的认知存在某种偏见,或者训练算法的数据集不够全面多样,会产生算法偏见,人工智能在公共服务中的应用尤其需要注意这个问题。

建议依托第三方机构开展算法决策评估工作,设立算法的评估流程和标准,对人工智能算法的公平性、透明性以及可责性进行审查。同时,企业应当落实主体责任,加强自我审查,确保算法的公平、可靠和安全。面对拥有巨大潜力的人工智能服务市场,建议我国企业内部也建立起由产品开发、研究员、法律事务、人力资源等部门的负责人组成的人工智能伦理审查机制,管理和指导企业对人工智能算法的设计和使用,落实企业责任,以负责任的态度打造人工智能系统。

作者简介:杨婕,中国信息通信研究院互联网法律研究中心研究员

声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。