导语:2024年,Annual Review of Psychology发表文章《人工智能的道德心理学》(The Moral Psychology of Artificial Intelligence)。文章探讨了人工智能迅猛发展背景下,智能机器对道德心理学的影响。启元洞见分享文章主要内容,为读者提供参考。

道德心理学围绕三类主体和客体而形成:人类、其他动物和超自然存在。人工智能的快速发展为我们的道德心理学引入了第四类:智能机器。机器可以作为道德主体(moral agent),做出影响人类客体结果的决定,或在没有人类监督的情况下解决道德困境。机器可以被视为道德客体(moral patient),其结果会受到人类决定的影响,从而对人机合作产生重要影响。机器可以是人类主体和客体在道德互动中派出的道德代理(moral proxy),或在这些互动中用作伪装。

一、介绍

今天,人工智能终于不再是虚构,开始走向普及。随着人工智能创新的步伐开始以月而不是以年来衡量,人们感觉自己正站在期待已久的人工智能革命的山脚下。截至发稿时,生成式人工智能和大语言模型让公众对人工智能的兴趣倍增。虚拟助手已成为日常工具,推荐算法支配着我们的注意力。

随着人类与机器人和其他人工智能的接触成倍增加,人们也在努力了解人工智能的道德心理学。其中一些工作涉及对尚不可能的事物进行推测性研究。例如,人们广泛讨论的一个例子是,如何对无人驾驶汽车进行编程,以便将风险分配给不同的个体。然而,更常见的是一种追赶过程,即研究人员竞相了解伴随人工智能领域快速涌现的创新而出现的心理层面问题。在线机器人、人工智能辅助医疗诊断以及预测算法在警务和监禁中的应用,都引发了有关信任、偏见和价值一致性的重要道德问题。

在此文中,作者回顾了有关智能机器开始扮演的道德角色的研究。作为道德主体,机器或明或暗地承担着促进或做出道德决定的责任,这些决定往往关乎生死存亡,比如谁应该接受肾脏移植、在交通碰撞中谁的安全应该被放在首位,或者谁会被关进监狱。在这些领域,我们应该如何使人工智能驱动的决策与人类价值观保持一致?作为道德客体,机器是人类道德行为的主体,无论是合作还是竞争,同情还是恶意。虽然考虑无感知机器的客体听起来像是科幻小说中的幻想,但如何加强人类与人工智能的合作已经是当今的一项挑战。最后,在道德代理的角色中,机器可以作为人们对待人类同伴的道德中介。在这一角色中,人们可以利用机器来掩饰、粉饰或实施他们在道德上有问题的行为。

二、作为道德主体的机器

(一)隐性道德机器

即使机器的程序没有明确编码道德价值观,只要其行为的后果属于道德范畴,那么它就可以被视为道德主体。这就是我们所说的隐性道德主体或隐性道德机器。这里的典型案例是机器的错误会造成伤害。例如,医疗人工智能可能会因为做出错误的诊断而伤害患者,推荐算法可能会因为引导儿童观看暴力视频而造成伤害,人脸识别算法可能会因为把人误认为已知的恐怖分子而造成伤害。这些隐性道德机器并不一定试图解决道德困境,但它们的失败却具有道德影响。因此,从道德心理学的角度来看,它们的表现是最重要的考虑因素。本文依次考虑人们对机器性能的期望,即机器的错误会造成伤害,以及人们对这些错误的反应。更具体地说,文章考虑了人们愿意容忍隐性道德机器犯多少错误,他们对这些错误在弱势群体和较弱势群体中的分布情况的担忧,以及他们对机器单独或与人类共同失误的指责。

(二)显性道德机器

隐性道德机器并不试图解决道德困境,而显性道德机器则会。事实上,显性道德机器的主要功能要么是解决道德困境,要么是在某些情况下容易遇到道德困境,因此必须配备相应的设备,以便在出现这些困境时加以解决。有些道德困境的形式是两种道德原则之间的冲突。例如,一台在网上进行内容审核的机器,由于其规模或速度无法进行持续的人工监督,可能不得不在言论自由的价值与制止攻击性或有害内容的责任之间进行例行仲裁。在另一种情况下,医疗人工智能可能不得不在以下两者之间做出选择:是立即提供最佳诊断结果(即使它无法向人类解释其推理),还是建议进行进一步测试以提高可解释性,从而冒着延误时间紧迫的诊断的风险。在人工智能伦理学中,提供人工智能应同时追求的道德价值或伦理原则清单(如隐私、尊严和透明度)非常常见,但就这些价值发生冲突时机器应该怎么做的指导则少见得多。其中一个原因是,尊严和隐私等广泛的伦理原则很难量化,因此在政策指南和实验工作中很难操作它们之间的权衡。也许正是由于这种困难,关于显性道德机器的心理学文献大多集中于另一种困境,一种似乎更适合实验研究的困境。

第二种道德困境通常涉及稀缺资源的分配问题,会给在分配决策中未被优先考虑的人类带来不利后果。例如,考虑一下肾脏配对捐赠的问题。肾脏移植手术中有很大一部分涉及活体捐献者,通常是捐献者的配偶或亲属,但潜在的捐献者往往与他们自愿帮助的捐献者不匹配。在这种情况下,一种解决方案是将所有候选人和潜在捐献者输入数据库,然后将数据库输入一种算法,该算法会寻求双向、三向甚至更复杂的捐献链,以便让尽可能多的候选人找到匹配的捐献者。不过,这种算法并不是简单地追求捐献数量的最大化,它还采用了一种复杂的优先级方案,对候选人的年龄、在项目中注册的时间、到移植中心的旅行距离或在普通人群中找到捐献者的基线机会等诸多因素进行平衡。机器必须在所有这些因素之间进行权衡,以决定谁将获得肾脏,谁将留在等待名单上。

三、作为道德客体的机器

现在考虑一下机器是道德客体的情况,即人的行为影响到机器的情况。这听起来可能有些奇怪,因为机器没有任何影响,也没有任何需求或欲望。尽管人们很清楚这一点,但他们仍然会对机器产生共鸣,或者认为机器在某种意义上需要某些东西,而这些东西是可以给予或拒绝的。换句话说,人们有时会认为机器有偏好,这可能会让机器变成道德客体,因为其他主体的行为会让机器经历偏好或不偏好的结果。

当人们有机会与机器合作时,这一点尤为重要。与智能、自主机器的合作互动还不是一种常见的体验,但这种情况在未来很可能会改变。在工业环境中,与机器合作已经成为现实,不久之后,道路使用者将不得不与自动驾驶汽车合作,以确保每个人的交通安全。在线社区或社交网络中的许多参与者已经与机器人进行了与人类相同的合作(或不合作)互动。随着与智能机器的互动越来越普遍,人类和机器将如何发起并维持合作?

(一)与机器有关的偏好

人类之间的合作并不一定涉及金钱。人们可以自愿贡献自己的时间和技能来帮助他人、提供建议、分享工具、为某一事业代言或献血。虽然可以在研究合作的行为实验中对所有这些货币进行研究,但实验经济学已经普及了一种假设,即通过使用具有经济激励的实验室游戏,如独裁者游戏、囚徒困境、最后通牒游戏或公益游戏,可以捕捉到人类合作的多面性。激励游戏提供了一个可控的、风格化的环境来衡量他人偏好和亲社会行为,便于对研究和实验处理进行比较。因此,许多关于人机合作的研究都使用了相同的游戏,只是用智能机器取代了部分人类玩家,以记录与机器而非人类玩激励游戏时人类行为的变化。这些研究延续了这样一个假设:正如金钱可以作为人与人合作的多种货币的替代品一样,金钱也可以作为人机合作的多种货币的替代品。

关于激励游戏中人机合作的研究结果显示了显著的趋同性。简而言之,人们确实表现出了一定程度的亲社会机器偏好,而且人类与机器玩游戏时合作并没有消失,但没有达到人机合作的水平。换句话说,所有研究结果都表明,在合作游戏中存在机器惩罚。例如,在单次信任博弈中,人类第二行动者对人类和机器第一行动者的合作预期水平相同,但只有34%的人对机器的信任有回报,而对人类信任有回报的人占75%;同样,在单次囚徒困境中,人们对人类和机器的合作预期水平相同,但与机器合作的人只有36%,而与人类合作的人占49%。

(二)克服机器惩罚

机器惩罚不仅是我们需要了解的现象,也可以说是我们必须解决的问题。在过去的20年里,人工智能研究中值得庆祝的里程碑往往与人类的竞争联系在一起——无论是IBM Watson战胜《危险边缘》游戏中排名最高的两位选手,还是Deep Mind的AlphaGo战胜顶尖围棋选手李世石。虽然超越人类的表现是人工智能的一个重要目标(尤其是当人工智能作为一个隐性道德主体行事时),但越来越多的人认识到,为了发挥人工智能的真正潜力,我们需要在人与人工智能的合作和竞争方面付出同样多的努力。这一挑战有技术方面的原因,因为它可能需要设计出能够理解人类意图和目标并做出适当反应的人工智能系统;但这一挑战也有心理方面的原因,它需要理解人类为何不愿与机器合作,并设计出能够克服这种机器惩罚的干预措施。

从赋予机器更多类似人类特征的干预措施入手也许是很自然的。毕竟,如果人们与机器的合作不如与人类的合作,也许我们可以通过让机器看起来或感觉更像人类来缩小合作率之间的差距。这种人性化策略可能会帮助人们与机器合作时激活与人类合作时相同的合作模板,或者他们用来解释合作伙伴行为的参照系,从而增加他们在这种新情况下的信任感和舒适感。因此,我们可以预期,当机器人性化程度较高时,人性化策略的效果会比机器人性化程度较低时更好。然而,实验结果却告诉我们一个更为复杂的故事。

与非人性化的机器人相比,最低程度人性化的机器人通常无法引起更多的合作。最低程度人性化的例子包括:与昆虫外形的机器人相比,赋予机器人卵形的外形,并增加眼睛;或赋予非人形机器人一些情感表现,如风格化的愤怒、悲伤或快乐的眼神,以及录制的叹息和笑声。这些实验并没有报告对合作的显著影响,这表明最低限度的人性化不足以克服机器惩罚。向人性化梯度攀升并不能大大提高合作性,甚至会因为“恐怖谷效应”而使情况变得更糟,“恐怖谷效应”是指机器在很大程度上与人类相似但又不完全相似时所引起的陌生感和不适感。

迄今为止,我们所研究的所有人性化策略都是非欺骗性的,也就是说,虽然机器变得更像人了,但它从未被描述成人类。如果我们取消这一限制,就能达到人性化的最高境界,即机器假装成人类。如果人们不知道自己在与机器合作,他们就不会受到机器惩罚。不过,这种解决方案再次引发了伦理问题,因为人工智能伦理规范通常强调,绝不能让机器冒充人类。

总之,人性化策略通常无法减少机器惩罚,而那些成功的策略(部分或全部)也不符合当前的道德标准。因此,有必要开展进一步的研究,在不诉诸机器人性化的情况下,寻求改善人机合作。一个有希望的方向可能是接受这样一个事实,即智能机器是我们社会与合作互动中的新来者,并且接受与这些新来者打交道可能需要新的社会规范。换句话说,与其让机器变得更像人类,希望将旧的社会规范应用于它们,应该尝试新的社会规范,这些规范将围绕我们社会世界的新成员——智能机器而发展。

四、机器作为道德代理

根据设计,人工智能使机器能够代表人类利益相关者自主决策。这就产生了一种可能性,即以一种拉开人类与不道德行为之间距离的方式将不道德行为委托给机器。人工智能还提供了另一种可能性,即以道德相关的方式调解人类沟通。我们将逐一探讨这些可能性。

(一)给机器授权

人们将越来越多的任务委托给人工智能代理。当前和近期的可能性多种多样,如在在线市场上确定价格、审讯嫌疑人以及向客户营销。这就为将不道德行为委托给机器创造了许多机会。

首先,怀有恶意的人可以利用人工智能来扩大犯罪或不道德行为的规模。深度学习,特别是生成式对抗网络(GAN)的最新进展,使得创建看似真实的虚假内容变得更加容易。那些怀有恶意的人可以从使用人工智能代理中获益,因为人工智能可以独立行动,并有可能以无与伦比的效率和规模造成危害。此外,这些人工智能代理可能更难追溯到原始源头。人工智能驱动的深度伪造可以创建虚假身份,从而使网络钓鱼攻击变得更加个性化和有效。

将犯罪或道德上有问题的行为委托给人工智能代理,除了可扩展性之外,可能还有其他吸引人的原因。当人们将任务委托给人工智能代理时,会产生一系列可能导致不道德行为的心理因素,如匿名性、与受害者的心理距离和不可察觉性。算法的工作原理往往难以理解,这就造成了模糊性。让这种黑盒算法代表自己执行任务,会增加似是而非的推诿性,模糊造成伤害的责任归属。如果任何损害确实显现出来,可以将责难和责任转移到委托人身上,这可能会减轻人类(法律或心理)负罪感。事实上,人们倾向于选择委托,即使这意味着明确指示要违反道德规则。

模棱两可是将不道德行为委托给机器的另一种机制。通常情况下,人们不会明确指示机器违反道德规则,而只是确定他们想要的结果,并对如何实现这一结果视而不见。通过这种方式,委托人避免了与受害者的直接接触,并可以通过故意无视的方式,故意忽略委托可能导致的任何违反道德规则的行为。向人工智能授权也可能在没有任何不良意图的情况下造成违反道德的行为。例如,有人可能会使用算法价格在网络上销售商品,却没有意识到算法可能会协调并制定合谋价格。依赖人工智能驱动的销售策略的营销人员可能并不知道,人工智能代理采用了欺骗性策略来达到销售目标。

当然,并非所有授权都是坏事。人们确实可以将道德上可取的行动委托给人工智能代理。具体来说,将道德上可取的行动(如慈善捐款)委托给人工智能代理可能会成为一种承诺手段,从而增加此类行动的规模和频率。此外,人工智能代理还有机会扮演顾问角色,向人类动态建议道德行为。

4.2.机器伪装

在这一部分,我们将探讨人们在机器的伪装下参与互动的可能性。在这种机器伪装下(称为以人工智能为媒介的交流),人们利用技术修改自己的书写、谈话或表情方式,以改变其伙伴的行为。迄今为止,道德心理学对以人工智能为媒介的交流关注甚少,但考虑到机器伪装工具的出现、它们将改变道德互动的方式以及它们带来的伦理挑战,这种情况很可能会改变。

许多人已经熟悉了机器生成的短信或电子邮件回复,以及改善主题外观的图像过滤器;但人工智能将允许他们进行更强大、更灵活的转换。书面文字、个人资料图片以及实时在线互动中的语音和面部动态都可以进行修改,以实现各种展示目标。

对于人们将如何抓住和判断这些机会、在何种规模上、产生何种效果,我们还知之甚少。举例来说,一个社交媒体用户为了表达对性别平等的承诺,偷偷要求机器生成帖子内容,而另一个社交媒体用户则在自己的个人主页上披露,他们正在系统地要求机器修改帖子内容,以消除性别偏见。这些场景不再牵强附会,我们需要从道德心理学的角度来理解它们将产生的影响以及引发的反应。

机器伪装并不局限于书面文字,它还能改变我们的外表和声音。人们已经可以尝试使用生成式人工智能来创建自己的个人照片,改变声音的技术也已经完善。这就意味着,人们可以要求机器改变自己的面容,使其看起来更有优势或更值得信赖,或者改变自己的声音,使其听起来更清晰或更欢快。这些改变可以改变道德互动的结果,但也会为道德心理学的研究提出新的伦理问题,如减少歧视与危害包容之间的冲突。

总之,机器伪装为道德心理学提供了一个广阔的新研究领域,旨在了解人们将如何利用技术改变自己的表现形式,以改变道德互动的结果或管理自己的道德声誉;不同形式的披露将如何缓和这一过程;以及社会将如何应对这一技术带来的新的道德困境。

五、结论

文章并没有解决人工智能与道德心理学交叉领域的所有问题。人们如何看待人工智能的剽窃行为,人工智能主体的存在会如何降低或增强人类群体之间的信任,以及性爱机器人会如何改变人类的亲密关系,这些问题都是正在进行的研究项目的主题。随着新的人工智能能力的发展,还会有更多尚未提出的问题。考虑到这种变化的速度,任何评论文章都只能是一个缩影。尽管如此,人工智能驱动的技术在最近迅速崛起,与数千年来文化和进化所形成的道德直觉正在发生碰撞。以对人类道德心理结构的透彻理解为基础,对人工智能的可能性进行富有想象力的推测,将有助于为一个与机器共享并被机器复杂化的世界做好准备。

参考来源:Annual Review of Psychology

参考题目:

The Moral Psychology of Artificial Intelligence

参考链接:

https://www.annualreviews.org/content/journals/10.1146/annurev-psych-030123-113559

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

编辑 | 寂谷

审校 | 流景

声明:本文来自启元洞见,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。