在过去十年中,技术变革改变了我们生活的世界,从语音助手技术、面部识别软件、加密货币市场、全自动驾驶汽车和神经网络传感技术的进步。如今,使用人工智能(AI)和机器学习(ML)技术的语音辅助设备,例如Amazon Echo和Google Home,已成为超过半数美国(US)成年人日常生活的一部分(Juniper Research,2017年)。人工智能的进步正在引领一场改变我们互动方式的全球革命(美国国务院,2022年)。同样,美国国防部(DoD)已经投资于变革性技术进步和AI/ML的采用(首席数字和人工智能办公室[CDAO],2022a)。

许多公司收集和利用客户信息来支持需求并制定销售策略和有针对性的广告活动(Goddard,2019年)。相反,Oracle和Cambridge Analytica等组织依赖大量信息(称为“大数据”)来创建旨在影响人群的心理测量档案(Goddard,2019年;Porotsky,2019年)。同样,美国政府利用和实施大量大数据、人工智能和机器学习来影响军事行动(国务院,2022年)。例如,2022年6月,国防部CDAO和美国空军进行了联合演习,评估和评估一个名为“智能传感器大脑”的项目。该项目使用支持人工智能的自主无人机系。

问题

利用AI、ML和自主权将先进技术武器化会导致重大的伦理和道德挑战,美国政府需要妥善应对这些挑战。2017年,在全美州长协会会议上,特斯拉公司和SpaceX公司的首席执行官埃隆马斯克描述了他认为对美国最大的经验威胁是人工智能安全(Molina,2017年)。马斯克宣布,由于“人类文明存在根本的生存风险”,政府需要考虑对人工智能进行监管(Molina,2017年,第1段)。AI的概念已经存在了几十年,随着ML(特别是神经网络系统)的进步,新功能将继续挑战世界的可能性。

近40年前,作家兼电影导演詹姆斯·卡梅隆(James Cameron)发行了电影《终结者》(The Terminator),这是对AI和ML力量的简单描绘。卡梅隆的电影描绘了一个虚构的世界,其中一个坚不可摧的机器人人类由一个名为skynet(IMDb,日期不详)的超级智能系统控制。在Cameron的故事情节中,Skynet是我们今天所理解的AI和ML的神经网络软件产品。从理论上讲,这个例子展示了一种特别反乌托邦的形式,即高级人工智能可能带来的可能性。然而,根据Wissner-Gross&Freer (2013) 的说法,人工智能有能力和潜力自发出现并完全接管世界,这对智能本身来说是必然的。

与大多数创新技术一样,美国政府正在不断进行现代化和进步,以在未来的任何战场上保持竞争力。然而,在将武器化、自主能力和高度适应性的人工智能系统的开发、进步和实现结合起来时,存在多重道德困境。Sullivan等人(2017)认为,由于人工智能等先进技术的融合,美国将不会在未来战场上保持领先对手的技术优势。考虑到完全自主武器系统,最突出的道德困境之一,在哪个拐点上,美国政府应该认为人工智能支持的决策或目标是不道德的。此外,美国目前的政策要求武器系统允许“在使用武力方面有适当程度的人类判断”(国防部,2017年,第2页)。总的来说,人工智能对社会和所有技术进步的未来都有巨大的积极和消极两面影响。

影响

检查美国政府对人工智能开发和创新的使用,设计诸如人类增强和致命自主武器系统等项目,其目的是降低士兵的整体风险。根据美国国会的说法,“‘人工智能’一词是指一种基于机器的系统,它可以针对一组给定的人类定义目标,做出影响真实或虚拟环境的预测、建议或决策”(William M. (Mac) Thornberry 国防授权法案,2020年,第1164 页)。认识到人工智能和机器学习在做出预测和决策方面的应用和潜力,再加上机器人技术和自主技术,未来士兵在战场上的战斗方式无疑将发生改变。比如在智能传感器大脑的例子中。

根据Sullivan等人的说法(2017 年),高度先进的全球同行竞争对手和美国的对手将继续投资于高度颠覆性的人工技术,无论美国政府的立场和投资如何。因此,由于致命自主武器系统等高度颠覆性技术的融合,美国政府不太可能比对手拥有无可争议的优势,这是人工智能武器化道德困境的根本原因。

AI和增强的ML流程使先进技术在众多职业领域得到更多使用,例如医疗卫生、科学、教育和军事。在私营部门,人工智能技术在筛查和准确诊断胸部X光疾病方面的表现优于斯坦福放射科医生(Husain,2021年)。根据Husain(2021年)的说法,人工智能尚未导致人类开发的最关键的发现。因此,实施由AI支持的高度先进技术的道德困境通常是由于对其真正能力的严重误解。许多人将AI描述为有形但危险的创造物,例如Skynet的例子。然而,人工智能是科学,不像核武器那样是可检测、可控制、可监测的物理对象(Husain,2021)。Husain (2021)描述了人工智能的运行规模和速度通常是人类无法想象的。尽管根本原因的解决方案可能需要几十年的时间,但美国政府已经加大力度应对人工智能自主武器的伦理挑战。

解决方案

认识到需要解决将AI和ML软件武器化的道德困境,美国政府已在国防部层面制定政策以维持制衡系统(Sayler,2022)。在国防部内部,美国军方必须明确定义AI/ML能够加强的工作。此外,军事领导人和操作员必须使用AI/ML支持的技术进行有效培训,以在未来执行人机混合操作时把握军事行动的范围(Mooers,2022年;Sullivan等人,2017年)。

美国陆军已投资超过7200万美元来利用AI/ML发现能力并推动创新(ARL公共事务,2019年)。此外,美国陆军在陆军发展司令部下设立了陆军研究实验室,总部设在陆军未来司令部,领导陆军人工智能现代化。此外,国防部于2018年创建了联合人工智能中心作为军事部分,并于2022年创建了CDAO作为民事监督部分,这些都是美国政府2020年国家人工智能倡议法案的一部分(CDAO,2022a;CDAO,2022b)。为了加强国防部的研发能力,CDAO与约翰霍普金斯大学的应用物理实验室(JHU-APL)建立了合作伙伴关系(CDAO公共事务,2022年)。通过与陆军、空军、CDAO和JHU-APL开展联合研究和训练演习,构建面向未来的解决方案,提供额外的专业知识层,同时继续应对未来战场中军事使用AI的伦理挑战。随着创新和现代化的发生,使用伦理处理模型检查伦理困境将进一步支持AI和ML技术的伦理使用。

道德视角

做决定对生活至关重要。领导者经常遇到需要就道德困境或他们可能并不总是同意的问题做出决定的情况。然而,领导者可以依靠他们的性格、价值观和原则来指导他们的道德决策。此外,使用道德处理模型将进一步支持领导者的道德推理并为道德决策奠定基础。

根据陆军部(2019),陆军职业的五个特征之一要求领导者具备军事专业知识。在这一特征下,陆军领导人必须展示在领导者和人类发展、道德伦理、地缘文化和政治以及军事技术知识方面的军事专业知识。通过道德伦理知识领域,陆军专业人员必须能够创造“对各种问题的道德解决方案”(陆军部,2019年,第2-7页)。开发道德问题的道德解决方案始于通过道德处理模型检查的道德推理。

道德处理模型由四项原则组成,包括识别道德冲突或问题、通过三个道德视角评估选项、致力于道德决策以及根据道德决策采取行动 (Kem)。着眼于第二步,评估道德困境的选择包括通过规则或原则、结果或后果以及美德或信仰的道德三角中的三种替代方法来检查道德问题(Kem,nd)。通过伦理处理模型,检查在战场上利用AI的致命自主武器系统困境的伦理选项,确保伦理三角(规则、结果和美德)的每个角度都提供对最有利的伦理决策的透彻理解。

规则视角:基于原则的伦理

在道德三角的顶部,规则视角检查道德困境,同时考虑到任何当前存在的规则或应该存在的关于伦理和道德上可接受的规则(Kem,nd)。在将人工智能武器化的案例中,军方领导人已经确定了支持人工智能的自主武器系统的道德困境。但是,当前的“美国政策并不禁止开发或使用致命的自主武器系统”(Sayler,2022,第2段)。此外,与高级官员的高层讨论表明,随着全球竞争的推进,高级军事领导人可能需要进一步投资和开发致命的自主武器(Sayler,2022)。

相反,当前的国防部政策要求所有完全自主和半自主武器必须提供适当水平的人类判断(DoD,2017)。但是,该政策不适用于某些网络空间操作和无人系统(DoD,2017)。此外,目前还没有关于什么是支持人工智能的致命自主武器系统的国际定义或理解(Sayler,2022)。从结果的角度来看,武器化的人工智能有能力显着降低武力风险,但也能提高未来战斗发生的速度。

结果视角:基于后果的伦理学

根据 Kem (nd) 的说法,第二种伦理方法检查了困境的后果(或结果),伦理决策“根据其后果取决于要最大化的结果来判断”(第5页)。结果视角检查道德困境中作为或不作为的有效性;行动如何通过快乐、避难所和尊严等利益产生最大化的结果 (Kem, nd)。

通过结果视角检查AI的武器化突出了道德困境,即当AI执行与预期不一致且符合武装冲突法的致命行动时,谁应对致命自主武器系统的行动负责(Sullivan 等人,2017年)。相应地,美国政府在AI和ML进步的速度方面不采取行动的后果,以及如果将AI武器化仍然处于被动状态,美国政府将面临相对劣势。

从全球角度来看,关于支持人工智能的致命性自主武器系统的讨论呼吁在全球范围内先发制人地禁止这些先进技术武器。由于对致命自主武器系统的伦理担忧。致命武器系统的反对者强调了许多道德挑战,例如操作风险、问责制瓦解以及武装冲突期间使用的比例。相应地,“30多个国家和165个非政府组织”的实体已经批准了一项全球禁令(Sayler,2022,第17段)。尽管美国政府目前不支持禁止致命性自主武器系统,但政府高级领导人可能会从美德的角度看到维持致命性自主武器系统能力的重要性和实用性。

美德视角:基于美德的伦理

道德三角形的最后一个视角是美德。该视角通过向他人学习而不是通过既定规则或法律不同于规则和结果视角;也不以所有人的最大利益为指导(Kem,nd)。美德视角通过对一个人应该如何的集体理解来考虑道德困境,本质上是由品格良好的人做出的道德决定(Kem,nd)。

道德伦理推理的对立面可能是将AI/ML 武器化以制造自主致命武器。然而,美国政府的高级领导人在分析AI的武器化时可能会考虑良性的视角,并理解同行和近乎同行的威胁行为者在历史上完全无视道德(Sullivan 等人,2017年)。尽管生产和拥有致命的自主武器系统在道德上似乎是不道德的,但由于对敌对能力的理解,美国政府可以将道德困境视为一种良性的道德决定。此外,美国政府可能会从规则的角度看到将人工智能武器化的优点,理解道德决定反映了保护美国国家利益。

结论

AI和ML等变革性技术已经彻底改变了人类互动的方式,并将影响未来的战争。目前,美国军方正在开发人工智能、机器学习和其他变革性技术(如自主),以增强生存能力并提高战场上的整体成功率。伦理问题是将AI/ML支持的变革性技术武器化,以在战场上保持军事优势和优势。道德困境特别存在于完全自主的致命武器系统独立于人类控制运行的前景中。致命自主武器系统的发展降低了士兵在地面作战中的总体风险。然而,这也显着阐明了致命自主武器系统在没有人参与的情况下根据AI支持的数据执行决策或行动的道德困境。最后,道德挑战性问题的决策需要通过道德处理模型的四个步骤进行检查。同样,道德-伦理困境的解决方案需要使用伦理三角和规则、结果和美德这三种伦理方法进行检验。

关于作者Justin K. Steinhoff

Master Sergeant (MSG) Justin K. Steinhoff is an active-duty Soldier, serving in the United States Army since February 2005. He is originally from Honolulu, HI and hails from Tacoma, WA. Since enlisting, he"s had the honor of serving all over the world, totaling eight combat deployments to Iraq, Syria, Afghanistan, and the Republic of the Philippines. His awards and decorations include the Bronze Star Medal and Meritorious Service Medal (2 Oak Leaf Clusters [OLC]), Army Commendation Medal-Combat (2 OLC), and Army Achievement Medal-Combat, to name a few. MSG Steinhoff is currently at student attending the Sergeants Major Academy (Class 73) at Fort Bliss, Texas. He has two children, Jaeden and Kiana.

原文来源

https://smallwarsjournal.com/jrnl/art/ethical-dilemma-weaponization-artificial-intelligence

声明:本文来自网空闲话,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。