引言

人工智能被认为是当前最具革命性的技术革新,是人类正在经历的第四次工业革命的核心动力之一。正如世界知识产权组织今年一月发布的人工智能报告所述,“人工智能是新的数字疆域,将会对世界产生深刻影响,改变我们的生活和工作方式”。这一论断无疑也适用于人工智能对武装冲突和国际人道法的影响,特别是以自主武器为代表的人工智能武器对人道法规则发展的影响。人工智能武器与国际人道法关系中涉及的各类法律问题,在联合国、亚洲、非洲法律协商组织以及红十字国际委员会等多个国际性平台成为新兴热门议题。

国际人道法对人工智能武器的原则性规制

古罗马有句谚语,“战时法律缄默无声”。或许古代的确如此,但近现代以来则完全不同。随着人类文明的不断发展,在使用武力的过程中,交战方要受到国际人道法的约束。国际人道法是以日内瓦四公约及其议定书为基石,辅之以一系列相关特定法律文书和国际习惯法的法律体系,旨在从人道角度限制战争和武装冲突的伤害。具体就人工智能问题而言,与国际人道法原则相关度最高的主要有以下三个方面:

第一,是否符合“区分”原则。区分原则要求进行攻击时需区分战斗员和平民,区分军事目标和民用物体,仅可对军事目标和人员进行攻击,不能攻击平民或民用物体,避免滥杀滥伤。

第二,是否符合“比例”原则。比例原则要求攻击时确保对平民或民用物体所造成的不可避免的附带伤亡或损害,与预期军事利益相比不得过分,平衡军事必要和人道要求。比例原则并不绝对禁止实施军事行动产生平民伤亡,但要求要尽可能降低这种附带伤亡,并将其限制在最小范围内。

第三,是否符合“马尔顿斯条款”。任何法律规则难以预见其后武器技术的发展,但人道原则不能须臾缺席。为此,国际人道法确定了一个已有120 年历史的兜底原则,即使现有条约并无明文规定,任何新武器仍需遵守“人道原则”,不得违背“公众良心”。一种新武器不能仅因现有人道法规则并不明确禁止而自动享有合法性。国际法院在“威胁使用或使用核武器的合法性”咨询意见中指出,“马尔顿斯条款”是应对快速演进的军事技术的有效方式。

人工智能武器于国际人道法合规性引发争议

基于上述国际人道法标准,国际社会就人工智能武器化是否合法展开了跨学科的激烈辩论。支持方认为,人工智能武器不但符合人道法要求,而且有助于促进遵守人道法,能够更好地保护战争受难者,降低人员伤亡和经济成本。反对方则认为,人工智能武器不能满足人道法的要求,尤其难以符合区分原则和比例原则。人工智能武器还面临一系列严重的道德伦理问题,应当被限制或禁止。

在“区分”原则方面,支持方认为,人工智能技术通过增强观察和运算能力,可以提高军事评估的准确性并增强军事行动的精确度,能够比人类更好地区分平民与战斗员。反对方认为,尽管人工智能技术可能提高观察的准确性和行动的精确度,但战场环境远比人工智能预设程序复杂多变,在实战中能否达到实验室中取得的理论上的精确度值得怀疑。此外,反对方还认为,尽管人工智能武器提高了环境感知和数据运算能力,但区分战斗员和平民所要求的远不只是上述能力,有时还需要判断作为潜在攻击对象的人的意图,人工智能在此方面远未合格。

在“比例”原则方面,支持者认为,可以不断完善程序系统,提高对平民伤亡程度的评估。通过精确的火控系统、伤害范围计算等高科技手段,寻求最优解决方案,尽可能降低平民伤亡。反对方则认为,比例原则的核心是评估军事必要性,确保预期实现的军事利益不应显著超出造成的附带伤害。这不是简单的数量计算,而是需要在复杂环境下根据不可预见的具体情况作出的个案判断。人道保护和军事必要性之间的衡量与取舍是价值判断,不是仅仅通过定量分析就能够做出的决定,而这恰恰是人工智能难以完成的任务。

在遵守“马尔顿斯条款”方面,反对方认为,人工智能武器面临严重的道德伦理关切,是对“公众良心”的巨大挑战,赋予机器对人类的生杀予夺大权不但会产生巨大客观风险,也是对人类尊严的践踏。另外,公众舆论强烈反对人工智能武器化,许多科学家、非政府组织纷纷要求全面禁止研发和使用人工智能武器。

关于问责问题。反对方认为,如人工智能武器违反国际人道法,不仅难以向机器问责,且无论是程序员、最初发令员、决策人等等,由于因果链条不清晰,难以进行有效的追责,不利于落实国际人道法。支持方则认为这夸大了问责的难度,可以根据具体违法的原因和环节确定相应的责任人,至少国家对其自身使用人工智能武器是能够清晰界定国际人道法上的责任的。

解决人工智能引发国际人道法问题的路径

尽管各方就人工智能武器是否符合国际人道法的问题分歧明显,但这并不意味着双方没有任何共识。目前看,一方面反对方所极力反对的是这类武器的关键功能不受人类控制。但这种完全不受人类控制的武器迄未出现,人类何时能够开发出尚难预料。即使是人工智能武器的支持者也未明确表示要发展这类人工智能武器。另一方面,支持者也认识到人工智能武器在完全脱离人类控制后可能存在巨大风险,总体主张在保留不同程度的人类控制下完善人工智能系统,以缓解其可能引发的人道问题。

为响应国际社会的人道关切,各国政府在《关于某些特定常规武器公约》(下称“《常规武器公约》”)框架下成立政府专家组,专门讨论如何规范致命性自主武器系统(下称“自主武器”)的应用问题,如何确保遵守国际人道法是其中的一个重要方面。自主武器是人工智能武器的典型,有关讨论对国际社会规制人工智能武器的走向具有重要意义。截至目前,在各国政府及国际组织的参与和贡献下,政府专家组已举行四次会议,就自主武器的定义、特征、人机交互、国际人道法适用等重要问题进行讨论。去年8 月举行的第三次会议就有关问题达成10 项可能的指导原则,为各国政府后续讨论提供了有益基础。这10 项可能的指导原则包括:

(1)国际人道法完全适用自主武器;

(2)人类仍须对武器系统的使用决定负责;

(3)确保对发展、部署和使用任何新武器进行问责;

(4)履行《日内瓦公约》第一议定书第36条的武器审查义务;

(5)提供充分保障防止非法使用并考虑防扩散风险;

(6)采取风险评估及降低风险的必要措施;

(7)自主武器的使用应考虑国际人道法及其他国际法义务;

(8)避免自主武器完全具有人类特征;

(9)避免对智能技术的发展及其和平利用造成阻碍;

(10)《常规武器公约》为处理相关问题提供适当框架,有关讨论应力求在军事必要性及人道关切二者之间寻求平衡。

在今年3 月举行的第四次会议上,各方围绕自主武器的技术特征、军事应用、人机交互、国际法适用等问题展开讨论,但未取得明显进展,自主武器所涉人道法问题的走向仍不明朗。在涉及自主武器未来制度问题上,各方大致提出以下三种不同观点:

一是应当在《常规武器公约》框架下制定新的附加议定书,或在框架外制定具有法律约束力的条约,以全面禁止自主武器的研发、生产及使用。

二是优先以已经通过的10 项可能的指导原则为基础,拟定政治宣言,建立信任措施,逐步达成有关行为准则。

三是现有国际人道法完全足够,无需制定新规则,可以通过加强各国国内关于武器审查的法律法规建设,确保自主武器发展符合国际人道法要求。

此外,一些参与方还对专家组多年讨论未能达成成果表示失望,并称在《常规武器公约》框架外另起炉灶,达成全面禁止自主武器的国际条约也是一个可能的选项。

目前看,各方对人工智能武器的看法以及是否需要专门制定法律规则仍存较大分歧,恐难在短期内达成一致。随着科学技术的不断发展演进,未来人工智能武器将成为人道卫士,还是打开潘多拉魔盒,尚难预断。人工智能武器引发的人道法问题将何去何从,各方最终达成一个什么样的法律解决方案,值得国际社会继续密切关注。

本文由中华人民共和国外交部条约与法律司《国际法前沿》提供,系条法司集体作品。

(本文选自《信息安全与通信保密》2019年第五期)

声明:本文来自信息安全与通信保密杂志社,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。