文 | 西安交通大学法学院硕士研究生 蒋中麒;陕西师范大学国家安全学院硕士研究生 张若彧;西安交通大学法学院副教授 杜娟
以战场机器人为代表的军事具身智能体,正以独特的形体结构和智能交互能力,对现代战争样式、作战手段、战争伦理,以及国际人道法产生巨大挑战。战场机器人被设计为具有类似人的外观,集成信息系统、无人技术、双足仿生等,具备模拟甚至超越人类的行动能力,可在复杂战场环境自主决策和执行任务。战场机器人的发展演进给国际人道法的基本原则和相关机制带来了新的挑战。因此,要在把握战场机器人这一人工智能武器特性的基础上,梳理当前技术水平战场机器人对国际人道法的挑战,提出规范战场机器人军事化应用的中国方案,确保人工智能安全、可靠、可控。
一、战场机器人在军事领域的应用
目前,战场机器人的军事化应用处于早期探索和概念验证阶段,受限于人类的幕后指导和远程控制,且多被用于执行复杂、高危的任务。在实践中,俄罗斯的“天王星-9”无人战车虽非人形,但作为一种远程控制的履带式战斗机器人投入战场,标志着具备一定自主能力的地面作战机器人已进入实战测试阶段。随着具身智能技术、自主学习算法、仿生工程的发展,战场机器人在未来无人化、智能化主导的现代战场,存在获得更高自治权限的可能。围绕战场机器人的军事化应用,国际社会尤为关注“自主性”问题,衍生出自主说和控制说两大观点,成为界定战场机器人法律属性和规制路径的理论基础。
(一)自主说:肯定战场机器人的独立决策能力
自主说的核心观点是,随着人工智能的发展,战场机器人的自主性程度能够达到“最顶级的自主控制层级”,即根据人类指令自主生成和执行决策,减少人类在“回路”中的参与程度,实现“人在回路上”甚至“人脱离回路”的人机互动效果。
自主说的倡导者主要是部分技术乐观主义者以及认为人工智能发展将不可逆转地走向高度自主化的学者。他们认为,当战场机器人具备在战场环境敏锐感知、学习适应,并基于感知实时进行自主决策和执行任务的能力时,能够利用先进的计算技术处理传感器数据,对算法模型进行动态调整。自主说的倡导者通常援引库兹韦尔的“奇点理论”,预言人工智能在不久的将来达到“奇点”,智能程度将明显超越人类。
但是,当前技术水平战场机器人自主决策能力的构建,受限于充分先验信息和可重复场景模型的短缺,仅能对最优战术动作进行预测,增加战术决策失误的风险。同时,数据扫描缺角、计算机大脑崩盘、预设伦理风险等,都有可能引发人道主义危机。尽管如此,自主说为理解战场机器人潜在的伦理和法律困境提供了重要的理论视角,尤其是在探讨其可能拥有的“杀人决策权”方面。
(二)控制说:坚守人类的最终控制权
控制说坚守“人类中心主义”,强调无论战场机器人拥有何种程度的自主性,军事化应用必须置于人类的有效监控之下,由人类承担最终责任。这一观点是国际社会的主流态度。
控制说的倡导者主要是红十字国际委员会、联合国特定常规武器公约框架下的诸缔约国等。他们认为,战场机器人本质上仍是一种工具或武器,行为逻辑受制于预设算法和人类编程,不具备人类指挥官特有的价值判断、道德伦理、情感认知能力。人类对战场机器人施加“有意义的人类控制”是确保其符合国际人道法、避免问责空白和伦理赤字的重要环节。
控制说存在三个前提假设。第一,尽管战场机器人具有较高的自主性,但仍被视为一种武器系统。各国在研究、发展、取得或采用战场机器人时,必须明确其是否符合国际人道法。第二,战场机器人只能在预设条件下,根据程序设定对外部环境进行判断,缺少人类固有的情感、伦理和道德辨别能力。即使战场机器人在技术层面实现更高级的自主化,但在法律和道德层面的判断能力也难以企及人类。第三,如果战场机器人因执行军事任务违反国际人道法,法律责任应由人类承担。无论战场机器人的自主性如何,指挥官或武装部队的上级负责人始终应对其部下及所使用的作战工具负责。
在国际社会关于自主武器系统的讨论中,控制说占据主导。控制说认为,人类应始终保持对“致命性自主武器系统”的“有意义的人类控制”,尤其是在关键的决策环节,确保国际人道法的有效适用和责任的明确归属。但是,“有意义的人类控制”的具体定义和实施方式,仍是国际社会亟待解决的难题。
二、战场机器人对国际人道法的挑战
战场机器人的决策逻辑既不同于人类指挥官的价值判断,也异于传统武器的程序操作。战场机器人正挑战建立在对人类理性与道德能力预设之上的国际人道法基本原则。同时,自主决策能力的“黑箱化”正使战场机器人深陷归责困境、伦理、技术管控等多重危机。尽管战场机器人在概念上与自主武器系统有所重叠,但凭借高度仿生性、在复杂非结构化环境的灵活性、与人类环境的高度融合性,对国际人道法提出了更深层次的挑战。
(一)对国际人道法基本原则的挑战
国际人道法是旨在规范战争行为、保护战争受难者的国际法分支。作为规制武装冲突的规范体系,区分原则、比例原则、军事必要原则构成国际人道法的三大支柱,并与战场机器人的技术逻辑形成巨大张力。
第一,区分原则。冲突各方应在平民和战斗员、民用物体和军事目标之间加以区别。战场机器人独特的具身性和类人性,使其能够深度融入人类环境,更易于在城市巷战和人口密集区域执行任务。当前技术水平的战场机器人较难准确区分平民和“直接参加敌对行动”的平民。对“直接参加敌对行动”的认定,需同时符合损害下限、交战联系、直接因果关系三个要件,还应当综合考量战场环境、冲突性质、冲突动机等其他因素。即使战场机器人具有较高的自主性,但也无法拥有与人类等同的情感、道德和伦理观念,单纯依靠自身的观察和识别难以遵守区分原则。“直接参加敌对行动”的平民可能利用多种手段隐藏身份,而平民也可能因参加救援、撤离等非敌对行动被误认为战斗员。一旦战斗员退出战斗,其身份即可转变为伤者病者、遇船难者、战俘或平民。战场机器人的“眼睛”是通过传感器和神经网络算法模型识别目标,“算法黑箱”使其在“欺骗图像”面前展现出固有的脆弱性,且人类无法人为地构建出一个神经网络内部逻辑的算法模型来预测其行为。对“失去战斗力”人员的保护之所以有效,在于人类各方能够对战场环境作出合乎逻辑的主观判断,如放弃抵抗、举手投降等。战场机器人模糊了作为“非人”武器的属性界定,可能引发“心理区分困境”,即人类在面对战场机器人时,可能因其形象而产生情感投射或混淆,增加误伤风险。
第二,比例原则。冲突各方在攻击军事目标前预先进行评估,保证对平民、民用物体造成的附带性损害小于军事行动欲取得的直接军事利益。战场机器人的操控能力和灵活部署,理论上能够实现“外科手术式”的精准打击,但自主决策的“黑箱”特性和价值判断的根本性缺失,使其面临更深层次的技术精度和人道危机。对比例原则的判断是一种价值判断,具有明显的“人为”特征。作战决策的制定和执行,除遵守比例原则外,还应考量怜悯、理性、战略等因素。战场机器人“大脑”的运行依赖程序预设和编码输入,导致其只能对大脑输入的定量数据进行平衡比较,无法依据特定的价值观和朴素的正义感复原人类思考的全部心理过程。此外,在武装冲突中,信息和情报越是泛滥越容易夹杂经过敌方伪造、篡改的虚假信息。敌方可以利用先进技术对指挥官进行深度伪造,向己方战场机器人下达虚假指令;或通过创设虚假的卫星情报图,诱导己方战场机器人作出错误判断;或误导目标识别系统,污染图像数据并混淆民用物体和军事目标,引导己方战场机器人错误攻击目标。
第三,军事必要原则。军事行动必须基于明确的军事目的,在实现即期军事利益的基础上,尽可能避免或减少过分伤害和不必要痛苦。人类指挥官需既能确保军事行动的合法性,也可以根据现实的战场局势灵活调整战术。战场机器人可能因预设程序的刚性限制,无法保证在面对突发状况时,快速调整并与人类指挥官的决策同步。例如,在战场局势变化时,人类指挥官可能基于实时情报和对战局的预估,作出战术调整,甚至决定放弃对某些军事目标的攻击。战场机器人可能无法在瞬时理解和领会复杂的战术调整而继续执行预设任务。此外,对战场机器人设计和使用的预先法律审查变得更加复杂。如何在不确定性和迅速变化的技术环境对战场机器人进行有效的法律审查是各国面临的共同难题。即使战场机器人通过法律审查,并被认为符合军事必要原则,一旦在现实战场中使用,仍可能因战场环境复杂性和技术局限性而违反国际人道法。
(二)对国际人道法相关机制的冲击
国际人道法不仅通过基本原则构建规范体系,还依托具体机制确保规范的现实转化。当前,战场机器人正面临传统归责机制的算法失语、伦理审查机制的技术理性僭越、技术管控机制难以穿透“黑箱化”三重困境。
第一,战场机器人的归责困境。有观点认为,战场机器人可能产生问责空白困境,由于战场机器人不是法律意义上的“人”,被追责或事后惩罚不具有任何意义。惩罚的目的是更好地训练军队,因为人类有“羞耻心”。当形似人类的战场机器人在战场上执行攻击任务时,其“类人化”的动作、姿态、表情,可能在视觉和心理上,使人类倾向于将其视为具有一定主体性的“行为者”,而非单纯由人类操纵的武器。战场机器人的自主权限不代表其拥有“开战权”,而仅指在人类指挥官下达指令后根据自己的判断进行目标选择和攻击的战术能力,脱离人类指挥官控制的风险与人类战斗员脱离上级指挥官控制的风险有本质不同。
根据美国《战争法手册》,无生命的物体在任何情况下都不能承担义务,因此,战场机器人不可能具有战斗员的身份,只能被视为一种武器。追究战场机器人背后的责任主体极其复杂,指挥官、操作者、部署者、研发者等都可能成为责任主体。即使战场机器人未来能够承担最终责任,但责任性质、责任形式、责任后果等问题也尚无定论。多数情况下,对战场机器人的归责可适用间接责任或指挥官责任,但指挥官能够以“仅在明确知晓或理应知晓部下的犯罪行为,并且未能有效阻止或惩罚该行为”为由逃避责任。
第二,战场机器人的伦理危机。“杀人决策权”是战场机器人面临的最具争议的伦理问题。纵观人类发展历史,决定他人生死的权力始终掌握在具备高超道德和伦理水平的部分个体或集体手中。战场机器人通过传感器获取数据、分析战场局势,依据算法判断目标的合法性,并自主决定是否进行攻击,这种冰冷的算法计算过程无法代替人类的伦理判断。战场机器人不具有感知痛苦或同情的能力,也无法根据复杂的道德规范进行调节,其行为模式缺乏人类在作出生死决策时的道德思考和情感投入。战场机器人“类人化”的杀伤行为,既削弱了战争的人性维度,还可能导致道德漂移,即随着战场机器人自主性的增强,人类对战争伦理的敏感性逐渐降低。
此外,尽管战场机器人能够通过大量数据和复杂算法分析和处理信息,但数据的选择和算法的设计受到开发者的主观影响。如果算法在设计时就存在偏见,或使用了不完整或有偏见的数据集,将会导致战场机器人在实际使用时作出偏差性决策,引发伦理问题。“算法偏见”既可能源自数据集中的历史性偏见,也可能是战场机器人在设计过程中的人为疏忽导致。战场机器人在训练过程中受限于真实世界的数据稀缺性,可能导致“算法偏见”更难以被察觉和修正,进一步加剧伦理风险。
第三,战场机器人的技术管控挑战。技术管控是国际人道法中用于确保新型武器合法性的关键机制。传统武器的技术管控依赖对武器技术参数、作战效能等的界定。尽管技术人员可为其设定操作程序和行为规则,但战场机器人在复杂的战场环境可能会根据传感器的算法和采集的数据,自主作出超出预设范围的决策。这加大了技术管控难度。
战场机器人在技术层面依靠算法驱动的决策系统,其行为并非处于人类指挥官的完全控制下。当战场机器人面对复杂的战场局势时,其决策过程可能会在极短时间内依赖大量数据和复杂算法进行调整,而这种决策过程往往超出人类的预期和控制,且缺少透明度、难以被解释。战场机器人接收到传感器的数据后,通过复杂的内部计算进行决策,这一过程的具体步骤和判断标准对外界而言是不可见的。这种“不可解释性”使人类难以完全控制战场机器人的行为,人类指挥官只能看到战场机器人的行为后果,而无法追溯其决策过程。此外,在战场机器人作出自主决策并进行攻击时,其行为若违反国际人道法,现有的责任分配机制难以适用于这类新型武器,指挥官、技术人员、算法设计者等各自的责任界限十分模糊,尤其是当战场机器人的决策被认为是由其自身的学习和适应能力所驱动时。
三、对规制战场机器人的思考
面对战场机器人引发的国际人道法危机,构建符合数字时代特征的战场机器人规制框架已成为全球治理的重要命题。围绕人工智能的军事化应用,主要大国和国际组织出台了一系列原则性指南,如美国《人工智能原则:美国国防部关于人工智能道德使用的建议》、欧盟《人工智能道德准则》、联合国《致命性自主武器系统领域新兴技术问题政府专家组2023年会议报告》等,但针对战场机器人的国际法律规制尚未形成专门的讨论框架。中国作为负责任的大国,以构建人类命运共同体为指引,努力在规制战场机器人方面提出体现大国担当的中国方案。
(一)加强国际合作,建立多边法律框架
在战场机器人逐渐广泛应用于武装冲突的背景下,国际社会亟须建立一个具有前瞻性的多边法律框架。中国作为负责任的大国,具有推动建立这一多边法律框架的责任和能力。建立一个具有强制力的多边法律框架,是规避和减少战场机器人法律风险的关键手段。
第一,推动健全现行国际法律框架。在《海牙公约》《日内瓦公约》《特定常规武器公约》等国际法律框架下,细化关于自主武器系统的基本原则和具体规则。近年来,《特定常规武器公约》已将自主武器系统列为讨论的重要议题,可以在该公约框架下设立专门的战场机器人专家组,或基于现有自主武器系统,针对战场机器人议题补充议程,围绕类人交互造成的心理影响、具身智能体的责任归属等问题,推动形成专门的讨论和规范。
第二,战场机器人的全球性发展导致各国的法律规范差异较大。可以发挥国际影响力,利用联合国大会、日内瓦裁军谈判会议等国际机制,提出战场机器人的国际造法议程,推动将“战场机器人的国际法律规制”作为独立议题进行讨论,聚焦战场机器人独特属性带来的具体挑战,如对平民的心理冲击、被人类情感投射导致的归责模糊等,引领国际社会更精准地识别和应对战场机器人的特殊风险。
第三,加强与“一带一路”沿线国家、金砖国家、东盟等区域性国际组织的对话与合作,推动战场机器人相关规则与行动的区域性协调。可以通过加强与周边邻国的法律合作,率先开展区域性国际造法实践,并通过国际会议、专家研讨等形式,将区域性经验推广至全球。例如,可以利用区域性合作机制,倡导在战场机器人技术层面的信息共享,减少各国的安全焦虑,防止技术垄断对全球安全带来的负面影响。
(二)加强伦理审查,建构技术管控体系
随着人工智能在深度学习、机器视觉、传感器等领域的突破式发展,战场机器人将具有更高的自主决策能力。
为了确保战场机器人军事化应用的合法性与可控性,应建立一套系统化的技术管控体系。第一,技术管控体系应包括战场机器人研发阶段的合规审查。各国应设立专门的技术合规审查机构,对战场机器人的发展进行动态监管和干预。第二,自主决策的透明度和可解释性是技术管控体系的核心。战场机器人的算法设计应遵循“公开透明原则”,推动各国建立相关技术标准,强制要求研发者向审查机构提供算法说明。第三,技术管控体系应强化对战场机器人使用场景的限制。在复杂的战场环境,特别是在涉及平民、民用物体的城市战场,战场机器人的使用应受到严格限制。对战场机器人使用场景的限制可以通过预先设定的编程规则实现,确保战场机器人进入特定区域后能够自动终止攻击或请求人类指挥官干预。
同时,构建一个全方位的伦理审查机制,不仅关乎战场机器人攻击行为的正当性,更触及国际社会的伦理标准与道德底线。第一,伦理审查应从战场机器人的研发阶段介入。可以在国际层面倡导建立独立的“新型武器伦理审查委员会”,专门负责评估新型武器是否合乎伦理。这一委员会应由伦理学家、技术专家、法律学者等多方代表组成,确保对战场机器人攻击决策过程、目标选择标准、道德判断能力等进行全面审查。第二,伦理审查应关注战场机器人替代“人类决策权”的问题。伦理审查机制应明确规定战场机器人在何种情况下可以作出独立决策,并保证人类对重大军事行动的最终决策权不被剥夺或替代。第三,伦理审查还应确保战场机器人符合国际社会的普遍伦理共识。可以在国际层面推动制定一套伦理审查标准,使各国在研发和使用战场机器人时,能够遵循统一的伦理标准。例如,可以在联合国框架内倡导各国就战场机器人的伦理标准达成共识,加强国家间的互惠合作,强化全球对战场机器人的伦理监管和标准化管理。
(三)提升技术透明度,完善责任追究机制
战场机器人的军事化应用不仅具有技术复杂性,还给法律、伦理和责任归属带来全新的挑战。
技术透明度是确保战场机器人合法使用的基础。第一,算法透明度是技术透明度的前提。各国应要求战场机器人的研发者和使用者在算法设计和使用过程中,向技术合规审查机构提供详细的算法结构、决策路径、执行机制的说明,保证外界能够了解并审查战场机器人的决策过程。第二,技术透明度包括对使用过程的实时监控。在复杂的战场环境,战场机器人的自主性使其行为难以受到人类指挥官的实时控制。各国应推动建立动态监控机制,确保战场机器人能够被实时追踪和监控。这一机制不仅包括对战场机器人行动轨迹的记录,还包括对决策过程的回溯功能,使人类指挥官能够掌握战场机器人在特定情况下的决策依据。第三,国际社会应建立全球通用的技术透明度标准,包括算法公开的基本要求、使用过程的透明化流程、技术监督的强制性审查等,确保各国在使用战场机器人时能够遵循统一的技术透明度标准。
责任追究机制是确保战场机器人合法使用的关键。传统战争责任明确归属于指挥官、战斗员或武器制造者。战场机器人具有高度的自主性,如何界定其行为的法律责任是一个理论难题。第一,人类指挥官责任是核心。随着战场机器人自主性的提升,人类指挥官对其的直接控制力随之减弱。即使战场机器人具有较高程度的自主决策能力,其行为的最终责任应归属于人类指挥官。各国应明确人类指挥官在使用战场机器人时的责任归属问题,并加强对人类指挥官的技术培训,确保其能够及时判断和干预战场机器人的行为。第二,明确研发者和制造者的责任。战场机器人未来可能具有更高的自主决策能力,甚至脱离人类的干预。如果战场机器人的设计存在缺陷,导致其在执行任务时违反国际人道法,研发者和制造者应承担相应责任。各国应加强对战场机器人研发者和制造者的责任审查,赋予研发者和制造者确保战场机器人合规性的义务。第三,细化责任分配机制。可以根据战场机器人的自主程度,对责任进行分层划分:当自主性处于较低水平时,战场机器人主要由人类指挥官直接控制,责任由人类指挥官承担;当自主性处于较高水平时,战场机器人可能脱离人类的干预而基于自身的算法作出独立决策,研发者、制造者甚至算法设计者都应承担相应责任。这一责任分配机制可以更有效应对不同自主性的战场机器人在复杂战场环境的责任归属问题。
(本文刊登于《中国信息安全》杂志2025年第4期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。