【概述】

2025年3月6日,联合国裁军研究所(UNIDIR)发布了题为《与致命自主武器系统有关的国际人道法的解释和适用》(The Interpretation and Application of International Humanitarian Law in Relation to Lethal Autonomous Weapon Systems)的背景文件(以下简称《背景文件》),该文件涵盖截至2024年8月的多边会议材料,系统分析了27个国家的官方立场及150余份学术文献,旨在梳理各国政府、学术界与国际组织关于致命自主武器系统(LAWS)适用国际人道法的公开观点,归纳共识、厘清分歧,为未来的外交谈判和学术讨论提供参考。报告证实了当前多边讨论的共同起点——现有国际人道法必然适用于LAWS的研发和使用,但部分具体规则解释存在显著分歧。

《背景文件》首先对LAWS的核心技术特性进行了分析,然后梳理了国际人道法下“攻击”(attack)的概念的适用范畴与界定标准。背景文件创新性地以时间维度为切入点,系统划分了LAWS情境下国际人道法义务的适用阶段——分别对应攻击前、攻击中(涵盖计划与实施阶段)及攻击后三个环节。这一结构安排清晰展示了在一次完整的LAWS相关军事行动周期中,国际人道法适用的规范逻辑与规则演进路径,包括:武器合法性审查义务、作战过程中对区分与比例原则的遵循、以及事后责任追究等。

【评析】

在报告的主体部分,UNIDIR围绕LAWS在实战部署情境中所涉及的关键法律问题,对国际人道法核心原则的适用进行了系统梳理与细致阐释。考虑到当前国际讨论的焦点与争议热度,此次简报从区分原则、比例原则、预防义务以及责任追究四个方面展开评析,这四个方面不仅是国际人道法中评估武装手段合法性的基本支柱,也因LAWS的高度自动化、动态决策特性而面临适用上的突出难题。

一是区分原则与目标选择困境。报告指出,多数国家对LAWS能否有效满足区分原则表示担忧,其中技术识别能力的局限性被视为面临的首要挑战。例如,新西兰强调,战场上战斗人员可能瞬间丧失战斗能力(hors de combat)或投降,判断此类情形需要高度细致的情境判断能力。自主武器的算法难以像人类一样及时领会投降姿态或识别伤兵的状态,缺乏直观的定性判断。针对区分难题,一些国家和国际机构提出限制LAWS适用范围的提议,以此降低目标识别错误的风险。总体来看,各方共识是“有意义的人类控制”对于满足区分原则至关重要:无论通过限定目标类型还是技术参数,都旨在确保人类持续介入和监督人工智能的目标选择过程,从而减少误伤平民的概率。

二是比例原则与附带损害评估。报告指出,在LAWS议题中,比例原则被广泛认为是最棘手的问题之一。原因在于,进行比例判断需要人类特有的上下文认知和价值权衡。各方普遍同意,评估一次攻击的预期军事收益并权衡可能造成的附带平民损害,是一种典型的人类决策过程,依赖对当前和未来态势的综合思考。例如,需要预测平民是否可能进入攻击范围、军事目标的摧毁能带来多大军事利益等。这种预测和权衡很难量化为固定算法规则。因此,在没有可靠解决方案前,让人工智能自主进行比例性决策被视为有着极高风险。许多国家因此强调人类在致命决策中的必要性。正如报告所述,各国在此问题上其实有相当多共识:履行比例原则的判断应由人类负责,即便使用LAWS,最终对“过度伤害”的把关责任应在人类手中。

三是预防义务与先期审查挑战。在LAWS背景下,预防义务面临前所未有的不确定性和执行难题。首先,武器审查的门槛未能达成共识。传统武器只需在研制列装前经一次法律审查即可,但自主武器具有自我学习和适应性,其性能和行为可能随着软件更新或训练数据改变而自我演化。报告指出,目前各国实践不一,有的审查单一“武器”,有的审查整个“武器系统”。其次,攻击中预防措施的执行更加复杂。当LAWS自主执行任务时,人类对战场态势的直接掌握减少,对履行预防义务带来困难。目前看,自主系统只能按预定算法行事,难以弹性应对未预见情况。围绕预防义务,各国提出了多项具体措施以弥补自主化带来的不确定性,如限制自主参数,保留人工介入与自毁机制,升级作战规程和报告机制等。

四是责任机制与“责任缺失”问题。LAWS引发的一个突出争议是所谓“责任真空”(responsibility gap)。报告指出,随着武器自主性的提高,武器行为结果与具体人类行为之间的关联被隔离,可能找不到可追责的近因主体。许多评论担心LAWS会将行动后果与任何近因责任人剥离到无法指认责任的程度。这不仅有损受害者的司法救济权,也可能降低指挥官对部署此类武器的法律顾虑,从而削弱对不当使用的威慑。针对责任机制部分缺失的弱点,多方提出需重构责任分配和追责机制,以确保LAWS不会成为“法外之地”。总体而言,责任重构要求技术与法律路径协同推进:在技术层面,应提升LAWS行为的可解释性与可控性;在法律层面,则需明确在何种条件下、由谁对人工智能系统的行为承担法律责任。

《背景文件》从各国的立场声明文献以及学术文献中提取观点并加以归纳总结。但是,文件中的观点局限于现行成文法和习惯法框架下的国际人道法解释(lex lata),并不涉及对未来法律(lex ferenda)的主张。同时,报告有意排除伦理和战略层面的讨论,专注于法律分析。资料来源上,报告仅采纳了公开的英文材料,未覆盖其他语言的观点。这些方法论选择保证了报告的法律焦点和可比性,但也带来一定局限:例如未反映非英语国家可能未翻译发表的立场,也没有触及道德、人权或安全战略等更广泛议题。尽管如此,该报告在法学层面提供了较全面的“规则演绎”,为理解LAWS现有法律适用状况奠定了基础。

【启示】

UNIDIR的这份报告梳理了LAWS与国际人道法适用的现状和挑战,也为未来规则演化提供了若干启示。面对自主武器带来的法律真空和风险,各国和国际社会正在探讨从技术规范到法律机制的一系列改进路径。报告反映出国际讨论中逐渐形成的共识,可能成为未来规范LAWS的基础。

作为安理会常任理事国和人工智能大国,中国在LAWS治理进程中扮演关键角色。在规则适用层面,应充分认识到现行国际人道法虽适用于LAWS,但在区分、比例与责任归属等关键问题上仍存在较大不确定性,中国应据此有针对性地完善自身政策立场与规则主张。在技术治理层面,技术设计阶段需同步考虑法律合规性,优先推进可解释性、可控性与责任可追溯性技术标准建设,为未来规则统一奠定基础。在国家责任机制建设层面,建立全生命周期武器审查机制,不仅限于研制前审查,也应涵盖使用过程中的控制条件与战后评估机制。最后,在人类命运共同体层面,面对LAWS可能引发的人类决策权下沉与战场责任模糊,应主动参与国际伦理对话,强调人类始终对武力使用承担最终责任的原则底线。

总体而言,LAWS所引发的规则重构与责任重塑问题不仅挑战着既有国际人道法框架的适应性,也促使各国在法律与技术交汇处重新界定战争的伦理边界与制度秩序。在此背景下,亟需更多国家积极参与规则解释与制度建构,共同推动形成兼顾安全、人道与责任的国际治理路径。

链接:

https://digital-strategy.ec.europa.eu/en/library/third-draft-general-purpose-ai-code-practice-published-written-independent-experts

文稿 | 张予惟

编辑 | 赵子于

审核 | 黄志雄 张予惟 兰琦钰

声明:本文来自网络空间国际法前沿,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。