【日本NHK、韩国韩联社网站2025年6月9日报道】6月6日,日本防卫省基于2024年7月首次提出的《人工智能(AI)应用促进基本方针》,公开了首部人工智能装备研发指南——《装备研发中负责任的人工智能应用指南》(下称《指南》)。该《指南》规定了防卫省人工智能装备的研发规则,称将依据规则在防卫省内部进行事前审查,并提出了人工智能风险管理标准和审查过程等。《指南》的核心内容是限制高风险武器研发,其旨在最大限度地发挥人工智能效能并降低利用风险。

《指南》把人工智能装备划分为“高风险”和“低风险”两种类型,“高风险”人工智能装备可由人工智能自主判断攻击目标,“低风险”人工智能装备在攻击过程中需要人类介入。《指南》规定,对于低风险人工智能装备,防卫省将进行独立审查;对于高风险人工智能装备,将会进行法律审查,如确定其是否符合国际和国内法律,是否属于“自主致命武器系统”(LAWS)等,一旦被确定为“自主致命武器系统”,则不允许研发。防卫省还将对人工智能装备进行技术审查,以确定其是否在人类控制之下,技术审查将以专家会议形式进行,审查内容包括“明确人的责任”(如是否允许操作员参与)、“确保安全性”以减少故障、以及“确保人工智能系统的可验证性和透明度”等七项要求。

(科荟智库:冷欣阳)

声明:本文来自科荟智库,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。