国内外标准现状

01 国内人工智能安全标准现状

在国家标准方面,当前共有 171 项与人工智能相关的标准,其中涉及人工智能安全的仅有 6 项。

行业标准方面,金融(JR)、交通(JT)、司法(SF)、电子(SJ)、通信(YD)、医药(YY)行业有起草或计划起草人工智能相关标准,如下图所示。

02 国际人工智能安全标准现状

人工智能安全相关的国际标准有40余项,标准发布机构主要有AFNOR、DIN、IEC、ISO、WDTA。目前,与人工智能安全相关的国际标准及文件主要为基础概念与技术框架类通用标准,在内容上集中在人工智能管理、可信性、安全与隐私保护三个方面。

人工智能安全标准面临的挑战

人工智能安全标准面临的挑战主要有标准体系不完善、标准落地实施难等。

1

标准体系不完善,覆盖范围有限

当前,人工智能安全领域已发布 10 余项国家标准及行业标准,主要涵盖生成式人工智能安全、大规模预训练模型安全、车载移动应用人机交互安全、移动智能终端安全等方向。随着人工智能技术的快速发展,相关系列国家标准的编制进程正不断加快。从国家标准及国家标准计划来看,人工智能大模型、具身智能、模型及服务等系列标准已进入起草完善阶段。然而,上述系列标准的安全方向建设仍滞后于整体编制进度。具体表现为,人工智能具身智能、大模型等重点方向存在安全标准体系规划缺失或配套安全措施不足等问题。尽管全国网络安全标准化技术委员会于 2025 年国家网络安全宣传周主论坛发布了《人工智能安全治理框架》2.0 版,但现有安全标准及计划仍难以覆盖当前人工智能技术的发展区间。

2

标准落地实施难度大

在人工智能安全领域,辅助工具、评估体系及安全建设方法方面存在显著不足。

(1)辅助工具匮乏:用于检测人工智能产品安全性、应对模型投毒等安全问题的辅助工具稀缺。

(2)评估体系不完善:现行评估体系缺少针对人工智能安全风险的评估方法,难以从多维度指标评估人工智能研发企业的安全合规情况,例如企业是否利用用户数据进行模型训练。

(3)安全建设方法缺失:企业缺乏对人工智能相关软硬件资产的有效管理方法。

3

其他痛点问题

(1)企业大模型应用安全规范缺失:全国网安标委颁布了《政务大模型应用安全规范》,从模型选用、部署、运行等方面进行了规范指导。但从企业角度来看,仍缺乏具有指引性的人工智能安全管理体系建设指南,包括制度建设、大模型资产管理等方面。

(2)行业大模型安全测评准则和方法不统一:目前市面上围绕《网络安全技术 生成式人工智能服务安全基本要求》开展安全测试,但在测试方法、测试维度、题目数量等方面,仍存在空白。

(3)大模型相关安全产品缺少安全标准:目前市面上存在多款大模型安全检测、大模型安全护栏、大模型训练数据标注系统等产品。此类产品拥有大量的攻击语料、模型输出的违规问答、敏感词语料库等数据,若被违规使用或发生数据泄露,将产生重大危害。

(4)人工智能系统安全漏洞缺少分类分级体系标准:提示注入、目标劫持等新型攻击频现,引发信息泄露等问题。现有漏洞治理标准侧重传统信息系统,缺乏生成式 AI 量化手段,导致监管执法缺乏风险量化依据,安全防护缺少技术支撑。

撰稿|魏东

责编|卢蔷

声明:本文来自三所数据安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。