导读
7月27日,在安远AI主办的WAIC 2025人工智能安全与治理论坛上,我们正式发布了《中国人工智能安全全景报告(2025)》。此份全英文报告首次发布于2023年,之后每年更新一次,主要面向国际读者和利益相关方,是当前关于中国如何推进通用型人工智能安全与治理的最全面的年度综述之一,试图向国际社会清晰传递中国AI安全治理的声音。
《人民日报》(2025年07月31日第03版)在《共同推进人工智能发展和治理》一文中指出,“从倡议成立世界人工智能合作组织,到发布《人工智能全球治理行动计划》,中国积极推动形成具有广泛共识的人工智能全球治理框架和规则,为国际社会提供中国方案,贡献中国智慧。本次大会也为人工智能治理提供了更具体的指引,发布“全球人工智能治理规则地图2025”,通过动态可视化方式呈现152个国家的人工智能立法现状与监管框架,为各国政策制定提供参考;发布《中国人工智能安全全景报告(2025)》,为风险防范提供指南。”
本次报告涵盖了从2024年5月至2025年6月的最新进展。报告总篇幅近100页,参考了300余项资料,共分为五个主要章节,分别是:
国内治理(Domestic Governance):对国内高层AI政策和AI安全标准体系建设及其未来发展方向的系统性分析;
国际治理(International Governance):分析中国如何通过国际会议、多边组织和双边对话,在全球AI治理中发挥独特的作用;
安全研究(Technical Safety Research):对中国学者前沿AI安全技术研究的量化评估;
专家观点(Expert Views on AI Safety and Governance):深入分析国家级或第三方独立机构专家通过会议或撰文对AI安全相关议题的讨论;
产业治理(Industry Governance):首次对中国主流模型开发者的模型技术报告中与AI安全相关的信息进行系统性分析。
我们希望这份报告能促进各方对中国AI安全与治理路径的理性和深入讨论,欢迎大家提出批评和反馈意见!
以下为该报告的主要发现:
国内治理
我们发现,中国国内政策与话语中对AI安全治理的呼吁日益明确具体,同时持续强调AI发展与安全之间的协同关系。去年在党的第二十届三中全会上,AI安全被正式提升为国家优先事项。2025 年4月,中共中央政治局第二十次集体学习以AI为主题,强调要建立监测、预警和应急响应体系,确保AI的安全性、可靠性和可控性,体现了最高层对AI安全治理的高度重视。AI安全议题也频繁出现在与国家安全和公共安全相关的会议与应急预案中,展示出各方对AI潜在系统性风险的日益关注。
在治理手段方面,国内正通过不断扩展的各类AI标准体系来推动监管落地。尽管短期内出台全面性《人工智能法》的可能性较小,但国内已发布多项专门立法或标准(如强制性国家标准《人工智能生成合成内容标识办法》),并持续落实现有要求(如生成式人工智能服务上线前的备案和安全评估)。这些要求的实施依托于快速发展的标准体系:仅在2025年1月至5月间,国内发布的国家级AI标准数量就与前三年总和持平。虽然当前安全相关标准主要聚焦于短期风险,但通过官方的标准化推进工作计划可以看出,未来可能逐渐扩展至高风险领域(如AI对网络安全或失控风险的影响)。
国际治理
在国际层面,中国将AI安全和全球能力建设作为其AI外交的重要议题。2025年1月在达沃斯论坛上,国务院副总理丁薛祥曾表示,在没有安全保障的情况下发展AI就如同“在没有刹车的高速公路上驾驶”,他同时警告“如果任由各国无序竞争,“灰犀牛”就在眼前”。在今年的巴黎AI行动峰会上,中国顶级政策与学术机构联合发起成立了“中国人工智能发展与安全研究网络(CnAISDA)”,定位为中国与其他国家AI安全研究所的对口组织。
与此同时,中国政府更加积极地推动在全球南方国家的AI能力建设,不仅推动通过了一项由140多个国家支持的关于加强人工智能能力建设国际合作的联合国决议,还启动了《人工智能能力建设普惠计划》,并在联合国共同发起“人工智能能力建设国际合作之友小组”。
另外,中国已与多个关键国家启动双边AI对话,但前景不一。尽管2024年11月,国家主席习近平与时任美国总统拜登达成共识,强调应保持对核系统的人类控制权,但中美人工智能政府间对话自2024年5月举行首次会议后尚未重启,其未来走向在特朗普政府上台后面临高度不确定性。另一方面,中国与英国于2025年5月启动了新一轮AI双边对话,显示中国仍希望与有意愿的国家深化合作。
安全研究
中国的前沿AI安全研究正在快速增长。从2024年6月至2025年5月,中国学者平均每月发表约26篇AI安全相关论文,同比增长两倍以上。此前较少涉猎的议题,如超级人工智能系统的对齐与机制可解释性,正成为研究热点。关于欺骗(deception)、遗忘学习(unlearning)和化生放核(CBRN)滥用的研究也在拓展,尽管相关工作目前仍以基准测试为主。总体而言,中国学者正逐步采取具体行动来应对严重的AI安全风险。
专家观点
国内专家学者对AI安全与治理的关注显著上升。从2023年到2024年,世界人工智能大会(WAIC)与世界互联网大会(WIC)两个主要会议中有关AI安全与治理的议题数量翻倍。此外,WAIC 于2024年升级为“世界人工智能大会暨人工智能全球治理高级别会议”,并首次由国务院总理李强出席并发表开幕致辞,其中明确强调了AI安全与治理的重要性。同时,各类专家演讲也更频繁地提到相关议题。
近年来,专家越来越多地发表关于AI在生物安全、网络安全及开源风险方面的深入分析。多位国家级或第三方独立机构的专家撰文分析了AI被滥用于生物和网络攻击的风险。另外,专家们在强调开源AI安全益处的同时,也越来越多地探讨其潜在滥用风险。
产业治理
截止到目前,共有22家主流基础模型开发者签署了《人工智能安全承诺》,该自愿性承诺由中国信通院牵头的人工智能产业发展联盟(AIIA)于2024年12月起草发布,涵盖了包括安全组织架构建设、模型安全测试、数据安全、基础设施安全、模型透明度以及前沿安全研究在内的全方位安全管理。中国人工智能发展与安全研究网络成员在WAIC 2025上发布了更新版的《中国人工智能安全承诺框架》。
大部分中国开发者在实践中采用了常用的安全评估方法,但在对外透明度方面还有待增强。我们对当前已发布的前沿模型的调研显示,13家开发者中有9家发布了技术报告,内容涵盖数据过滤、人类反馈强化学习(RLHF)、宪法AI及红队测试等主流安全技术。然而,仅有3家公司公布了模型的风险评估结果,显示安全评估仍缺乏足够透明度。
安远AI国际治理团队在WAIC 2025人工智能安全与治理论坛上为报告揭幕
下载完整报告:https://concordia-ai.com/wp-content/uploads/2025/07/State-of-AI-Safety-in-China-2025.pdf
声明:本文来自安远AI,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。