一、各地接入人工智能情况不完全汇总

综合DeepSeek和其他公开信息统计,在深度求索公司开源R1人工智能模型后,2025年以来各地政务系统以各种方式“接入”的情况如下:

二、政务系统接入人工智能的风险性

从目前公开信息看,各地接入主要基于深度求索公司开源的DeepSeek R1版本(部分地区未披露,部分同时接入V3版本)。

我们认为,各地单独、分别接入不同人工智能的模型、系统版本,从提升政务效能方面有相当帮助,但多地接入单一、开源版本可能产生数据融合、推理风险并形成聚集(尽管一般理解外网可能引发的政务系统整体风险相对较小),应通过前置风险评估和持续风险检测等方式予以重视。

1、从安全漏洞情况看,2025年1月已知安全机构披露DeepSeek的ClickHouse数据库漏洞,导致泄露数据包括未加密日志、API 密钥等,境内外围绕DeepSeek的数据泄露事件对此已有报道(但影响的版本范围并未有完整报道),应高度重视人工智能模型、系统的漏洞等脆弱性问题。

2、对人工智能模型采用的开源算法、训练数据等目前尚缺乏系统性的安全评价,而DeepSeek R1自身也已经开源,对其漏洞公开挖掘可能发现更多脆弱性等风险问题。基于同一版本进行多地接入或部署,可能导致同一风险的放大。

3、现有法律法规对政务系统的人工智能接入缺乏明确管理规定,容易形成治理真空。例如《网络安全法》和《网络数据安全管理条例》主要针对重要数据规定了安全评估、审计等要求,但政务外网并不当然构成重要数据(来源)。但多地接入则可能触发重要性阈值。然而对此方面并无完整的重要数据识别和监管要求。《生成式人工智能服务管理暂行办法》则设定了“具有舆论属性或者社会动员能力的”条件。

4、作为政务云重要评估依据的《云计算服务安全评估办法》,其规定的提起评估的主体为云服务商,且对于政务云作为私有云的默认安全理解,也限制了(使用人工智能系统的)政务主体发起和针对基于云服务的人工智能模型、系统的安全评估,而简单、强制要求政务主体增加对人工智能风险在内的自身风险评估也并不现实。

三、开展风险管理的考虑方面

针对当前各地快速接入单一人工智能的情况,我们建议无论接入何种人工智能,政务主体开展适当风险评估,并通过持续的风险检测调整风险管理策略和措施:

1、充分认识人工智能可能引入的系统性风险,包括一般性的网络安全风险,如各类恶意使用引发的虚假、误导、舆情操控风险;功能性风险,特别是政务信息的真实性、失控风险;系统性风险,特别是市场集中与单点故障风险。

2、应借助各地现有的网络安全支撑单位力量等内外合力,以《人工智能安全治理框架》等可用框架、工具审慎开展相关风险评估。

3、形成与第三方网络安全服务机构、上游厂商(如深度求索作为模型提供者)、其他相关主体的网络安全信息共享机制,发挥“国家级”态势感知和网络安全从业人员的“末梢”专业技术能力,合理发现、分析和修复安全漏洞等脆弱性风险,规范通报和披露流程。对于开源人工智能而言,识别修复责任的主体存在相当难度,可能需要各方合力和协议安排(开源协议部分降低了模型提供者的责任,应考虑适当的义务补充和分配)。

4、应更新网络安全事件预案和处置流程,特别是人工智能特有的风险类型,应考虑必要的人工接管、“熔断”和切换,确保发生安全事件后的响应有效、影响可控。

5、规范政务人员的人工智能使用行为,特别是对政务文件的上传、敏感问题的交互等,对使用规范接入的人工智能和通过自带设备使用人工智能的行为进行场景、后果的区分。

6、对决策支持、协助执法、司法裁判等可能具有高风险或“可解释性”要求更高的人工智能应用场景,应与人工智能模型、系统提供者进行更充分的细节协商和强化人工介入,避免偏见、危害公共安全等系统性风险形成和累积。

原浩,文章所涉观点内容谨代表作者本人

声明:本文来自苏州信息安全法学所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。