文 | 中国电子技术标准化研究院 何延哲 徐克超;赛西(深圳)电子信息产品标准化工程中心有限公司 符文田

当前,以大语言模型、智能体为核心的人工智能技术进入爆发式发展阶段,生成式人工智能、智能体等产品快速渗透到互联网、金融、医疗、政务、消费等多个领域,凭借强大的交互能力、自动化执行能力获得了广泛应用。同时,人工智能应用的全生命周期均伴随着大规模、多维度、高敏感度的个人信息处理活动,从预训练阶段海量互联网个人信息的采集与加工,到推理阶段用户交互数据的收集与记忆,再到智能体场景下敏感个人信息的授权与调用,个人信息的处理边界、使用范围、风险传导均突破了传统信息处理模式的范畴,个人信息保护面临前所未有的挑战。因此,亟须通过更有效的评估机制识别潜在的安全风险,切实保护个人合法权益。

一、人工智能应用开展个人信息保护影响评估的必要性

这一必要性,首先源于人工智能应用在全球主要法域下所面临的明确且趋同的强制性合规义务。

(一)全球合规框架下的人工智能应用PIA合规要求

个人信息保护影响评估(以下简称“PIA”,欧盟称“DPIA”,国际通称“隐私影响评估”),是一套以风险为导向、覆盖个人信息处理全生命周期的合规管理方法论,也是全球范围内个人信息保护领域的通用合规工具。

以欧盟《通用数据保护条例》(GDPR)为例,其第三十五条明确规定,当数据处理活动采用新技术,且可能对自然人的权利与自由造成高风险时,数据处理者应当开展DPIA,GDPR及其相关适用文件已将人工智能、自动化决策等新技术场景纳入强制评估范围。欧盟后续发布的《人工智能法》进一步强化了该要求,明确高风险人工智能系统必须将影响评估作为核心合规要求,要求覆盖人工智能系统设计、开发、部署、运维的全生命周期。

此外,美国《加州消费者隐私法案》(CCPA)、加拿大《个人信息保护与电子文档法案》、澳大利亚《隐私法》等主流立法及最新发布的适用文件,也在不同程度上将人工智能、自动化决策等高风险场景纳入影响评估、审计或专项治理框架,对其进行风险管理已经成为国际共识。

(二)我国立法为人工智能应用开展PIA提供明确法律依据

《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)从法律层面确立了PIA的强制适用制度,为人工智能应用开展PIA提供了直接的法律依据。《个人信息保护法》第五十五条明确规定,处理敏感个人信息、利用个人信息进行自动化决策;委托处理个人信息、向其他个人信息处理者提供或公开个人信息;以及向境外提供个人信息等情形需事前开展PIA,而人工智能应用相关的处理活动,几乎覆盖了上述法定强制评估场景。第一,人工智能应用的核心功能大多基于自动化决策实现,《个人信息保护法》将自动化决策定义为“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动”,大模型的用户画像构建、个性化内容推荐、智能体的自动执行决策、人工智能辅助的资质审核等,均属于法定的自动化决策范畴,是必须开展PIA的核心场景。第二,人工智能应用普遍涉及敏感个人信息处理,用户在交互或智能代理类智能体工作过程中,可能涉及对个人特定身份、医疗健康、行踪轨迹、金融账户等信息的处理,大模型训练数据中也有可能包含个人的敏感个人信息。第三,在智能体服务过程中接入第三方工具、大模型等时,也有可能涉及委托处理、向其他个人信息处理者提供、向境外提供等场景,以上均属于法定的PIA强制适用范围。

(三)人工智能快速发展对安全风险管理存在迫切需求

人工智能技术具有迭代速度快、技术黑箱性强、风险隐蔽性高、传导范围广等特点,技术的创新速度远超立法立规节奏,大量新型应用场景、新型处理模式无法被现有法律法规完全覆盖。PIA的核心逻辑是实施风险管理,其过程并非单纯的法条和标准对标,而是通过事前识别、事中管控、事后复盘的方法论,以“保护个人权益”为目标,针对具体处理活动的风险特性开展动态评估,防范个人信息处理活动给个人权益造成的风险。这一内核与人工智能技术的特性高度适配,能够有效应对法律法规的滞后性问题。

从人工智能应用来看,无论是大模型的训练过程、用户使用大模型的推理过程、智能体调用大模型和技能工具,还是多模态数据的融合处理等新型场景,PIA均可通过“识别风险源—评估影响程度—确定风险等级—制定处置措施—持续监控风险”的方法,实现对新型风险的有效管控。同时,PIA并非一次性的合规动作,而是与技术迭代同步更新的持续管理过程,能够伴随大模型、智能体等的迭代、应用场景的拓展开展动态重评估,确保风险管控始终与技术发展同步,为技术创新预留了合规空间。

综上所述,无论是全球个人信息保护的合规趋势,还是我国法律体系的强制要求,或是人工智能技术特性与PIA核心逻辑的高度适配,都充分说明在当前人工智能技术快速发展的背景下,对人工智能应用开展PIA,是防范个人信息安全风险、保障个人信息权益的有效工具,也是实现人工智能产业合规发展的关键路径。

二、现有个人信息保护影响评估方法的适用性

人工智能实施PIA,需以全球通用的PIA方法论为基础,以我国国家标准为核心框架,结合人工智能应用的技术特性、场景风险,构建覆盖人工智能应用全生命周期、适配技术特点、可落地执行的评估体系。

(一)国际通行PIA方法论与人工智能应用的适配性分析

国际标准化组织发布的《信息技术安全技术隐私影响评估指南》(ISO/IEC 29134:2023),是全球PIA领域的核心国际标准,该标准明确了PIA的通用流程、评估原则和实施要求,可作为人工智能应用场景实施过程中的指导文档。比如,可根据该标准识别人工智能应用的系统边界、覆盖的处理活动、涉及的个人信息主体,识别个人信息主体是否拥有知情权、选择权、拒绝处理权、更正权、删除权等权利,分析人工智能应用对隐私的影响程度及对应的风险点,根据标准给出的框架评估得出风险等级,形成人工智能应用场景的PIA报告,记录评估过程、风险识别结果、风险处置措施等内容,并持续监控风险实施动态评估。

国际标准中的PIA方法论虽具备广泛适用性,但对人工智能应用所特有的风险源及其对权益的影响(如差别待遇、诱导沉迷、削弱认知等方面)关注仍显不足。欧洲数据保护委员会(EDPB)发布的《数据保护影响评估指南》与《自动化决策与画像指南》,以及美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》,均针对人工智能场景提出特殊评估要求,重点强调对算法公平性、可解释性、透明度的评估,及对算法歧视、数据投毒、模型逆向等新型风险的识别,为人工智能场景的PIA实施提供了细化指引。

(二)国家标准GB/T 39335与人工智能应用的适配性分析

《信息安全技术个人信息安全影响评估指南》(GB/T 39335—2020)是我国PIA方面的核心国家标准,既承载了ISO/IEC 29134提出的通用评估方法,又衔接了《个人信息保护法》和《信息安全技术个人信息安全规范》(GB/T 35273—2020)中的PIA要求。从GB/T 39335给出的评估框架来看,其评估方法和流程能兼容人工智能应用涉及的个人信息处理场景。首先,采用数据映射分析方法识别人工智能相关的个人信息处理活动;其次,通过安全技术措施、过程合规性、人员和第三方管理、安全态势等视角识别人工智能应用的风险源;再次,结合人工智能应用处理个人信息的敏感程度、处理目的、方式、范围等分析对个人权益的影响。同时,结合风险源可能导致的安全事件可能性,得出对人工智能应用处理个人信息风险的分析结果;最后,对风险进行处置和持续监督,留存PIA报告。

就国内和国际开展PIA或DPIA的方法来看,其共通点是评估方法论均可适用,但其评估内容的针对性不足。近年来,生成式人工智能相关的管理政策、备案要求和相关国家标准陆续发布,因此,在实施人工智能应用场景的PIA时,还需充分考虑人工智能应用的特点,从评估场景识别、个人权益影响分析、风险源及安全措施有效性分析等方面,充分结合当前人工智能应用的发展趋势、国内已发布的法规标准等,在GB/T 39335的评估框架基础上形成更有针对性的评估体系。

三、人工智能应用PIA体系的构建及评估要点

构建完备的人工智能应用PIA体系是完整、科学、有效开展PIA的前提,通过PIA通用框架进行扩展的方式构建适用于人工智能应用的PIA体系(如图所示)。

图 人工智能应用PIA体系框架图(基于GB/T 39335框架扩展)

(一)识别需开展PIA的人工智能应用场景

从识别需要开展PIA场景的核心逻辑出发,如人工智能应用可能对个人权益产生潜在的高风险影响,且属于《个人信息保护法》中的评估场景类型,则应被纳入识别范围。根据人工智能应用的生命周期特点,可将需要重点评估的人工智能应用场景归纳如下。

一是大模型预训练与优化训练场景。该场景是人工智能应用个人信息风险的源头,预训练环节海量互联网数据和其他数据源的采集,可能普遍涉及个人信息的未经授权处理,甚至涉及敏感个人信息处理。该场景的PIA补充评估点包括训练数据来源的合法性校验、个人信息去标识化与匿名化处理的有效性评估、重识别检测、训练数据全生命周期管理制度的有效性等。

二是大模型用户交互与记忆画像场景。该场景是人工智能应用与用户接触的核心环节,其中,涉及用户交互数据的持续收集、用户全景画像的构建,属于典型的自动化决策情形。该场景的PIA补充评估点包括用户交互数据收集的授权合规性、模型记忆功能的用户控制权保障、用户画像构建的范围与必要性、交互数据的存储与删除等。

三是智能体代理执行场景。智能体作为大模型的能力延伸,具备工具调用、自动化执行、权限代理等能力,是个人信息风险的集中爆发区,涉及敏感个人信息处理、向第三方提供等情形。该场景的PIA补充评估点包括智能体权限获取的必要性与最小性校验、第三方工具调用的安全评估、用户授权的全流程管控、越权操作的风险防范、智能体行为安全审计等。

四是重要领域自动化决策应用场景。包括人工智能辅助的信贷审批、求职招聘、征信评级、医疗诊断、教育评估、政务服务等场景,此类场景的人工智能决策结果直接影响个人的重大人身、财产权益。该场景的PIA补充评估点包括算法的公平性与可解释性评估、人工复核机制的有效性、决策结果的合规性校验、个人权益救济渠道的完备性等。

(二)深化人工智能应用对个人权益影响的分析

GB/T 39335要求,个人权益影响可分为“限制个人自主决定权”“引发差别性待遇”“个人名誉受损或遭受精神压力”“人身财产受损”四个方面,虽然人工智能应用对于个人权益的影响是综合性的,但其仍然在以下两个方面具有更为突出的影响,评估时应当进行针对性地深化分析。

一是限制个人自主决定权方面。《个人信息保护法》和《网络数据安全管理条例》明确赋予个人对自动化决策的规则知情、选择退出和拒绝处理等相关权利。针对人工智能应用,该方面的个人权益影响扩展分析要点包括:其一是人工智能自动化决策是否向用户清晰、完整告知了决策规则、应用场景与对个人权益的影响,是否保障了用户的知情权;其二是是否为用户提供了关闭个性化推荐、拒绝自动化决策的有效渠道,是否存在仅以自动化决策作为唯一决策依据的情形;其三是针对自动化决策结果,是否为用户提供了便捷的异议、人工复核渠道;其四是模型的用户记忆、决策画像构建,是否为用户提供了撤回同意、删除等的选项,是否存在超出用户授权范围的画像行为。

二是引发差别性待遇方面。算法歧视、不合理差别待遇是人工智能应用对个人权益侵害的典型风险,也是GB/T 39335的重点评估方面。针对人工智能应用,该方面的个人权益影响扩展分析要点包括:其一是训练数据是否存在偏见性内容,是否对训练数据中的性别、年龄、地域、职业等维度的偏见进行了清洗与校验;其二是自动化决策结果是否针对不同用户群体设置了不公平的决策规则,是否存在大数据杀熟、歧视性筛选等侵权情形;其三是是否建立了算法公平性的检验机制,是否为个人提供相应的申诉反馈渠道,是否具备算法歧视的识别与处置能力。

(三)构建基于多项扩展标准的多维度风险源识别体系

人工智能应用的风险源识别,需在GB/T 39335的基础上,结合人工智能领域专项国家标准,从网络环境和技术措施、处理流程规范性、业务特点及安全态势等维度进行扩展,以构建全面、精准的风险源识别体系。

一是网络环境与技术措施维度,可将《网络安全技术人工智能计算平台安全框架》(GB/T 45958—2025)、《网络安全技术生成式人工智能服务安全基本要求》(GB/T 45654—2025)等作为扩展依据。其中,GB/T 45958—2025重点用于识别人工智能计算平台的安全风险,可扩展的评估要点包括:计算平台是否对训练数据、模型权重、用户交互数据实施分级访问控制并落实最小权限原则;是否实现训练与推理环节的多租户数据隔离,防止数据交叉泄露;是否针对模型窃取、对抗样本攻击、数据投毒、模型逆向等攻击手段采取有效防护措施。GB/T 45654—2025重点用于识别生成式人工智能服务的技术防护风险,核心评估要点包括:是否对用户输入的敏感个人信息进行脱敏,防范模型记忆泄露;是否采取技术措施防止模型输出训练数据或用户输入中的个人信息;是否建立个人信息处理全流程日志审计机制,确保处理活动可追溯;是否落实跨境数据传输安全措施,防范个人信息违规跨境。

二是个人信息处理流程规范性维度,可将《数据安全技术基于个人信息的自动化决策安全要求》(GB/T 45392—2025)、《网络安全技术生成式人工智能预训练和优化训练数据安全规范》(GB/T 45652—2025)等作为扩展依据。其中,GB/T 45392—2025重点用于识别自动化决策的合规风险,可扩展的评估点包括:是否向用户完整告知自动化决策的目的、方式、范围与决策逻辑;是否建立训练数据偏见清洗与算法公平性校验机制;是否为用户提供便捷的异议复核和拒绝渠道,保障个人法定权利。GB/T 45652—2025则重点用于识别训练数据的合规风险,核心评估要点包括:训练数据来源是否符合《个人信息保护法》的合法处理情形;是否对训练数据中的个人信息实施有效地去标识化、匿名化处理;是否建立训练数据全生命周期管理制度,落实分类分级管理要求;是否定期开展训练数据合规审计,及时处置合规风险。

三是业务特点与安全态势维度,需充分结合人工智能业态变化与监管部门发布的风险警示,动态更新风险源识别要素。以OpenClaw类智能体为评估对象为例,国家互联网应急中心等发布多项安全风险预警,全国网安标委发布相关实践指南征求意见稿,其指出的核心风险可纳入风险源识别范围,可扩展的评估点包括:智能体过度获取权限风险、账号操作权限、敏感接口权限管理不当、第三方工具调用风险,以及智能体依赖的开源框架、核心组件、模型基座的安全漏洞、恶意代码植入、开源版本篡改等供应链安全隐患、用户个人信息和授权凭证等敏感数据违规跨境传输等。通过动态跟进监管态势与行业风险变化,可确保人工智能应用PIA评估要点覆盖最新的风险隐患,这是实现有效风险管理的重要举措。

四、以PIA工作推动人工智能安全落地应用

当前,人工智能技术高速迭代,消费端涌现出大量创新型产品与服务,但人工智能技术演化速度远超立法立规节奏,其引发的安全风险成为不容忽视的重大挑战。PIA既是全球通用的隐私风险管理工具,也是我国法律体系下的强制合规义务,以PIA工作强化人工智能应用风险管理,对人工智能时代平衡技术创新与用户权益保护间的关系有着重要意义。

一是PIA为人工智能应用提供者落实主体责任、实现隐私设计(Privacy by Design)的核心工具。企业应将PIA嵌入产品全生命周期,在需求设计、模型训练、上线前及迭代更新各阶段,同步开展前置评估、专项评估与全流程校验,将隐私保护融入各环节,实现风险事前预防,规避监管处罚与品牌损失。二是PIA为监管部门实现敏捷、动态监管的重要支撑。面对人工智能快速迭代,监管部门可通过明确组织应履行PIA义务,将其作为相关备案辅助材料,守住安全底线,实现动态监管。三是PIA为平衡人工智能创新与安全管控的关键举措。PIA的核心是风险管理,而非限制创新,它为企业提供了适配新场景的主动合规方法论,无需观望即可主动识别和处置风险,既可保障用户权益,也可为人工智能创新预留空间,推动人工智能产业在安全的轨道上实现可持续、高质量发展。

(本文刊登于《中国信息安全》杂志2026年第4期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。