2025年9月15日至19日,全球二十家数据保护机构出席了在韩国首尔举行的全球隐私大会(GPA)。会间,各方签署了《构建可信赖人工智能数据治理框架联合声明》,旨在推动创新且保护隐私的人工智能技术发展。今天和大家分享的是这个声明的中文翻译。
在2025 年首尔全球隐私大会(GPA)(2025 年 9 月 15 日至 19 日)上,二十个数据保护机构——澳大利亚、比利时、保加利亚、加拿大、克罗地亚、芬兰、法国、德国、香港、爱尔兰、意大利、韩国、荷兰、新西兰、卢森堡、澳门特别行政区、西班牙、波兰、瑞典及英国——签署了《关于建立可信赖数据治理框架以促进创新且保护隐私的人工智能发展的联合声明》(联合声明)。
该联合声明最初由澳大利亚信息专员办公室(OAIC)、个人信息保护委员会(PIPC)、信息专员办公室(ICO)、法国国家信息与自由委员会(CNIL)以及数据保护委员会(DPC)共同签署。签署仪式于今年二月在巴黎举行的 AI 行动峰会期间举行,该活动由 CNIL 与 PIPC 联合主办。
关于构建可信数据治理框架以鼓励创新和隐私保护型人工智能发展的联合声明
2025年2月11日
人工智能(AI)为人类福祉、科学创新、经济和社会整体发展带来了巨大机遇。人工智能也对基本权利的保护构成了重大风险,例如数据保护和隐私,但它还可能引发歧视、误传和幻觉等风险,这些往往是由不当的数据处理引起的。
我们认识到需要充分培养公众信任并利用人工智能可能带来的变革性益处。我们回顾,人工智能的开发和部署应符合数据保护和隐私规则以及其他规范。这包括从初始规划阶段将隐私设计原则嵌入人工智能系统中,并实施稳健的内部数据治理框架。这些框架应纳入技术和程序保障措施,以有效管理和缓解人工智能系统整个生命周期中的风险。
此外,我们认识到在当前人工智能开发和部署的环境中,数据处理已变得极其复杂。事实上:
a.它在许多不同领域开发和部署,包括医疗、公共服务、公共安全、人力资源和教育;
b.它涉及众多分布在世界各地的利益相关者以及复杂的价值链,包括数据集创建者、模型提供者、数据集和模型托管平台、集成者、标注者、系统部署者和终端用户;
c.它以大规模运作,人工智能技术需要海量数据,这些数据是这些系统的核心;
d.它涉及复杂的数据处理,这对控制构成了重大挑战,并增加了透明度的需求,以促进隐私和其他基本权利的保护;以及
e.它以极快的速度演进,每天都经历着重大的科学和技术突破。
因此,公民和企业的答案需求以及法律确定性日益紧迫,以在可信数据治理框架内实现人工智能的发展。同时,规则的应用应提供足够的灵活性,以便各种创新努力能够与隐私和个人数据的保护一致。我们因此认识到,支持人工智能生态系统中的参与者遵守数据保护和隐私规则的重要性,并帮助他们在创新与尊重个人权利之间实现协调。
突出数据保护机构在塑造数据治理以应对人工智能演进挑战中的领导作用,我们承诺如下:
在我们各自管辖区内,促进对人工智能训练背景下数据处理合法基础的共同理解。应制定明确的标准和要求,以确保人工智能训练数据的处理合法,无论基于同意、合同必要性、合法利益或其他法律理由。在这样做时,应注意各种相关因素,包括人工智能开发的特定目的、所需数据的特性、数据主体的合理预期以及相关的风险缓解策略。
交换信息并建立基于严格科学和证据评估的比例性安全措施的共同理解,并针对使用案例的多样性进行调整。这些措施的相关性应定期更新,以跟上人工智能数据处理技术和实践的演进步伐。
持续监测人工智能的技术和社会影响,并在可能的情况下,利用数据保护机构和其他相关实体(包括非政府组织、公共当局、学术界和企业)的专业知识和经验处理与人工智能相关的政策事项。
减少法律不确定性,并在数据处理对人工智能开发和部署至关重要的领域为创新提供空间。这可能包括机构措施,如监管沙盒,以及分享最佳实践的工具。这些措施和工具应以公众信任为基础,并符合隐私和数据保护原则。
加强与相关机构的互动,包括负责竞争、消费者保护和知识产权的机构,以促进不同适用监管框架之间的一致性,并培养对人工智能系统、工具和应用的协同作用。还应鼓励涉及人工智能生态系统中多样化参与者的对话。
声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。