第40届数据保护与隐私专员国际大会(40th ICDPPC, 2018.10.22-26,布鲁塞尔)

中文译本

吴沈括、周  洁、杨滢滢 / 译

北师大互联网刑事法治国际研究中心

2018年10月24日

组织方:

•法国国家信息与自由委员会(CNIL)

•欧洲数据保护专员

•意大利个人数据保护专员

支持方:

•阿根廷新闻机构

•加拿大魁北克省信息委员会      

•挪威数据监管委员会

•英国信息专员办公室(ICO)

•瑞士联邦数据保护和透明度办公室

•比利时数据保护局

•香港个人资料私隐专员

•爱尔兰数据保护委员会

•波兰数据保护办公室

•墨西哥国家透明度、信息获取和

个人数据保护研究所(INAI)

•匈牙利国家数据保护和信息自由管理局

•德国联邦数据保护和信息自由专员

•加拿大隐私专员办公室(OPC)

考虑到在马拉喀什举行的第38届数据保护与隐私专员国际大会关于人工智能、机器人、隐私和数据保护的初步讨论;

认识到人工智能系统可为用户和社会带来重大利益,包括:提高相关进程的速度和支持作出相关决策;创造参与民主进程的新方式;提高公共区域部门和工业企业的工作效率;在公共卫生、医疗保健、安全、可持续发展、农业和物流等各个领域提供新的方法和解决方案;为科学研究和教育带来新机遇;为个人提供更个性化的服务。

考虑到人工智能在某些领域的重大进展,特别是在大量信息的处理、人类行为和特征的分析和预测,以及机器人、计算机视觉和自动系统等相关领域,可能在不久的将来取得重大进展;

大数据和人工智能的快速发展,尤其是机器学习,特别是深度学习技术的发展,允许算法解决导致潜在决策的复杂操作,但这使得这些过程更加不透明;

申明尊重隐私权和数据保护权越来越受到人工智能发展的挑战,这一发展需要道德和人权考虑的补充;

考虑到机器学习技术,特别是人工智能系统,可能依赖于处理大量个人数据进行开发,可能会影响数据和隐私的保护;还考虑到目前人工智能领域市场集中趋势所带来的潜在风险;

认识到个人信息的收集、使用和披露之间的联系——一方面是传统的隐私和数据保护问题,另一方面是对更广泛的人权的直接影响,最值得注意的是歧视、言论自由和信息自由。因此承认数据保护和隐私权,当局需要更广泛地考虑人权,应与其他处理人权的机构合作;

指出用于训练的基于机器学习和人工智能系统的一些数据集已被发现包含固有的偏见,导致决策可能不公平地歧视某些个人或群体,可能限制某些服务或内容的可用性,从而干扰个人权利,如影响言论自由或导致人们被排除在个人、社会、职业生活的某些方面;

强调无法解释决策的人工智能驱动系统不仅提出了隐私和数据保护法的基本问题,而且还提出了在发生错误和伤害事件时的责任问题;

注意到人工智能领域的许多利益相关者已经表达了他们对恶意使用人工智能的风险以及与隐私、数据保护和人类尊严相关的风险的担忧,并指出了人工智能的发展问题。与大规模监视相结合,引起人们对其可能被用于限制基本权利和自由的担忧;

强调这些风险和挑战可能会影响个人和社会,潜在后果的危害程度和性质目前尚不确定;

强调信任的重要性,因为强大的数据保护和隐私保护有助于建立个人对数据处理方式的信任,从而鼓励数据共享,进而促进创新;

认为人工智能和机器学习系统的发展所引发的当前挑战加强了采用国际方法和标准的必要性,以确保所有在国际层面的数字发展中促进和保护人权;

重申数据保护机构以及数据保护与隐私专员国际大会的承诺,即维护数据保护和隐私原则,以适应当前不断变化的环境,特别是通过吸引资源和开发新技能,为未来的变化做好准备。

第40届数据保护与隐私专员国际大会认为,任何人工智能系统的创建、开发和使用都应充分尊重人权,特别是保护个人数据和隐私权以及人的尊严不被损害的权利,并应提供解决方案,使个人能够控制和理解人工智能系统。

因此,会议赞同将以下原则作为在人工智能发展中保护人权的核心价值观:

1、应根据公平原则,在基本人权层面设计、开发和使用人工智能和机器学习技术,特别是:

通过确保人工智能系统的使用与其原始目的保持一致来考虑个人的合理期望,并且数据的使用方式与其收集的最初目的相符;

不仅要考虑人工智能的使用对个人的影响,还要考虑其对群体和整个社会的集体影响;

确保人工智能系统的开发方式能够促进人类发展,不会阻碍或危害人类,从而认识到需要对某些用途进行划分和确定界限;

2、应确保对人工智能系统的潜在影响和后果的持续关注和警惕以及确立问责制,特别是:

促进作为利益相关者的个人、监管部门和其他第三方的持续监控和人工智能系统的影响评估以及监督机制定期审查的责任,包括通过审计的方式;

促进集体和共同的责任,涵盖参与者和利益相关者的整个链条,包括协调标准的制定和分享最佳的方式;

加大对于公众意识、教育、研究和培训的投资,以确保对信息和人工智能的理解以及它们在社会中的潜在影响保持在一个良好的水平;

为所有相关行为者建立可证明的治理流程,例如凭借可信赖的第三方或建立独立的道德委员会。

3、应改进人工智能系统的透明度和可理解度,以实现有效施行,特别是:

加大有关人工智能的公立和私立科研上的投入;

提高透明度、可理解度和可达性,例如通过开发创新的沟通方式,同时考虑到每个相关受众所需的不同透明度和信息;

使组织的实践更加透明,特别是通过提高算法透明度和系统的可审计性,同时确保所提供信息的有意义,以及保证信息自决的权利,特别是通过确保个人在与人工智能系统直接互动时或在他们提供由此类系统处理的个人数据时始终得到适当的信息,

提供与人工智能系统的目的和效果有关的充分信息,以验证与个人期望的持续一致性,并使这些系统能够实现全面的人为控制。

4、作为整体“设计伦理”方法的一部分,应通过默认应用隐私原则和设计隐私来对人工智能系统进行负责任地设计和开发,特别是:

实施技术和组织措施和程序——与所开发的系统类型成比例——确保在确定处理方式和数据处理时,使数据主体的隐私和个人数据得到尊重,

评估和记录人工智能项目开始时对个人和社会的预期影响以及整个生命周期中的相关发展,

确定对系统的道德的、合理的运用以及尊重人权的具体要求,作为任何人工智能系统开发和运行的一部分,

5、应促进赋能每个人,并应鼓励行使个人权利,为公众的参与创造机会,特别是:

尊重数据保护和隐私权,包括可适用的信息权、访问权、反对处理权和删除权,以及通过教育和宣传活动促进这些权利的行使,

尊重相关权利,包括言论和信息自由,以扩大反对权或告诉权及于影响个人发展或意见的各种技术,如果存在显著的影响,在适用的情况下应当保证个人不受制于仅基于自动处理的决定的权利,同时在不适用的情况下保证个人具有挑战这种决定的权利,

利用人工智能系统的能力促进平等赋能和加强公众参与,例如利用适应性接口和可访问工具。

6、应当减少和减轻因使用人工智能数据而可能导致的非法偏见或歧视,包括:

确保尊重关于人权和不受歧视的国际法律文书,

投资研究识别、解决和减轻偏见的技术方法,

采取合理措施确保自动决策中使用的个人数据和信息准确、最新且尽可能完整,

制定解决偏见和歧视的具体指导方案和原则,并提升个人和利益相关者的意识。

考虑到上述原则,第40届数据保护与隐私专员国际大会呼吁制定关于人工智能的共同治理原则,促进各国在此领域的协调一致的努力,以确保人工智能的发展和使用符合规范、伦理和人类价值观,尊重人类尊严。这些共同治理原则必须能够解决人工智能技术快速发展所带来的挑战,基于多方利益相关者的进路来解决所有的交叉问题。它必须全球性推进,因为人工智能的发展是一种跨国界现象,可能会影响全人类。本大会也应当成为国际社会努力的组成部分,与竞争、市场和消费者监管等其他领域的行业性当局或一般性当局合作并提供支持。

因此,作为在国际层面对未来共同治理的贡献,也为了进一步制定指导方案以补充人工智能伦理与数据保护原则,第40届数据保护与隐私专员国际大会设立一个应对人工智能发展所带来的挑战的永久工作组。

该人工智能伦理与数据保护工作组将负责促进人工智能系统发展的所有相关方理解和尊重本决议的原则,其包括政府和公共机构、人工智能系统设计者、提供者和研究人员、企业、公民和人工智能系统的最终用户。

人工智能伦理与数据保护工作组应考虑到会议其他工作组开展的工作,并应定期向大会报告其活动。因此,本大会全力支持关于数字伦理的积极公开辩论,助益在这一领域建立强有力的道德文化和个人意识。

图文编辑/北京师范大学 易爽

声明:本文来自安全内参,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。