欧盟在4月8日发布了一系列关于如何发展AI道德的指导意见。不同于阿西莫夫的“机器人学三定律”,它们的目的并不在于提出一个大的框架来阻止AI变身杀人机器,相反的,它们旨在解决当AI融入了医疗、教育、消费等领域,真正成为人类生活的一部分后,会给社会带来的一些模糊、分散的细节问题。

举个例子,当AI未来真正进入医疗领域为患者进行诊疗,欧盟可不希望看到它出现种族歧视和性别歧视的问题。顶撞人类医生的反对意见这种事当然也不应该发生。

欧盟怎么说

欧盟为阻止AI暴走,也是下了大力气了。这一次指导意见的出炉,就是52位专家群策群力的结果。他们从专业的角度出发,提出了未来AI系统应该满足的七大原则。

受人类监管

AI不应该践踏人类自治。人类不应该被AI系统操纵或威胁,人类应该能够干预或监督AI的每一项决定。

技术稳健性和安全性

AI应该是安全和准确的。它不应该轻易受外部攻击的影响,它应该非常可靠。

隐私和数据治理

AI搜集到的个人数据应该是安全且私密的。它不应该被随便访问,不应该轻易被盗。

透明度

用于创建AI系统的数据和算法应该是可访问的,应确保AI决策的可追溯性。换句话说,运营商应该能够解释他们的AI系统是如何做出决策的。

多元化,非歧视和公平性

AI提供的服务应该适用于所有人,无论年龄、性别、种族或其他任何特征。系统不应该有任何偏向。

环境和社会福祉

AI系统应该是可持续的(即对生态负责),并且应该“增强积极的社会变革”

问责制

AI系统应该是可审计的,并且被现有的公司举报人保护举措涵盖。系统的负面影响应该事先得到承认和报告。

以人为本的欧盟

一直以来,欧盟都很关注AI伦理的问题,从《欧盟人工智能》到《人工智能道德准则》,欧盟虽然在AI技术上没有先发制人,但在“以人为本”方面显然走在了前列。

早在2018年4月,欧盟就把发展人工智能的重心放在了人工智能价值观的构建上,希望以此彰显欧盟在人工智能领域的特色。2018年12月,欧盟在收集了500多条建议之后,发布了由人工智能高级专家组编写的《人工智能道德准则》草案,提出了“值得信赖的AI”这个概念。而现在,AI七大原则也由欧盟率先提出,欧委会表示下一步他们还要为以人为本的AI制定国际共识,在G20峰会这样的国际场合探讨此事。

网友们怎么看

AI的迅猛发展到底会不会给人类带来机器人末日,其实一直是许多人心里的隐忧。在追求AI的安全性方面,无论是研究者还是普通人都没有停止过关注。不过对于欧盟提出的这7大原则,也不是人人都买账的。

比如就有网友提出,凭啥AI话语权一定要不如人类,它要是就比人类强呢?      

也有人觉得关于透明度的要求不太现实,神经网络本来就是一个黑盒子。   不过真理总是越辩越明的,积极反思并公布类似指南的正面意义还是得到了网友们的肯定,只是AI伦理显然不是一个文件两个文件的事儿。我们受益于技术,我们也忧虑技术的发展方向,在这个方向上的探索或许还有很长的路要走。

“有道德的AI”是欧盟理想中的双赢局面,你又是怎么看的呢?

声明:本文来自量子位,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。