曾毅,国家新一代人工智能治理专业委员会委员、中国科学院自动化研究所研究员

2019年8月29日,曾毅先生在2019世界人工智能大会治理论坛作主旨演讲,全文如下。

当讲到人工智能愿景的时候,很多提案提到人工智能必须要以人类为中心。这个观点有一点狭隘,而更为长远的愿景应该是以生态系统为中心,因为我们必须要考虑到人类发展与生态之间的平衡与和谐发展。人工智能的愿景不同组织与国家都提出了不同提案,例如日本更倾向以人为中心的愿景,欧盟认为可信任是非常重要的。来自于加州伯克利大学的观点是与人类相容。

对于可持续发展来说,人工智能是未来的一个非常重要的途径和工具。人工智能不仅仅能够提升经济,虽然很多目标不直接与经济挂钩,但与全球可持续发展愿景息息相关。中国支持联合国的愿景,人工智能真的是我们实现可持续发展的重要使能技术并提供相应的工具与系统。

我们可以看到,至今为止全球至少有53个不同的人工智能的原则提案,但根据主题分类来看,没有一个提案能够覆盖所有精细的主题。即使是国家层面的人工智能原则,也没有涵盖跟AI所有相关的主题,最多的涵盖了67%的相关主题。我们认为AI的原则不必要涵盖所有主题。这些原则其实是从不同的角度,以不同的文化背景为基础提出的,所以这些原则不应该是相互竞争的,而应该是互为补充的。比如有些提案提出的原则,强调该提案所在组织并不像美国一样引领AI的技术,也不像中国一样引领AI的应用,他们希望引领AI的道德。但是他的这些所谓道德只是涵盖了20%和AI相关的主题。所以,不同的AI愿景与原则绝对不应是竞争关系,跨文化的交互使得我们对于AI的未来有更清晰的认识。只有具备这样的思想,才能够提供全球AI的更有效治理方案,开启人工智能更好的未来。

科技部新一代人工智能治理原则的提出,首先是中国发展新一代人工智能的发展与治理双轮驱动的愿景。这并不是说这个原则完全会适用于任何国家。我想中国的治理原则与实践如果发展的好,那么对于发展中国家可能是很好的借鉴,但未必会直接适用于发达国家。有些国家以产业首先提出AI伦理与治理原则,有些国家则是政府和学术界走在前列,不同层面和视角的AI原则将在不同视角发挥作用,为实现AI的总体愿景贡献力量。

至今为止中国至少在不同层面提出了10个不同的宣言,分别来自学术界、产业,甚至是科研工作者单独的提案,有些是政府所,涵盖的主题也是截然不同的。即使在中国,我们也发现不同的原则是相互补充的,无论是顶层设计、自下而上的以科学家或产业为首提出的原则,都是互为补充的。《人工智能北京共识》是以科学家和行业为首的,是自下而上的。提出两天以后,百度热词搜索就显示有超过500万的搜索。这说明AI领域的工作者和公众对AI的未来有很大的关切。北京是科技部发布的首个新一代人工智能创新发展示范区,我们做了很多新兴的举措。麻省理工科技评论的文章提出为什么北京会突然关注AI的伦理问题?其实科技部两年前发布的新一代人工智能发展规划中,就15次提到AI伦理的问题,所以这显然不是突然的决定。

科技部新一代人工智能治理原则我们今天也许没有时间谈论其中涉及的所有原则,但至少可以对其中几个要点展开讨论。首先是总体愿景的问题。中国人工智能的愿景与联合国可持续发展目标高度一致,我们的目标是通过人工智能的稳健发展实现人类命运共同体。

对于未来而言,AI需要尊重人类的价值观,比如公平、公正、诚实、信任、自由、友情、民主等等。同时,人工智能不应该被滥用或者被恶用,否则会对社会造成巨大的风险。我们观察到很多数据都是在没有知情同意的情况下被使用的,人们不应当为了利益和发展而忽视潜在的风险。所以,误用和滥用都应当尽可能避免,比如致命性自主武器就应当严格禁止。偏见问题也是很重要的,比如对于黑人,人脸识别准确性会下降大约20%,也就是说人脸识别技术对于不同种族是存在风险的,带有偏见的数据甚至会将犯罪风险与种族信息挂钩,这些社会的偏见被从不完善的数据中获取,导致AI产生可能的偏见,我们要对这个问题予以足够的重视。

此外,隐私问题也非常重要。世界上有些城市已经禁止使用人脸识别这个技术了,不仅是因为人脸识别可能会带来隐私的问题,还会带来偏见、歧视的问题。可是我们应当重视的是如何去改善技术中可能存在的风险,善用技术。仅仅禁用一个可能存在风险的技术并不是面向未来发展的方式。例如对于其他生物特征识别,可能存在相似的潜在风险,比如指纹识别、步态识别,都可能造成隐私泄露与偏见等问题。需要去积极规避可能存在的风险,再促进技术对社会可能产生的积极贡献。我们必须要有足够的平台和管控机制,来确保隐私受保护以及获得真正的用户知情同意。

在技术层面上,我们需要做到足够的努力,让这些AI技术在开发和应用时,能有一个内置的机制,可以保护隐私。现在中国有一些关于隐私的管理和使用,尤其是对儿童的数据使用和应用的法律法规,这是中国政府为保护人类隐私做的一些切实举措。更为关键的是在企业和政府层面如何支持这些努力的落地。

人工智能模型在取得进展的同时,仍然存在不同的技术风险。比如在图像识别中,1个像素的变化就可能导致识别类别的颠覆(如飞机识别为狗),当自动驾驶遭受外部攻击,就会造成灾难性的影响。在可控性方面,人工智能需要我们更多的关注。在中国,人工智能不仅需要进一步的研发,还需要研发人员、用户、产品和服务供应商,以及政府和其他利益相关方形成良性循环,将人工智能稳健发展的理念能够在AI的整个生命周期落地。

其次是开放和合作。科技部正在推动企业为主的新一代人工智能开放平台,能够进一步地推动人工智能的发展并与全球接轨。此外AI治理原则需要随着技术的进展不断被审视并做出必要的更新,适应技术的变革。

可以看到,不同组织对于AI有不同的关切,比如安全性方面,企业讲到了AI技术的内部安全(Safety),但是政府讲得很少。所以对于企业从业者来讲,必须要他们的政府知道人工智能内部安全还有很多的威胁和风险。政府更多关注公平性,但是企业讨论公平公正相对较少。所以,所有这些和AI治理相关的主题,必须要放在全球观中讨论。我们经常以一个小的角度,就某一个主题进行讨论,但是我们需要一个更全局的观点。

AI治理需要自底向上和自顶向下的设计与实践。科技部新一代人工智能治理原则可以通过新一代AI创新示范区、新一代AI开放创新平台、科技部发布的项目等渠道落实顶层设计,而人工智能北京共识的实践则是自底向上的。以北京为例, AI安全、AI道德自主学习、以及AI风险评估和规制等具体的技术项目就已经通过北京智源人工智能研究院与中国科学院、清华大学、北京大学、以及相关企业的协同开始技术落地。现在我们正在推进建立一个风险评估和治理平台,这个平台未来推广到其他城市和国家一定有其必要的意义。

全球对于AI与人类社会的关系有完全不同的认识。有些国家发展人工智能技术是作为一项帮助人类解决问题的工具,而有些国家将未来的AI视作社会的一员,例如日本人工智能学会的AI伦理原则认为AI可以成为社会的“准成员”。西方国家特别在科幻电影中会将AI视作人类的敌人。对于AI的长期愿景,我们必须深度思考AI与人类的关系。终极的AI与人类究竟是协作关系还是竞争关系,在这个方面,我们需要有长远的战略性规划,确保人类与人工智能的和谐共生。我们是否真的应该把AI关在道德的牢笼里呢?200年前,著作弗兰肯斯坦中就引发了我们深刻的思考。如果未来的人工智能真的发展出一定程度的自我和意识,他们是否也可以拥有自己的隐私,我们应该对他们持有偏见吗?有些哲学家指出其实人类是世界上最可怕的动物,如果人对未来人工智能有嫉妒、歧视和偏见,那就不可能产生人和人工智能之间真正的和谐共生。人工智能融入社会,人类应当如何转型,是我们更为值得深度思考的科学与哲学问题。

本文系曾毅先生在2019世界人工智能大会治理论坛上的演讲。文章观点不代表本机构立场。

声明:本文来自三思派,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。