撰文 | 微胖

虽然包含了所有正确要素,但是,没有任何细节。你可以将命令理解为一个态度不那么积极的要求和建议,其中,人工智能政策的前线仍然是在各个政府机构,白宫更多扮演的是召集者和协调者。而关键问题只字不提或避而不谈,政府过去的「不良记录」,让这份计划是否真的有意引领美国人工智能政策走向一个新阶段,倍受质疑。

美国起了个大早,赶了个晚集。

早在 2016 年,奥巴马政府就发布了几份关于人工智能未来的报告,当中国、加拿大、欧盟等国家相继出台国家 AI 战略时,2017 年履新的特朗普政府却选择沉默。

2 月 11 日,这位难以被理性预测的总统又给大家制造了一个意外——签署一项行政命令,启动美国人工智能计划,将联邦资源集中用于人工智能的发展。

主要内容包括五个方面:

  • 加大研发投入;

  • 为专家提供更多资源(数据、计算资源等,但不是资金);

  • 引入开发和使用 AI 的道德标准;

  • 优先考虑人员培训可能因自动化而失去工作的人群;

  • 与其他国家合作,只要它「以符合我们国家价值观和利益的方式发展」。

无论是篇幅还是内容详实度,这份命令都远不及中国那份曾让华盛顿政客歇斯底里的二十多页纲领。虽然包含了所有正确要素,但是,没有任何细节。

你可以将命令理解为一个态度不那么积极的要求和建议,其中,人工智能政策的前线仍然是在各个政府机构,白宫更多扮演的是召集者和协调者。

而且,关键问题只字不提或避而不谈,政府过去的「不良记录」,让这份计划是否真的有意引领美国人工智能政策走向一个新阶段,倍受质疑。

最重要的问题:多少钱?从哪儿来?

过去两年中,美国政府主要通过试图减缓中国的进展,来应对中国的挑战。

比如,加强对外国核心技术投资的审查、审查中国学术交流、实施有针对性关税、起诉参与经济间谍活动的中国参与者。

推动美国人工智能的力量(包括资金)大多来自私营实体,这和中国正好相反(看看入选 2019CB Insights 全球百强榜单中的几家中国 AI 独角兽。)

在 2016 年 11 月的一次国会听证中,OpenAI 联合创始人格雷格·布鲁克曼(Greg Brokerman)表示,国家政府仅投资 11 亿美元用于非机密人工智能技术。

另一个数字显示,对不包括关键的五角大楼和情报机构预算在内的非机密项目的估计,在整个 2017 财年中,政府在人工智能研发上花掉了 20 亿美元。

这些都远远低于中国未来十年承诺的 1500 亿美元。

联邦机构方面,五角大楼的支持算是走在前列。比如,去年 DARPA 计划未来 5 年投入 20 亿美元研发人工智能。但据纽约时报报道,中国一个省政府就曾承诺在人工智能方面投资 50 亿美元,北京政府已承诺向该市的一个人工智能开发园区投入 20 亿美元。

事实上,硅谷的技术领导者也一直在向行政部门施加压力,要求他们提供额外的研发资金。去年 12 月,谷歌、IBM 、微软等顶尖公司 CEO 曾在白宫与官员会面(包括伊万卡·特朗普)交流类似话题。

命令要求联邦机构在其研发任务中优先考虑人工智能投资,也算是对既有问题的一次正式公开回应。

但具体数字,只字未提。

如此「目标高远、细节模糊,并没有提及新资金」的命令,远不能满足当下的诉求。

比如如何为计划筹措资金?一位高级政府官员说,资金属于国会职权范围。

但是,与白宫行政命令不同,国会需要两党的支持。一些立法者多年来坚持要求立法加强人工智能发展,但到目前为止,没有一个成功案例。

「白宫可以调动现有资金。」战略与国际研究中心的技术政策专家卡特 (William Carter) 说,

「如果他们能找到 50 亿美元修建边境墙(美国和墨西哥边境),应该能够找到几十亿美元,为未来经济增长奠定基础。」

然而,该计划所做的是与民间机构建立联系,进行人工智能投资,并鼓励他们这样做。

一位来自彭博社政府分析师说,就目前情况而言,很难在整个联邦政府的人工智能支出上加上一个数字,因为「大多数民间机构在 2019 年的预算要求中没有提到人工智能。」

另一个重要问题:作为劳动力和移民的人

人工智能技术促进经济增长,直接关系到两类人。

一个是被技术影响就业岗位的劳动力。这次行政命令将他们放在了考量范围内,敦促优先培训可能被人工智能取代工作的劳动力;

另一个是促进技术研发和商业化的人才,包括移民。但行政命令对他们保持沉默。

先来看被回避的问题,它也是美国 AI 计划落地过程中,最为棘手的障碍。

当前美国和墨西哥边境墙资金来源争议,正如火如荼,行政命令对移民问题保持沉默并不奇怪,但更深层次的原因可能源于特朗普的一个基本立场,美国只欢迎对美国「有用」的移民。

早在竞选总统时,对移民的强硬态度就是特朗普的「招牌」之一。过去两年,一些迹象也证明了合法移民政策的收紧:

比如,工作签证 H1-B 门槛提高、可以不经过「补件」就被拒的规定已经出台、工作签证配偶签证 H4 持有者将不再被允许合法工作,等等。

一些重要的科学家选择离开美国,前往隔壁加拿大,因为加拿大「全球技能战略」计划,在短短两周内,就能向包括高级软件工程师在内的某些类别的移民发放临时工作许可证。

然而在人工智能领域,许多领先的计算机科学家都是移民,许多前沿机构和公司都有大量移民。

比如,在艾伦人工智能研究所,近三分之二的研究科学家是移民,其中一些人也是大学教授,博士来自埃及,德国,印度,伊朗,以色列,日本,韩国,挪威,英国,台湾,越南和美国。

对移民的限制就算不会损害大型美国科技公司,因为这些公司可以在其他国家的子公司雇用移民计算机科学家,但是,仍然会伤害那些缺乏跨国业务的美国小型科技公司和创业公司。

纽约大学商学院的两位经济学副教授 Petra Moser 曾分析过美国移民带来的「积极溢出效应」,比如带来本地工人工资上涨。另一位经济学副教授 Michael Waugh 详细解释了这一效应如何发生的,高技术的移民在帮助公司得到扩张的同时,也为其他经济领域的工人创造了更多岗位需求。

但是移民限制,会剥夺美国受益于这些溢出效应。

再来看看 AI 劳动力的问题。

在 2013 年广为关注的一篇研究中,Carl Benedikt Frey 和 Michael Osborne 核查了 702 种职业的计算能力,并发现美国 47% 的工人都面临着工作自动化的风险。其中,运输业和客运业高居榜首。不过,这类低技能劳动力的继续教育和培训,非常棘手。

以美国卡车司机为例。

94% 为男性,平均学历只有高中或一年大学经历,计算机平均水平就更差了。

他们与 MOOC、General Assembly 和领英的世界距离很远(约有 80%的 Coursera 学习者拥有大学学位)。

即便不考虑时间、金钱成本、学习动机问题,要掌握新技能,最好的办法就是实践,但是,卡车司机的工作几乎无法提供这样的机会。

《经济学人》曾在 2017 年一篇关于终身学习的特别报道中分析,对于这个问题的解决,一方面需要靠工会,另一个就是政府。因此,特朗普计划明确提及就业培训,这无疑是正确的。而且,美国对人工智能的政治反对,也常常集中在那些已经受到新技术影响的行业和区域,这样做至少也减少了政治反对。

然而,目前只有少数国家政府真正付诸实践。比如新加坡政府。而且考虑到国家大小、政治系统的不同,新加坡的办法难以复制。

另一个问题仍然是资金将从哪里来,计划缺乏细节。

虽然呼吁教育拨款机构,将人工智能视为现有联邦研究和服务项目 (包括高中和大学) 的优先领域,但是,目前的美国公共教育正面临一场危机:

那些受够了工资停滞不前、预算削减的教师正在全国范围内采取政治行动。上个月,洛杉矶成千上万的教师举行罢工,丹佛成千上万的教师也在罢工。在这种背景下,如何将资源投入到人工智能项目中,还有待观察。

必要的表态?数据与隐私、安全与道德

虽然在钱和人的关键问题上,特朗普政府并没有给出有诚意的具体回答,但是,在被视为石油的数据方面,特朗普政府一直比较积极。

1 月,政府就签署了《开放政府数据法案》(OPEN Government Data Act),让美国联邦政府产生的大量数据,尽可能以可用的方式,为其他任何人所使用。这次行政命令将联邦数据开放出来,也是逻辑之中。

一些学者认为,这是一件好事。一方面,更加丰富的数据可以使得一些 AI 应用成为可能;

另一方面,对于那些想要尝试小项目的人来说,比如爱好者、艺术家、学生,有了政府数据和计算资源,原本因为囊中羞涩只能取得一点进展的项目,其潜能就能得到释放。

但也有人忧虑,联邦数据集中的偏见会被大规模不加批判地使用。

如果将视野从联邦数据放大到整个社会的数据,对于社会中的数据和信息,公平、问责、透明度和道德问题(fairness、accountability、transparency、ethics,FATE)也需要被解决。这也是纽约大学 2018 AI NOW 报告的核心主题。

这次行政命令承认,政府有必要确保公民自由在使用人工智能时得到保护,特别是在军事和监控应用方面。而道德标准制定的担子,落在了国家标准与技术研究所(NIST)身上。

然而,鉴于以往漠视公民权利不良纪录,不少人质疑,这样的政府机构将道德标准作为优先事项纳入计划,不过是一个重要但空洞的表态。

纽约大学 AI Now 研究所的联合主任兼联合创始人 Kate Crawford 教授坦言,这一顺带提及到底会带来多少认真的努力,她表示怀疑。

批评人士认为,让 NIST 负责标准制定也是一个大问题。

原因很简单,一个组织负责制定道德准则和规范,它需要具备两个基本技能:专业知识和独立性,前者保证标准的专业性,后者保证不受组织和权力的影响。

然而,NIST 两者都不具备。

一方面,几十年来,这家机构主要致力于人工智能系统的测试和评估,工作很少会考量伦理学家要做的事情。

「我从未见过任何迹象表明,他们的员工中有伦理学家,也没有任何迹象表明,他们打算雇佣一个伦理学家。」Os Keyes 说,他是华盛顿大学的一位研究人员,研究数据科学和人工智能对变性人的影响。

另一方面,NIST 并不独立的。它们 (部分) 得到了 FBI 的资助,而且,NIST 不仅仅是一个政府标准组织,也是商务部的一部分,它制定的标准主要着眼于如何使美国自由市场和美国公司蓬勃发展。

将这个任务交给 NIST,最后的「结果将是不会限制政府做它想做的任何事情,也不会限制其他实体做他们想做的任何事情。」

那么,什么样的组织适合制定道德标准呢?

这位学者认为,需要包括一个由学者、宗教和社区领袖组成的具有不同种族的团体。「特别希望将最受不公正人工智能影响的群体:非裔美国人、土著、残疾人和移民社区包括在内。」

除了上述问题,一些法律界人士也提醒政府,优先考虑人工智能开发的努力,可能会受到现有关于数据使用的法律阻碍。美国并没有一个全面、联邦层面的隐私法,各州自行立法导致分裂的法律让数据访问也越来越分散。

声明:本文来自机器之能,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。