编者按

2023年10月10日,美国战略与国际研究中心(CSIS)发布最新报告《AI监管将至,路在何方?》,简要回顾了当前的AI监管现状,重点聚焦美国自下而上的拼凑式监管方法,指出当前AI监管论战的关注点和各家观点,定义了AI监管的十个关键参数,根据美国的AI监管现状预测了其未来的AI监管走向。元战略摘编重要内容,探讨AI监管相关措施。

AI监管现状

当前各国和国际组织已出台多项AI监管举措,如欧盟的《人工智能法案》,该法案制定了大量自上而下的规则,包括禁止使用欧盟认为可能会带来严重风险的AI技术和应用,目前该法案已进入通过的最后阶段;中国国家网信办等部门联合发布《生成式人工智能服务管理暂行办法》,指出“对生成式AI服务实行包容审慎和分类分级监管”“坚持社会主义核心价值观”;反观美国,其采取的是典型的分散监管方法,即行政部门自下而上分散行动

与欧洲不同,美国不太可能在未来几年内通过一项内容涵盖广泛的国家AI法,其立法对象可能会聚焦争议较少的AI领域,如资助AI研究和面向儿童安全的AI。这种结果会比较混乱,存在漏洞,但并不意味着AI领域无法可依。美国很可能会针对特定领域的机构采取行动,如医疗保健、金融服务、住房、劳动力和儿童安全方面,此外还可能出台多项行政命令。如果执行得当,这些拼凑起来的规则将以特定机构的专业知识为基础,并更加符合创新要求。美国政府可能会增加AI研发特别是国防和智能领域投入,并利用其购买力来打造AI市场。在这一过程中,美国可能与欧洲出现AI贸易摩擦;私营企业将推进自己的“负责任的AI”计划,并面临分散的全球AI监管格局;中美科技竞争将进一步升级;美国联邦贸易委员会和司法部可能会发出警告,以防止AI向大型科技公司集中。

几乎所有人都认为,AI既能为社会带来巨大利益,也会带来重大风险。挑战在于如何在创新和社会风险之间平衡,而政府在这方面的行动并不理想。细节决定成败,让规则适应可能快速变化和普及的技术。生成式AI正引起广泛讨论,然而,这个问题更加遥远,难以准确预测。在此,本篇文章将重点讨论模型安全性、偏差、透明度、隐私、安全、信任、版权、内容监管、教育和经济影响(失业、劳动力调整、生产力)等问题。对于商业行为者来说,关键问题是监管对创新的影响,以及监管是否解决了社会关切,从而使AI应用广泛且可持续。

AI监管论战

当前,关于AI监管的辩论日趋激烈并且政治化,反映了各国人民对AI给予的巨大希望和恐惧。

01 恐惧和偏执

如著名技术专家和风险投资家马克·安德森所言:“我们现在对AI有一种全面的伦理恐慌”。他认为这是一种“非理性”的“歇斯底里的恐惧”,并将其与新技术的引入进行比较,后者也曾有过类似的恐惧,但被夸大了,后来也得到了控制。他认为,AI只是一个由人拥有、控制和使用的计算机程序,AI没有自己的目标,也没有自己的需求。此外,他还强调,AI可以成为一股巨大的向善力量。与此同时,AI学术界的计算机科学家们警告生成式AI威胁人类生存的巨大风险。比尔·盖茨、谷歌、微软、OpenAI的高层管理人员以及包括中国和俄罗斯在内的许多AI专家和名流都签署了一份声明,声明指出:“缓解AI带来的灭绝风险应该与大流行病和核战争等其他社会规模的风险一样,成为全球优先考虑的问题”。还有人建议暂停开发比ChatGPT 4更强大的AI模型。埃隆·马斯克曾说:“有了AI,我们正在召唤恶魔。”

02 国际大环境

AI辩论正在全球范围内展开,AI对国家安全、军事能力和全球经济竞争力有着直接影响。尽管许多问题都是全球性的,但这也导致了确立狭隘立场的压力。欧盟的《人工智能法案》将适用于在欧洲提供AI服务的非欧盟公司,并将开创其他国家可能效仿的先例(如其隐私规则)。目前已有31个国家通过了AI立法,另有13个国家正在讨论AI法律。欧盟的《人工智能法案》意在成为“世界上第一部全面的AI法”。欧盟的核心做法是将AI系统分为四个风险等级,不同等级的系统适用不同的法规。该法规实施起来面临挑战,甚至连AI系统和AI风险的定义都存在问题。欧盟企业发表了一封公开信,称“如果不能有效解决我们现在和将来面临的挑战,将危及欧洲的竞争力和技术主权”。欧盟将成立一个新的AI办公室来监督执行情况,处罚包括罚款,最高可达全球总收入的6%,公民还有权对AI供应商提出投诉。

03 不同的声音

对AI发展持乐观态度的风险投资家安德森·霍洛维茨认为AI将拯救世界,而马克·安德森也批判科技公司正在贩卖恐惧,推动AI监管以保护其经济利益。大公司拥有满足广泛的AI规则的资源,而小公司和初创企业(风险资本家投资的企业)大多没有这种资源。安德森认为AI的风险被夸大了,AI几乎不存在合理的担忧或负面的外部效应。应该允许公司(和开放源代码)尽可能快速且积极地构建AI。

除强调对AI进行干预的欧盟和强调对AI发展放手的风险资本家外,许多企业和民间社会团体正在倡导不同程度的监管。例如,微软公司在其“管理AI:未来蓝图”中提出了一种全面的方法。它将建立一个新的政府AI机构,一个新的AI法律框架,要求控制关键基础设施的AI系统必须安全制动,并为运行关键AI的数据中心颁发许可证。AI规则会产生赢家和输家,因为一些人受到限制,而另一些人则拥有更多的自由和资源。各国政府担心被批评监管不力,因此在谈论创新的同时,也在回应公众对AI的担忧。

AI监管十大参数

为帮助政策制定者和监管者应对AI监管问题,本篇文章定义了AI监管的十个关键参数

首要目标是透明度、公平性、可解释性、安全性和信任

除非能实现这些目标,否则AI监管不可能成功,AI的应用也将受阻。许多具体问题,如告知用户风险、披露模型特征、模型偏差和独立模型安全性测试,都支持这些更广泛的目标。

基于风险的方法

AI是一种通用技术,可能无处不在,应用范围广泛,这就增加了监管的难度。许多人建议采用基于风险的方法,即对可能造成更大损害的高风险AI应用按比例加强监管,而对低风险应用则减少监管。这种方法有其优点,但在实施过程中会遇到很多障碍,包括由谁来定义和衡量风险以及如何定义和衡量风险,提供AI服务的最低要求是什么,以及哪些AI应用被视为非法。

降低风险和应对恶意行为者

如果可以像其他领域一样减轻风险(如减轻环境影响或通过贷款标准和保险减轻金融风险),那么风险的存在可能并不构成全面监管的理由。规则还需要反映出寻求遵守规则的合法企业与居心不良的恶意行为者之间的区别。追求危险目标(盗窃、人身安全、儿童安全)的恶意行为(网络安全、网络犯罪、恐怖主义)需要更强有力的规则和更具惩罚性的威慑。

创新和预先批准

欧盟、微软和OpenAI的方法要求政府对高风险领域的AI模型进行预先审批或授权。鉴于AI变化如此之快,这一点尤为重要。互联网之所以能产生快速创新,部分原因是没有预先审批;任何人都可以不经许可在网上发布任何合法应用。所有人都说他们希望创新,但预先批准或许可会故意制造市场进入壁垒,从而不利于创新和开放竞争。

数据流、数据隐私、数据安全

AI在很大程度上依赖于大量高质量的数据。模型的准确性和结果直接反映了训练所依据的数据。因此,数据监管是AI监管的核心。AI可能会放大数据隐私问题。美国没有国家数据隐私法;欧盟则以《通用数据保护条例》为基础。数据安全和跨境数据流也与AI监管有关。这些都不是新问题,AI监管应建立在先前努力的基础上。

是否出台新法律

美国政府有约50个独立的监管机构,许多AI风险都可以通过现有机构来解决。例如,美国联邦贸易委员会有权监管AI深度伪造等“虚假和欺骗性”行为。平等就业机会委员会正在解决AI模型在招聘过程中可能存在的偏见问题。然而,在许多情况下,现有的法律授权如何适用于AI并不明确,在某些情况下,还存在空白。微软公司建议“根据AI的技术架构制定广泛的法律和监管框架”。其他人则反对建立新的法律制度,认为最好根据现有法律对AI进行监管。

机构方法

是否有必要设立新的政府机构?私营企业应该做些什么?要回答这个问题,我们必须思考AI带来的挑战的独特性以及是否需要设立专门的AI机构。微软等公司建议成立一个新的政府AI机构,至少要解决“高性能AI基础模型”的问题。新的AI机构可以带来资源和专业知识。然而,历史表明,新机构可能会导致监管“博弈”、监管被现有机构“俘获”、机构“任务爬升”以及决策缓慢和官僚化。

“胡萝卜+大棒”

监管通常在胡萝卜(激励措施)和大棒(惩罚措施)并举时效果最佳。谷歌和其他公司注重“良好的AI”成果,如训练劳动力掌握AI、投资于AI创新和竞争力,以及支持广泛采用AI。而欧盟《人工智能法案》采取了强有力的执法方式,并规定了严厉的经济处罚。

监管范围

AI供应链,包括云数据中心。对于高风险用途,有些人希望监管不仅适用于模型开发者,还适用于应用程序及其运行的信息技术基础设施,甚至包括组件。例如,支持关键基础设施的AI系统只能部署在获得许可的AI数据中心。这有可能将监管扩大到新的领域。

10 国际协调

几乎每个国家都在就AI的巨大影响展开辩论。不同的国家规则将不可避免地产生冲突,包括知识产权和反垄断。欧盟的《人工智能法案》几乎肯定会比美国的做法更具监管性,而美国-欧盟贸易与技术理事会正在协调双方的分歧。七国集团启动了“广岛AI进程”。经合组织制定了AI原则,联合国提议成立一个新的联合国AI咨询机构,以更好地吸纳发展中国家的意见。国际技术标准,如通过国际标准化组织和电气和电子工程师学会制定的标准,是一种很有前途的方法,应加以考虑。共同研发和教育援助也能鼓励AI的协调发展。

美国未来AI监管预测

美国可能会采取一种分散的自下而上的方法,这种方法比较混乱,可能存在漏洞和不一致的地方。这很可能会让AI强监管的支持者失望。然而,随着时间的推移,这可能会产生一种拼凑的AI规则,如果实施得当,这种规则将以特定机构的专业知识为基础,并更符合创新要求。白宫正在协调各执行机构,同时各机构也在各自的领域采取行动。人们普遍认为,华盛顿对社交媒体缺乏有意义的监管是失败的,这也促使人们在AI方面更加积极主动。然而,美国政府的分散结构、政治分歧以及AI的复杂性阻碍了大刀阔斧的行动。与AI相关的重大失误引发国家政府采取强有力行动的可能性确实存在,但可能性较小。

因此,文章据此作出以下推断:

  1. 未来几年内,美国不太可能出台像欧盟法案那样基础广泛的国家AI法律。美国政府可能会在其AI“权利法案”的基础上再接再厉,该法案涵盖不同领域,秉持自愿承诺原则,包含行政命令。自愿承诺规则被许多人视为权宜之计,但分裂的国会不太可能通过一项包含新强制性规则的重要法律。美国政府更有可能在医疗保健、金融服务(贷款、保险、住房)、劳动力行为(歧视)和儿童安全等敏感领域采取行动。在没有新法律的情况下,行政部门机构很可能会继续行使现有权力。

  2. 私营科技公司将各自推进负责任的AI计划,为客户服务,避免政府采取更严厉的行动。

  3. 联邦政府将不断扩大在AI和AI研究方面的支出,包括对非营利组织和大学的支出。由于美国将其购买力用于卫生、教育、国家安全和公共安全等关键领域,因此这些资金带有市场塑造规则。政府通过花钱来解决问题。美国国家科学基金会正在资助25家AI研究机构,以提高国家经济竞争力。

  4. 美国政府正在制定限制联邦机构项目中的AI偏见和风险的行政命令。其他命令也可能侧重于在联邦信息技术中加强采用AI,以改善公民服务和加强AI的安全性,但取得的成效参差不齐。

  5. 风险管理、标准、审计和评估。美国商务部下属的美国国家标准与技术研究院在定义AI标准和风险管理实践方面发挥着关键作用。它们可以产生广泛影响,但大多是自愿的。美国商务部的国家电信和信息管理局的AI调查侧重于“建立AI审计、评估和其他机制的生态系统”,这可能是美国应对措施的一部分,是执法的关键。这些努力可以在全球范围内发挥重要作用。

  6. 美国各州和城市可能会通过有针对性的行动。像加利福尼亚这样的大州确实有可能通过一项重要的AI法律,从而大幅改变美国的监管环境,但这种可能性较低。

  7. 美国可能与欧盟和其他国家出现贸易冲突,造成全球监管环境支离破碎。美国很可能在全球范围内推进其AI原则和自愿商业承诺,以影响国际规则。知识产权和版权对创意产业尤为重要。欧盟的《人工智能法案》可能会影响其他主要国家,使美国的领导地位受挫。亚马逊、苹果、谷歌、Meta、微软和英伟达等领先企业可能会面临世界各地的多种AI制度。

  8. 反垄断机构牵头防止“大科技”公司主导AI、虚假和欺骗行为以及AI驱动的欺诈行为。AI基础模型的高成本和大规模很可能导致市场集中。美国联邦贸易委员会的行动可能给行业带来警示。

  9. 美国国防部将AI应用于武器系统、指挥与控制以及智能领域。人类将保持“在环中”。美国国防部可能会被批评行动太慢。情报界和执法机构也可能成为AI的主要采用者,从而引发对公民权利的担忧。

  10. 美国与中国日益激烈的竞争可能会为AI监管工作蒙上了阴影,“不要落后于中国”的争论将不断升级。对先进图形处理器等AI相关技术的出口和投资的管制可能会随着时间的推移而扩大和延伸,如云计算、量子等。

(本文内容系“元战略”公众号原创编译,转载时请务必标明来源及作者)

文章译自:美国战略与国际研究中心官网

文章题目:

Al Regulation is Coming-What is the Likely Outcome?

文章链接:

https://www.csis.org/blogs/strategic-technologies-blog/ai-regulation-coming-what-likely-outcome

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

编译 | Allen Wang

编辑 | 流景

审校 | Zoie Y. Lee

声明:本文来自元战略,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。