作者:傅宏宇 顾登晨 袁媛

导语

自特朗普于1月废除拜登强调AI治理的行政令以来,3月美国白宫科技政策办公室就起草新的AI行动计划进行意见征询、5月8日四家科技企业参与国会听证,5月11日动用联邦优先权限制AI州立法、5月14日废除AI扩散规则:密集的动作展现出美国AI政策发生的重大转向。以下简要分析美国AI政策转向的基础背景,在全球化、国内发展、安全监管三个方面的具体调整内容,以及我国的应对思考。

一、美国AI政策调整的三重背景

其一,在两党博弈的背景下,美国联邦AI政策环境出现了重大变化。特朗普政府上任伊始便签署了第14179号行政令,标题为“消除美国在人工智能领域领导地位的障碍”。此行政令不仅撤销了前总统拜登于2023年10月30日签署的第14110号行政令——“关于安全、可靠和值得信赖的人工智能开发和使用的行政令”,更是否认了拜登行政令尝试构建的一个全面的AI治理框架,包括关注AI在CBRN(化学、生物、放射和核能)、网络安全和关键基础设施等领域的风险,进行严格的安全评估,强制透明和问责制,促进公平和公民权利(DEI,多元、公平与包容),并设立了安全研究所等机构。而特朗普新的行政令目标是“增强美国在全球AI领域的统治地位”,明确指示联邦机构审查并废除阻碍创新的政策,并鼓励开发“不受意识形态偏见或精心策划的社会议程影响”的AI系统。为了追求AI发展速度和地缘政治优势,特朗普政府愿意接受更高程度的潜在AI风险。

其二,中国AI的快速发展。美国产业界曾经认为美国大幅领先,例如谷歌前CEO埃里克-施密特表示在AI领域美国将永恒领先中国两到三年,而在去年11月他观察到中国开源模型的崛起,认为中国可能会在一年之内赶上。而今年1月DeepSeek-R1发布让美国政商两届都认识到中国在基础模型领域已经从追赶转为并跑。多家美企表示如果坚持限制和管制,在其他国家留下的市场空间会迅速被中国开源模型及其衍生应用所占据,相比于模型能力,DeepSeek快速超越ChatGPT、应用下载量登顶所建立的生态优势让美企更为担心。在此背景下,美国AI政策从拜登时代强调识别和减轻AI风险,转向特朗普政府优先考虑加速创新、消除监管障碍、建设基础设施,并确保美国在全球AI竞赛中对中国的绝对优势。

其三,企业对AI技术体系的理解也影响了政策具体走向。产业侧都认识到AI技术栈的发展是以模型能力为中心:更好的模型能力能够推动更多的应用,反过来能够提高模型和基于模型的应用体系的依存度,模型和应用的协同实现更强的网络效应;而更好的模型也能实现更好的电力-算力-智力转化,提高基础设施的规模效应,以及模型对于芯片、网络设备等关键器件的软硬协同创新。对此,需要持续推动芯片、计算集群以及电网等基础设施的高效建设,为保障模型能力持续领先,并且加强美国的AI技术体系输出,通过全球范围的用户认同和技术依赖创造商业价值,并把美国的先发优势转化为网络效应,必须修正拜登时期的技术管制策略。

二、美国AI政策调整的三大方向

在科技竞争和全球化政策方面,以废止扩散规则为标志,美国将从限制扩散走向促进扩散和赢得扩散,以更多维度的商业合作替代单方面的出口管控限制,通过技术和应用的全球扩散获取更大的竞争优势。一方面,重视技术扩散的经济价值,以模型能力为中心建立全球竞争优势,并向应用、算力等技术栈上下游延伸,满足全球对AI基础设施、技术和应用的需求,形成网络效应。另一方面,充分考虑出口管制对全球合作和国际信任的负面影响,算好管制的成本账、摒弃非必要的管制措施,赢得商业竞争的方式扩展合作生态,也在考虑制定和推进国际标准,带动全球对美国AI技术体系的信任和依赖,以此形成全球领导力。

在AI国内发展方面,政策集中于AI要素供给“破瓶颈”、行政审批“降门槛”、政府应用“做表率”。一是取消绿电限制,美国环境保护局(EPA)5月24日表示,正在起草一项取消美国燃煤和燃气发电厂所有温室气体排放限制的文件,为企业投资电厂建设扫清障碍。二是收口版权争议,包括扩展版权法上的合理使用规则,消除版权侵权带来的禁令风险、避免版权数据“断供”,同时推动版权人组织、协会和AI企业的市场化合作,提高版权类语料的可及性。三是加速行政审批,目前美国政府对AI基础设施建设的审批流程繁琐、进度缓慢,平均审批时间长达18-24个月,对此美国OMB将“负责任采购”替换为“高效采购”,通过优化应用管控模式和行政流程提高审批效率。四是加强政府内AI使用、做好表率,包括将政府AI使用的“风险管理”要求替换为“公众信任”,缩小政府AI用例的高风险范围、设置更灵活化的风险管理流程豁免机制。

最重要的,是在AI安全监管方面,政策从风险前置、预防性管控走向安全跟跑发展、监管服务创新,形成“轻触式(light touch)监管”。一是回调AI风险、弱化管控。持续减少对AI在CBRN、武器化使用中的风险、以及不可控风险等“假想性风险”的描述,对模型本身的风险聚焦在deepfake和儿童保护,而AI的行业应用未发现额外风险,通过现有的行业规则和企业层面的AI治理可以有效管控。二是清除各州的“碎片化”监管立法。在联邦尚未出台综合性人工智能立法的前提下,近两年美国各州已积极采取行动,在透明度披露、高风险AI系统安全保障、AI影响评估及报告等基础义务,以及在选举诚信、数字肖像、医疗就业自动化决策等关键场景专项监管上,开展了步调不一致、颗粒度各异的立法探索,以加州、科罗拉多州为代表采取了强监管模式,其他各州则各有侧重,对此企业遵守各州不同的监管制度将非常困难。通过在“美丽大法案”(One Big Beautiful Bill Act)中打包AI监管联邦优先权(federal preemption)条款,禁止各州在十年内立法监管人工智能,不得出台任何 “限制、约束或以其他方式监管AI的法律或法规”,以建立统一的联邦标准水位并消除对技术发展的监管阻碍。三是推动安全合作,满足企业诉求。例如NIST需要将更多地采纳(Adopt)产业侧的成熟经验和共识方案,不是单方面地制定(Make)标准,而是采纳产业事实标准,并向全球推广(Promote)。

三、我国的应对思考

在全球化方面,我国AI出海将直面更为激烈的美企竞争和地缘政治调整,对此仍需保持定力,坚持静水深流、渗透式的扩散。在要素投入和应用拓展过程中采取多元化市场策略,更多帮助AI出海扫除实际障碍,包括澄清数据跨境中的理解误区,输出中国的AI安全概念和治理实效,通过双边、小多边机制快速打开国际合作缺口等。

在国内发展方面,供给侧重心不仅是前沿模型的演进,还需要关注从电力到算力,从算力到智力的转化效率,最大程度降低每token的成本:一是加强模型到芯片/网络设备的协同优化,实现调度机制、系统架构到关键器件的协同优化,二是重归公共云逻辑,改变训练算力散布建设,推广DeepSeek“训推一体”集群的优秀经验,提高算力集群的整体调度效率,实现算力资源最大化的效能,三是优化公共基础设施供给,降低在Token总体成本中占比最高的电力和带宽成本,还要优化基础设施布局,平衡绿电要求、降低网络延迟。

在安全监管方面,我国没有碎片化监管或严格统一立法的困境,通过事前和事中事后两套办法+标准很好地管控了模型风险,AI发展所需的社会秩序基本就绪。在此基础上需要推动进阶版的AI安全概念,寻求市场秩序和社会秩序的有效平衡,通过政-企-社会的共同努力让单向的AI治理走向合作的AI安全,同时也向全球讲好我国的AI安全故事,让更多国际用户从理解到信任并走向选择。

声明:本文来自阿里研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。