近日,兰德公司发布《未来中美AI安全与保障合作的应急框架》(Contingency Frameworks for Future U.S.-China Cooperation on AI Assurance and Security)报告。报告以务实的视角剖析中美AI竞争格局、现有国际机制的短板,并提出一套兼顾风险管控与战略弹性的合作路径。

中美AI主导地位与竞合基础
报告指出,中美关系是影响人工智能未来发展的最重要双边关系。两国汇聚了全球绝大多数AI研究人员,部署了近乎全部的高端算力,吸纳了全球大部分AI投资;两国企业推出的基础模型与主流AI系统深度渗透全球技术体系,形成世界对中美技术的广泛依赖。
这种双重主导地位,既让中美具备定义AI安全、可靠性与技术标准的能力,也使双方的政策选择直接影响全球AI发展方向。
不同于中国致力于加强与世界的联系、推动人工智能普惠全球的发展目标。美国特朗普政府的AI战略核心是通过单边管制与盟友协作,确立美国AI技术的全球主导地位,推动全球AI体系从芯片到应用全面采用美国技术栈,服务于美国的价值取向与战略利益。
在此背景下,技术管控、出口限制、标准输出成为常态,中美AI竞争呈现技术封锁、规则博弈、生态对抗的多重特征。但即便竞争如此激烈,中美AI领域并未完全脱钩,学术合作、商业技术往来、非官方对话依然存在,构成未来合作的潜在基础。
报告提出“保留战略选择权”的观点。在当前地缘对立、互信薄弱的环境中,全面深入的双边AI合作并不现实。但提前规划合作框架、建立应急沟通机制,能够避免两国在技术竞赛中走向完全对抗,降低误判与风险外溢。这种“竞争不脱钩、对立不破裂”的思路,构成报告对中美AI关系的基本判断。
多边共识与规则短板
目前,中美共同参与了多项AI领域的多边政治宣言与决议,构成全球AI治理的基本框架。但这些机制约束力不足、操作性不强,难以应对快速演进的技术风险。报告重点梳理了三份关键文件:布莱奇利宣言、美国主导的联合国AI安全与可持续发展决议草案、中国推动的联合国AI能力建设决议。
布莱奇利宣言聚焦前沿AI风险,旨在通过风险沟通增强公众信任;美国主导的决议强调以安全可靠的AI推动可持续发展,管控AI对人权与发展的风险;中国推动的决议侧重向发展中国家提供资金与技术支持,提升全球AI发展的均衡性。
三份文件均为非约束性政治宣示,共同确认AI发展应尊重人类尊严、推动可持续发展、维护国际和平安全,这是中美在AI治理层面的基本共识。
但报告直言,现有多边机制存在明显局限:既无强制约束条款,也无针对高速AI研发的限制措施。文件仅呼吁对话与风险防控,实施依靠各国自愿。这意味着现有国际框架只能解决理念认同问题,无法应对真实的技术安全挑战。原则性共识与实操性规则之间的缺口,使中美探索双边沟通协作变得尤为必要。
合作前提:立足现实的八大基本判断
为避免理想化设计,报告结合中美战略利益、政治现实与技术生态,提出八项基本判断作为合作框架的出发点,确保方案具备现实可行性。
其一,中美及各国均将AI视为实现经济利益的关键工具,技术发展服务于国家战略目标。
其二,全球普遍认为AI领先者将获得不对称收益,“AI竞赛”的竞争心态广泛存在。
其三,私营部门掌握AI技术主导权,政府难以对研发与部署实施全面管控。
其四,各国对AI风险多采取被动应对,主动政策更侧重收益最大化而非前置性风险管控。
其五,中美战略互信基础相对薄弱,美方将中国视为主要竞争对手,中方则认为美国对自身发展存在遏制意图。
其六,两国国内政治环境均不支持签订强约束性双边条约,合作需从非约束性原则与技术协作层面起步。
其七,中美AI供应链高度交织,全球产业链难以实现完全脱钩。
其八,两国治理逻辑存在差异:中国侧重务实发展,美国则更注重市场收益与行业定向监管。
这八项判断剥离了AI治理的理想主义色彩,回归大国博弈的真实逻辑。报告强调,脱离现实利益、政治约束与技术规律的合作设计均难以落地,只有承认竞争、管控风险、保留沟通,才能构建稳定可持续的互动框架。
实施路径:五大行动方向搭建合作框架
在现实约束下,报告提出五大递进式行动方向,从风险认知、叙事转变、管控抓手、窄域合作到能力平衡,逐步建立信任、降低风险、形成规则,构成可逐步推进的应急合作框架。
第一,形成AI风险国际共同认知。报告认为,唯有通过可验证的风险展示,才能推动实质管控。具体路径包括建立由多国联合运营的国际AI测试场,在安全环境下对AI系统开展压力测试、对抗测试与边界场景验证,以独立数据凝聚风险共识;在重大AI安全事件发生后,推动联合技术调查,以事故教训为基础建立全球最低安全标准,涵盖事故上报、安全评估、高危训练约束等内容。
第二,转变AI治理的政治叙事。当前中美双方均从经济等视角看待AI,竞争已成为主流叙事。报告建议构建以科技合作、共同发展为核心的新叙事,开展全球协同观测、系统测试与数据共享,建立AI影响监测网络;搭建包容性全球AI联盟,吸纳多方主体参与,推动技术普惠与安全扩散,淡化零和博弈思维。
第三,确立有效且可执行的治理抓手。现有方案多以芯片与半导体设备为管控重点,但这类要素流动性强、迭代速度快,难以实现稳定管控。报告提出,设立专业化监管机构:参照FDA模式建立AI安全与效能管理局,负责AI系统上市前的安全评估;参照FAA模式建立联邦AI管理局,负责AI运营许可、实时监管、事故上报与风险处置,实现精细化安全管理。
第四,在细分领域开展合作。鉴于全面合作的条件尚不具备,可从低敏感、高共识领域切入,以小范围合作积累互信。报告建议优先推进三类合作:核安全领域,承诺不将AI应用于核指挥控制、不授权AI发起核打击;生物安全领域,禁止AI用于高危病原体设计,建立联合防护与预警机制;签署中美AI关系基本原则文件,确立战略稳定、危机管控、避免误判的基本规则,明确不利用AI干扰关键基础设施、管控自主武器系统风险等底线。
第五,构建并维护能力平衡。全球AI能力分布不均是阻碍合作的重要因素。报告提出两条路径:一是推动“AI普惠”,由技术强国向发展中国家提供支持,建立全球基本能力基准,共享技术红利;二是维持合理的能力差异,由少数领先国家共同管控核心技术扩散,类似多边出口管制机制,在能力分配与战略稳定之间找到平衡。
保留选择权才是长期理性选择
人工智能已成为中美关系中战略分量最重的议题,两国的选择均围绕国家利益、国内政治与战略认知展开。短期来看,中美开展全面AI合作的条件尚不具备,但这并不意味着要放弃沟通与规划。
在全球AI技术快速迭代、大国竞争持续深化的背景下,兰德报告提供了新的视角:完全对抗会放大安全风险、破坏全球产业链,而盲目合作也不符合现实战略利益。在竞争中保留合作通道、在博弈中预留沟通选项,才是中美双方共同的长期理性选择。
对全球AI治理而言,中美“斗而不破、竞中求合”,不仅关乎两国安全,更关系到AI能否朝着安全、稳定、普惠的方向发展,从而避免技术竞赛滑向失控与危机。
参考来源|RAND,互联网公开资料
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。