七国集团 (G7) 于加拿大艾伯塔省举行的峰会上发布了《人工智能促进繁荣声明》,重点关注人工智能的好处和机遇。然而“安全”一词在该声明的出现次数为“零”,忽略了人工智能大部分可能发生的故障或被有害使用的可能性。
2025年《人工智能促进繁荣声明》标志着一个重大转变——从早期对人工智能风险的考量转向几乎完全关注其益处。这一转变象征着西方民主国家对人工智能政策的更广泛重新调整。推动这一跨大西洋转变的力量包括特朗普政府的影响力、地缘政治竞争、行业压力以及人工智能日益增长的成功记录。
国际对话中人工智能乐观情绪的兴起有助于在全球范围内传播人工智能的好处,但忽视或完全放弃通过多边合作应对人工智能风险则是愚蠢的。未来,功能更强大的人工智能模型可能会造成大量的国际犯罪,如利用人工智能进行网络攻击、监视公民或制造新型病原体;人工智能伴侣应用程序和人工智能媒体信息可能会在社会层面上扰乱人际关系;人工智能模型和机器人还可能会引发大规模失业并加速新大规模杀伤性武器的发明。
一、风险观念降级:G7与多边框架的政策转向
过去十年,七国集团的人工智能政策基调经历了一个完整的循环:早期的热情为日益增长的人工智能安全问题留下了空间,而如今这种担忧已经有所减弱,转而关注繁荣的信息传递。
“人工智能”一词首次出现在1982 年弗朗索瓦•密特朗的一次 G7 讲话中,在沉寂30多年后,2016 年一份联合声明承认促进人工智能和机器人等新兴技术研发的重要性。这些早期评估通常侧重于人工智能的好处,但并没有忽视风险。直至2024年,风险依然是焦点,但同时也关注人工智能的益处。
2025年领导人峰会上,各国领导人发表《人工智能促进繁荣声明》时,明显缺乏这种警示语气。七国集团领导人继续强调人工智能带来的机遇,但大幅缩减了此前对全球人工智能风险的关注。该文件对人工智能的主要担忧在于其对电网的影响以及“颠覆和被排除在当今技术革命之外的风险”。至于其他潜在危害,例如深度伪造欺诈和人工智能驱动的生物威胁,则鲜有提及。
七国集团对风险的忽视绝非偶然,而是全球其他人工智能对话轨迹所展现出的更大转变的代表。继注重安全的2023 年英国人工智能安全峰会和2024 年首尔人工智能峰会之后,2025 年巴黎召开的人工智能行动峰会改变了方向,重点关注人工智能释放的经济机遇。巴黎峰会结束时,英国对人工智能创新的投资高达 12 位数,美国和英国拒绝签署讨论人工智能伦理的。一位专家开玩笑地将其称为“巴黎人工智能反安全峰会”。
国际人工智能安全研究所(AISI)网络也见证了类似的趋势。巴黎峰会后,英国人工智能安全研究所(AISI)将其名称从“人工智能安全研究所”(AI Safety Institute)更改为“人工智能安全研究所”(AI Security Institute)。Safety到Security的转变不仅仅是品牌重塑,而是该组织从“技术隐患”到“国家安全威胁”的风险认知的转换。几个月后,美国也将其AISI更名为“人工智能标准与创新中心(CAISI)”,并将新的重点放在“防范外国政府对美国技术进行繁琐且不必要的监管”。
慕尼黑安全会议是另一个从人工智能安全转向其他议题的例子。2024 年,领先的人工智能公司签署了《人工智能选举协议》,承诺通过改进人工智能生成内容的检测工具、评估人工智能风险模型、向公众提供透明度等方式,自愿遏制人工智能对全球选举造成的风险。许多公司发布了进展更新,详细介绍了他们在这方面的工作,但这项自愿承诺已于 2024 年底到期,而 2025 年的会议也没有采取任何替代措施。现任外交关系委员会主席阐述了这一趋势,他写道:“人工智能仍然是慕尼黑会议的一个主要议题,但讨论的基调已经发生了变化...今年,会议的主题是人工智能带来的机遇,以及欧洲人对其监管方式可能使他们越来越落后的担忧。”
北约的政策近期也淡化了人工智能的风险。2024年,北约修订后的人工智能战略纳入了关于人工智能滥用风险的章节,其中指出“北约必须继续倡导负责任的使用行为,利用其号召力来影响国际规范和标准。”但在2025年峰会上,北约发布了一份计划摘要,强调需要“赢得技术采用竞赛”,并认为“一些采购和程序风险需要成为创新和快速采用的固有组成部分”。这种措辞表明,北约对新兴技术风险,包括人工智能风险的容忍度更高。
在美国人工智能立法的讨论中,安全问题也逐渐被淡化。2023和2024年,美国参议院和众议院都探讨了可能出台的人工智能立法。但在2025年,国会却考虑禁止大多数州的人工智能法律,却没有通过联邦法律来取代它们,这很能说明问题。
同样,在2025年上半年,欧盟委员会撤回了其人工智能责任指令,瑞典首相呼吁暂停推出《欧盟人工智能法案》。与此同时,英国继续推迟通过人工智能立法的努力,同时抽出时间发布《人工智能机遇行动计划》。
尽管针对人工智能风险缓解政策并未完全消失,然而这样的例子越来越成为例外,而不是常态。
二、四重引擎:安全让位于繁荣的推力
1、美国政权更迭
美国政府从拜登到特朗普的更迭,是自由民主国家人工智能政策转变的重要因素。美国在国际人工智能讨论中拥有重要影响力,这不仅是因为其经济和军事实力,也源于其在人工智能领域的领导地位。
2、行业利益裹挟
然而,特朗普政府并不能单独解释人们对人工智能安全性日益漠视的现象。以法国为例,早在特朗普当选之前,法国就开始筹划其人工智能行动峰会,并对欧洲的人工智能责任指令提出质疑。2023年末,法国与德国和意大利联手反对欧盟人工智能法案中的通用人工智能监管,其中包括一份联合文件,主张自愿自我监管,以便欧洲参与者能够“在全球人工智能竞赛中脱颖而出,传递我们的声音和价值观”。就在18个月前,正是法国提议扩大人工智能法案的范围,以监管通用模型。特朗普在2024年当选无法解释法国在总统第二任期之前突然转变政策。
这一时期的人工智能政策转变与 OpenAI 在 2022 年感恩节后不久发布的 ChatGPT 恰好吻合。到 5 月底,OpenAI 首席执行官在国会作证并警告人类灭绝。大致来说,世界在 2023 年初突然意识到人工智能的强大,而且很多人觉得其进步的速度令人恐惧。
与此同时,人工智能行业正在酝酿一种新的情绪:害怕错失良机。在ChatGPT发布后的几个月里,谷歌管理层宣布进入“红色警报”,微软向OpenAI投资了100亿美元, Meta和Anthropic发布了重要的人工智能模型,埃隆•马斯克也开始筹划自己的人工智能公司。在大西洋彼岸,法国人工智能初创公司Mistral于2023年6月融资1.05亿欧元。
如果与 Mistral 联系起来看,法国放弃通用人工智能监管就更容易理解了。自 2017 年当选以来,法国总统埃马纽埃尔•马克龙多年来一直致力于支持初创企业和科技创新。此外,Mistral的联合创始人之一塞德里克•奥曾担任法国数字事务国务卿,主张在2023年实施更宽松的欧盟规则,并警告说,如果合规成本过高,欧盟《人工智能法案》“可能会扼杀 Mistral”。各种形式的行业游说,包括来自比 Mistral 更富有的科技公司的游说,可能在将全球人工智能政策讨论从风险转移方面发挥了作用。
越来越多的证据表明人工智能具有盈利能力和切实的效益,这为游说活动带来了助力。OpenAI声称其年度收入已超过 100 亿美元,而Anthropic 的月收入则超过 3.33 亿美元。针对人工智能在劳动力中的应用的研究表明,这项技术正日益普及,并能显著提高生产力。或许正是出于这些原因,益普索(Ipsos) 的民意调查数据显示,在 2022 年至 2024 年期间,一些国家对单个人工智能产品净效益的乐观情绪有所上升,例如法国(+10%)、德国(+10%)和美国(+4%)。
3、地缘政治与军备竞赛
除了促进经济发展,各国政府还注意到人工智能在增强军事实力方面的潜力。除了空域,人工智能在陆地、海军、太空和网络作战等其他领域也展现出良好的前景。Anthropic、谷歌、OpenAI 和 xAI 最近获得了美国国防合同,每家公司可获得高达 2 亿美元的合同,中国、希腊、丹麦等国也在开展其他军事人工智能项目。
4、技术成功叙事
人工智能带来经济和军事优势的前景引发了更激烈的地缘政治竞争,并推动了“主权人工智能”的实现。到目前为止,中国、美国、法国、欧盟已努力为2025年未来几年的人工智能相关项目筹集数千亿美元。然而,目前最好的通用人工智能模型大多来自美国和中国的公司。这种情况在未来可能仍将如此,因为根据 Epoch AI 的数据,美国目前拥有全球约 75% 的人工智能超级计算机性能,而中国以 15% 的份额位居第二。因此,一些自由民主国家可能不愿意优先考虑人工智能安全,担心预防性政策会让他们进一步落后于美国和中国。
三、治理真空:当世界失去应对AI风险的屏障
淡化安全问题当然有好处。自由民主国家转向人工智能机遇——不受安全担忧的阻碍——可能有助于促进该技术的快速发展,从而改变医疗保健、汽车安全、科学发现、可及性和农业等领域
减缓监管的另一个潜在好处是,未来的监管可以根据更先进的技术进行量身定制。人工智能将如何发展,以及当前所有政策提案是否能随着系统的发展而持续有效,目前仍不确定。例如,强制对超过计算阈值的人工智能模型进行一轮测试,这预设了训练和部署之间的明确分离,但如果未来的人工智能系统能够在实际运行中持续改进,这种分离可能会失效。采取谨慎的国际治理方式可以降低颁布不成熟监管法规的风险,并留出时间来设计更稳健、更具前瞻性的框架。
然而,如果未来人工智能对国际安全的威胁成为现实,各国政府可能会发现自己缺乏有效应对所需的机构、基础设施、共识和时间。与国际原子能机构(IAEA)在核技术方面或欧洲核子研究中心(CERN)在粒子物理学方面不同,人工智能缺乏成熟的国际机构。此外,目前世界缺乏可靠的验证技术和协议来确保主要人工智能强国履行应有的承诺。随着人工智能日益强大,达成共识可能会变得更加困难。如果主要国家认为某些缓解措施不必要并拒绝加入协议,那么这些协议可能会失去很大一部分价值。
或许最具挑战性的是,在不同文化和利益的国家之间制定有效的多边政策可能需要历经多年时间的努力,而如果人工智能快速发展,时间本身会变得极其奢侈。因为新的全球人工智能风险已经出现:人工智能带来的生物威胁越来越近,而恶意行为者试图利用人工智能生成的媒体欺骗政府官员,也已经成为现实的案例。
这些事态发展表明,准备的时间越来越少。当全世界都在思考如何在谨慎与乐观之间取得平衡时,放弃安全或许是人工智能政策迄今为止最重大的赌博。
作者:Jakub Kraus
Tarbell 研究员,撰写有关人工智能的文章。他曾在人工智能政策中心工作,撰写《人工智能政策周刊》时事通讯。
编译:《互联网法律评论》
【免责声明】本文撰写所需的信息采集自合法公开的渠道,我们无法对信息的真实性、完整性和准确性提供任何形式的保证。本文仅为分享、交流信息之目的,不构成对任何企业、组织和个人的决策依据。
声明:本文来自Internet Law Review,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。