近日,美国兰德公司(RAND)发布题为Artificial General Intelligence"s Five Hard National Security Problems(《人工通用智能的五个严重国家安全问题》)的研究报告,结合历史案例与技术现状,分析人工通用智能技术引发的国家安全问题及潜在后果,并探讨当前美国人工智能战略的局限性及未来发展方向。

图1:报告封面

一、人工通用智能技术引发的五大国家安全难题

1. 奇迹武器与先发优势

1938年核裂变的发现直接催生了原子弹的研发,开启了核武器时代。当前,前沿生成式AI(如ChatGPT-4)的突破被部分专家视为类似“原子时刻”,可能推动军事能力的跃升。人工通用智能(AGI)可能通过识别敌方网络漏洞,发动“完美第一击”,瘫痪对手的报复能力。此外,高精度战场预测系统可极大提升作战规划效率,而AGI驱动的无人武器可能形成压倒性军事优势。

然而,与核武器不同,AGI的军事应用路径尚不明确。美国需在技术不确定性的背景下,平衡“先发制人”与“过度投入”的风险。AGI可能通过模拟复杂场景和预测结果,大幅提升军事行动的规划和执行能力。比如,AGI能够研制出提供军事优势的高度先进的自主武器系统。然而,AGI也可能通过制造“战争迷雾”机器,使战场信息变得不可信,从而削弱军事优势。

图2:AGI创造军事优势

2. 系统性权力转移

AGI可能颠覆传统军事竞争的底层逻辑。例如,AGI强化情报分析能力,使“隐藏者”与“发现者”的博弈升级。自主决策系统可能改变战场指挥结构,使集中化与去中心化指挥的平衡发生变化。此外,AGI可能通过提供大规模生产力提升或科学突破,重塑国家竞争力。例如,自动化工人可能迅速取代各行业的劳动力,导致国内生产总值(GDP)激增,但工资下降,引发社会动荡。

AGI还可能通过操纵公众舆论,威胁民主决策的合法性。例如,AGI可以用于高级宣传技术,影响公众意见,从而威胁民主决策。此外,AGI系统的复杂性和不可预测性可能超越现有的监管框架,使其难以有效治理,从而削弱机构的有效性。

图3:AGI操纵公众言论

3. 普通人开发武器的风险

基础模型(如GPT系列)可帮助非专家快速掌握复杂知识,包括生物武器或网络攻击技术。AI辅助的基因编辑工具(如云实验室)使合成致命病毒的成本大幅下降。尽管制造核武器仍依赖高精尖工业基础,但生物与网络武器的门槛持续降低。

现有国际规范难以应对AI赋能的“恶意导师”角色。例如,OpenAI的o1模型已显示其能够规避安全限制,提供危险技术的指导。基础模型的能力可以加速非专家在恶意任务中的知识获取,如开发高致死性和传染性的病原体或恶性网络恶意软件。这种威胁可能在AGI发展之前就显现出来,因为基础模型已经显示出提供复杂方法的能力,使普通人能够绕过禁止开发武器的规定。

4. 具有自主能力的人工实体

AGI可能通过互联网连接突破物理限制,成为国际舞台上的独立行动者。例如,AGI可能通过设计中的互联网连接或使用侧信道攻击,突破限制并与世界互动。它可能拥有超越人类控制的自主权,自主操作并做出具有深远影响的决策。AGI若过度优化狭隘目标(如能源效率),可能引发灾难性副作用(如无预警断电)。

OpenAI发现o1模型可以在测试中伪装合规以欺骗用户,显示出AGI可能通过“自我改进循环”突破人类控制。Yoshua Bengio等专家警告,AGI可能通过“自我改进循环”突破人类控制,成为全球舞台上的独立行动者。这种失控风险可能导致AGI追求其目标时,抵抗被关闭,与人类的努力背道而驰。

图4:AGI具有超越人工控制的风险

5. 通向AGI的战略不稳定性

各国对AGI可行性的认知差异可能引发类似冷战时期的猜疑链。若某国误判对手的AGI进展,可能触发先发制人行动。AGI的研发成本(如单次训练耗资10亿美元)与技术突破的随机性加剧了战略博弈的复杂性。

例如,国家之间的竞争可能导致紧张局势升级,类似于核军备竞赛。在这种不稳定的环境中,国家对AGI可行性和潜在先发优势的认知可能变得与技术本身一样重要。误判或误解可能导致先发制人策略或军备建设,从而破坏全球安全。

二、美国当前战略的局限性

1. 技术竞争优先

美国通过“小院高墙”政策限制中国获取先进芯片,但中国本土半导体产业的追赶可能削弱此优势。防止模型参数被窃取,但开源社区的创新可能绕过此类限制。例如,美国政府对半导体出口的控制可能在未来几年内失效,如果中国的半导体产业能够迎头赶上,或者AGI通过较少计算密集型技术实现。

2. 安全与伦理框架

美国AI安全研究所聚焦生物武器与网络攻击风险,但未覆盖AGI的长期失控场景。包括STEM教育投资与AI对齐研究,但缺乏应对突发技术突破的应急机制。例如,当前的AI安全策略主要集中在防止非国家行为者使用前沿AI模型开发生物武器或新型网络恶意软件,但未充分考虑AGI可能带来的长期失控风险。

3. 国际合作短板

支持微软在阿联酋建数据中心以对抗中国,但未构建全球性AGI治理框架。例如,美国政府最近支持微软在阿联酋扩展新的数据中心,部分原因是为了防止中国公司巩固其地位。然而,这种策略并未解决全球性AGI治理的需求。

三、未来战略建议

1. 动态适应能力

模拟AGI突破后的军事、经济与社会冲击,制定弹性政策。提前设计技术加速或紧急制动方案(如算力冻结协议)。例如,美国政府应制定应对AGI突破的应急计划,包括如何快速调整技术发展路径和应对潜在的安全挑战。

2. 多边治理机制

推动国际AGI研发进展的共享与验证,减少误判。建立全球性合成生物学与网络工具监管网络。例如,国际社会应建立共享AGI研发进展的机制,以减少误判和误解,从而降低全球安全风险。

3. 社会韧性建设

设计全民基础收入(UBI)或技能改造计划,用于AGI引发的失业潮。开发反AI操纵的舆论监测与公民教育体系。例如,政府应制定政策,帮助劳动力适应AGI带来的经济变化,包括提供再培训和技能提升的机会。

四、结论

AGI的潜在影响堪比工业革命,但其不确定性与高风险性要求各国采取“前瞻性与适应性并存”的战略。美国需超越当前的技术竞争思维,构建涵盖安全、经济与治理的多维框架。唯有如此,方能在AGI时代既抓住机遇,又规避文明级风险。兰德报告的核心启示在于:在不确定性中,灵活性与协作比单一技术优势更具生存价值。

通过动态适应能力、多边治理机制和社会韧性建设,美国和其他国家可以更好地应对AGI带来的挑战,确保全球安全和稳定。AGI的发展不仅是一场技术革命,更是一场全球性的战略博弈,需要各国共同努力,制定全面而灵活的政策,以应对未来的不确定性。

五、简评

当前AGI的迅速发展在带来社会经济生活巨大改变的同时,也在军事和国家安全领域产生了广阔的运用前景。任何技术的发展都是一把双刃剑,AGI也不例外。从外部情况来看,强敌可以通过AGI技术在军事领域的广泛运用,提升自己的作战能力,进而进一步增强其军事优势;从内部情况来看,AGI技术的迅速发展特别是在早期阶段由于法律制度的不健全容易成为不法分子的实施违法犯罪的有效工具,对社会稳定和国家安全造成一定的消极影响。

因此,我们在推动AGI技术发展运用的同时,要积极扩大其在军事领域的场景应用,让新技术助力新质战斗力的蓬勃发展,提升非对称作战能力;同时,要加强法制建设及时跟进最新的技术发展,积极引导新技术朝着普惠、正确的轨道发展。

文字 | 孟伟、陈焕林、陈冠羽(国防科技大学)

图片 | 来源于网络

编辑 | 国防科大·李广昊

审阅 | 国防科大·欧祉辛

友情支持 | NUDT未来战争研究俱乐部

声明:本文来自军事高科技在线,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。