今天和大家分享的是公号君研究美国AI行动计划的一点感想,也是研究报告中的一部分。
《美国人工智能行动计划》以“创新、基础设施、国际安全”三大支柱构筑美国的国家级 AI 战略。然而,透过“缺位”来解读同样重要:未被纳入或被明显淡化的议题往往更能暴露出一份政策的价值排序、治理哲学与潜在风险。本文对这份计划中的十个结构性缺失与一个风险分级框架的缺失进行系统梳理,并探讨其深层含义。
风险分级框架的显著缺失
《美国人工智能行动计划》并没有建立一个横贯全局、分层分级的 AI 安全风险框架。纵观全文,只能看到若干“点状”措施——它们面向具体场景或威胁,但未形成类似欧盟《AI 法案》那种“不可接受‑高‑中‑低”四级分类体系。主要表现如下:
计划中聚焦的“点状”风险 | 典型条目 | 体现出的局限 |
---|---|---|
国家安全风险 (计算能力外溢、CBRNE、网络战等) | 要求政府与模型开发者共同评估前沿模型的国家安全威胁 | 只锁定“国防‑出口管制‑基础设施”视角,未对一般商业或民用风险分层 |
言论自由 / 去意识形态化 | 指示NIST在AI风险框架中删除“错误信息、DEI、气候变化”等元素 | 将内容层面的失真/偏见风险视为“意识形态议题”,而非安全等级问题 |
合成媒体对司法程序的影响 | 针对深度伪造证据制定取证与鉴定指南 | 只聚焦法院证据链,未延伸到选举安全、社会动员等更广泛信息生态风险 |
模型可靠性与鲁棒性技术攻关 | 强调要“建立评测生态”与资助可解释性/对抗鲁棒性研究 | 侧重工具研发,而非先定义风险等级、再匹配相应治理措施 |
缺少风险分级意味着:
一是治理理念为“点对点补洞”而非“体系防火墙”。政策把注意力集中在对美国国家利益最敏感的若干领域,而不是为所有AI应用建立一套可迁移的风险等级与合规梯度。这昭示政府更倾向于用定制化、安全加固来替代统一、事前的风险分类监管。
二是“促进创新”优先级高于“全面风险规制”。一旦引入分级体系,就可能触发配套的审查、备案或许可要求。计划刻意回避这一点,反而强调削弱或删除既有风险治理元素(如错误信息、DEI),体现出对“监管负担”高度敏感。
三是长期与系统性风险被边缘化。计划中虽提“可解释性、对抗鲁棒性”研究,但对失控、系统性失真、劳动力结构冲击等跨场景风险缺乏分类与阈值设计。这意味着政府仍将安全风险视为“技术难题”而非“社会‑经济‑道德”综合议题。
四是国际协调难度的潜在提升。没有统一分级的美国框架将难以与欧盟、OECD、G7等已采用“风险分级+合规义务包”的模式对接,可能导致跨国企业在合规时面临双轨制。
行动计划采用的是“聚焦关键领域+专项技术治标”的思路——它在国家安全、合成媒体和言论自由这些美国政治高度敏感的场景投入大量措施,但没有建立体系化、可迁移的风险分类‑分级框架。这既反映出“创新优先、轻监管”的政策取向,也留下了对跨行业、长期和社会性风险的治理缺口。
十个结构性缺失
和国际层面已经出现的框架、行动计划、战略比较,美国的行动计划存在着十个结构性的缺失。用表格总结如下:
缺失议题 | 计划中体现的“反向信号” | 折射出的问题 |
---|---|---|
1.系统性的AI伦理与权利框架 | 计划明确要求把NIST AI风险框架中有关“错误信息、DEI(多样性、公平与包容)和气候变化”的内容删除;强调“避免社会工程”而非“促进公平、保护弱势群体”。 | 体现出以“去意识形态化”为名,淡化算法公平、非歧视与弱势群体保护的政策意图,将伦理议题视为“阻碍创新的监管”。 |
2.公民隐私与数据主权 | 数据章节重点放在“扩大对联邦数据的可访问性”“打破数据孤岛”;对《隐私法》《消费者数据权利》等并无呼应,且要求FTC削减对AI公司的执法约束。 | 显示政策重心放在数据流通与科研便利,而非个人信息保护;隐含风险是扩大企业对个人数据的掌控。 |
3.环境可持续性与“绿色AI”战略 | 文件多次提到“拒绝激进的气候教条”“Build, Baby, Build”,仅关注简化电力与数据中心审批;完全缺少对算力能耗、碳排放或绿色算法的量化目标。 | 反映出以快速扩张数据基础设施为先,不愿让气候监管束缚能源‑AI双重扩张。 |
4.多边与全球南方合作 | 国际章节主要围绕“将美国AI出口给盟友”“阻止中国影响”;几乎未提联合国/OECD 普惠倡议或向发展中国家输出能力建设。 | 透露出外交重心是地缘竞争与出口管制,而非全球公共产品;或导致全球南方疏离美国阵营。 |
5.长期/存在性风险治理(AGI对社会存续的威胁) | 计划聚焦“可解释性”“对抗鲁棒性”,但缺少对失控、滥用或超人级模型的宏观治理设计(如“暂停训练门槛”“模型登记”)。 | 说明政府认为当前最关键的是短期军事与经济可用性,而非远期“超级智能”风险;这与部分国际学术界对“AI对人类生存风险”讨论形成落差。 |
6.独立监管与问责机制 | 反复强调“减少监管”“撤销前任行政命令”;未提出成立独立AI监管机构、算法透明度报告或问责制度。 | 体现自由市场优先/政府“轻触式”定位;但缺乏外部制衡可能导致滥用、垄断或安全事故缺乏救济渠道。 |
7.竞争政策与反垄断 | 仅要求审查FTC对大型科技公司的“负担”,未提促进市场竞争或防止AI平台垄断的数据互操作要求。 | 反映出政策主旨在扶强做大以对外竞争,而不是在国内抑制超大型平台可能的市场失衡。 |
8.信息完整性与民主韧性 | 深度伪造章节只关注“法庭取证”,未见关于选举安全、平台内容审核透明度的系统方案。 | 显示政府更关心司法证据链,而对AI生成内容对民主流程(选举、公共辩论)影响关注不足。 |
9.公共参与与社会对话机制 | 文中几无“公众咨询”“多利益相关者治理”表述(仅在科研数据或标准处出现技术界—政府对话)。 | 表明制定过程更偏向政府‑产业协同,缺少面向公民社会的反馈渠道。 |
10.数字鸿沟与国内外包容性 | 虽强调劳动力再培训,但未提普及AI基础设施至边远、低收入地区;对全球数字鸿沟亦无行动点。 | 暗示资源分配优先级在“战略产业、大规模算力、军事安全”。 |
这些缺席说明了美国的行动计划存在以下特点:
一是价值排序突出国家竞争与经济‑军事实用性优先。政策聚焦提振制造、出口和国防能力,对“社会伦理、环境、公众福祉”投入相对有限,体现了典型的“硬实力‑产业政策”导向。
二是治理哲学强调去监管+去多边。大幅削减联邦与州监管、弱化FTC、排斥DEI/气候议题,说明美国将“过度治理”视为主要创新障碍,在国际层面更强调同盟阵营而非普世多边治理。
三是风险视角关注短期安全,多于长期安全。战略对网络安全、出口控制、防深度伪造等“可见威胁”列出具体措施,但对“AGI失控”等长期风险缺乏对应框架,揭示美国认为技术领先本身即安全。
四是利益分配偏向企业与高端劳动力优先。劳动力政策着重高技能、产业工人培训;缺乏对低技能岗位、弱势群体的安全网设计,忽略内部不平等的扩大。
五是注重技术霸权而不是提供全球公共产品。缺乏绿色AI、全球南方合作与数字包容议题,凸显美国有意忽略气候与可持续发展话语。
声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。