导语2026年1月26日,美国战略与国际研究中心发布《迷失于定义:代理式人工智能定义混乱如何削弱美国治理框架》(Lost in Definition: How Confusion over Agentic AI Risks Undermining U.S. Governance Frameworks)研究报告,聚焦代理式人工智能(Agentic AI)定义模糊的政策与行业现状,探析该问题对美国治理框架,尤其是在国家安全领域的多重冲击。报告指出,代理式人工智能作为全球政策与科技领域的高频概念,却缺乏统一清晰的界定标准,其泛化使用不仅让美国在技术采购、测试评估中出现诸多漏洞,更在涉及国家安全的高风险决策场景埋下重大隐患。

一、代理式人工智能定义模糊的现实表征与核心风险

具备规划、行动能力且能在有限人类监督下完成多步骤任务的代理式人工智能,已成为人工智能发展的核心方向。相关调查显示,全球116个国家的各类组织中,35%已开始部署代理式人工智能系统,各国政府、军方将其应用于规划、后勤、情报分析等领域,私营企业也对该技术展开大规模投资。

与技术快速落地形成鲜明对比的是,代理式人工智能始终缺乏广泛认可的统一定义,这一术语被泛化用于描述从基础聊天助手、规则化自动化脚本,到能自主发起行动、跨系统协同的复杂自主决策系统等各类人工智能工具。在国家安全领域,这种模糊性带来的隐患被进一步放大,其核心风险并非系统的智能不足,而是缺乏基于现实情境的判断能力。这类系统能精准执行预设任务,却无法感知外部环境的突发变化,更无法判断该变化是否会让任务执行产生灾难性后果。若美国将同一概念同时用于普通聊天机器人与军事作战自主集群,极易导致在部署系统时,出现系统尚未理解任务背景与潜在风险就自主启动行动的严重问题。

同时,定义模糊让美国政府既无法建立标准化的测试评估体系,也难以在采购中明确技术需求,更无法设计匹配实际应用风险的治理框架。在军事等关键领域,模糊的定义还导致权责划分失去依据,若无法明确机器的任务边界与失误后的责任归属,会形成权责真空,让人机协同决策陷入无序状态。报告强调,为人工智能工作流建立清晰的情境框架,明确机器的任务边界与责任主体,是解决代理式人工智能治理问题的核心前提。

二、行业层面的定义分歧与核心特征解构

当前代理式人工智能的定义话语权主要掌握在行业手中,各大科技企业、咨询机构基于自身技术布局与商业需求,对这一概念的界定存在显著分歧,成为定义模糊化的核心诱因。全球头部企业对代理式人工智能的核心特征、功能边界理解差异明显,即便对同一特征,也存在内涵与外延的不同解读,难以形成行业共识。

头部企业的定义各有侧重:OpenAI将其界定为能在有限人工监督下长期采取行动、推进特定目标的系统,并提出“智能体性”概念;Anthropic将其分为广义与狭义,狭义专指以大语言模型为核心、能自主决定工具调用的系统;IBM与AWS更强调系统的自主任务执行与环境交互能力;谷歌云突出其推理、规划与记忆能力;麦肯锡、德勤等咨询机构则从应用视角,将其定义为替代人类完成复杂任务的人机交互工具或拓展生成式人工智能应用的自主组件。

报告从系统自主性、大语言模型依赖、学习/反馈能力等七大核心特征,梳理分析了头部企业的定义,结果显示,除“系统自主性”为所有企业认可的核心特征外,其余六大特征均存在显著概念差异。即便在“系统自主性”上,行业内部仍有分歧:IBM、AWS等将自主性划分层级,并将单纯的聊天机器人排除在代理式人工智能范畴外;麦肯锡等则认为大语言模型聊天机器人是代理式人工智能的初级形态。同时,代理式人工智能与生成式人工智能之间并无清晰的二元划分边界,这进一步加剧了定义的模糊性,既为企业商业营销提供了模糊空间,也让政府的政策制定与监管失去统一参考依据。

三、人工智能能动性的哲学溯源与三大分析视角

代理式人工智能的核心争议,本质是对“人工智能能动性”的理解分歧,哲学领域数十年的研究为理解人工智能能动性提供了三大核心分析框架,不同视角对人工智能能动性的来源、核心特征界定不同,也直接决定了治理导向、风险定位与工具选择的不同,三者各有适用场景,其治理价值在国家安全领域差异显著。

(一)内在主义视角:将能动性视为技术系统的固有特征

内在主义视角将人工智能能动性视为孤立技术系统的固有属性,认为系统行为与决策完全由内部技术架构、数据训练与算法模型决定,关注核心始终是技术系统本身。基于这一视角的治理框架,将风险核心定位在技术模型,治理方向是通过技术手段优化模型性能,如建立性能基准、开展鲁棒性测试等。在军事应用中,该视角下的评估仅关注系统技术指标是否达标,忽略了系统融入组织后对决策流程的影响,难以应对人机协同的复杂治理需求。

(二)具身/现象学视角:将能动性视为系统与环境的动态互动结果

具身/现象学视角认为,人工智能能动性源于系统与外部环境的动态交互,强调系统在具体情境中通过感知与行动闭环形成的实际能力,系统行为由其与环境的互动关系塑造。基于这一视角的治理框架,将风险核心定位在系统与物理环境的互动过程,治理方向是设定安全运行边界、开展渐进式实地测试等。在军事领域,对自主水下航行器的测试治理是典型应用,评估核心是系统在复杂环境中规避风险的物理能力。这一视角虽弥补了内在主义忽视环境影响的缺陷,但仍将治理焦点局限于系统本身,未能考虑其对人类决策、权责分配的深层影响。

(三)关系主义视角:将能动性视为技术、人与机构的互动产物

关系主义视角认为,人工智能能动性源于技术、人、机构三者的关系网络,是系统嵌入制度规范、组织工作流与决策体系后的综合结果。分析人工智能能动性的核心问题,并非“系统是否具备能动性”,而是“系统嵌入组织后如何重塑决策流程、权力委托与权责分配”。基于这一视角的治理框架,将风险核心定位在技术、人与机构构成的社会技术系统,治理方向是完善制度规范、采购激励、数据管理等,构建分布式权责体系。

报告强调,关系主义视角是美国国家安全领域代理式人工智能治理最具适配性的分析框架。国防领域的代理式人工智能始终嵌入军事指挥结构、规划流程中,其能动性由制度约束、技术系统、人类操作者共同塑造,只有从关系主义视角出发,才能全面识别潜在风险,设计匹配实际应用场景的治理体系。

四、定义模糊引发的美国代理式人工智能治理三大核心困境

代理式人工智能定义的模糊性,已转化为美国治理体系中的实际政策困境,在国防等关键领域,定义的缺失让采购、评估、治理环节均出现严重失配,形成三大相互关联的治理难题,而关系主义视角为解决这些难题提供了核心思路。

(一)测试与评估体系失准,重技术指标轻组织影响

行业定义的泛化与分歧,让美国代理式人工智能的测试评估体系失去统一标准。部分企业为商业利益,将基础自动化工具包装为“变革性代理式人工智能”,或把高自主性系统伪装为简单辅助工具,让评估工作陷入被动。当前美国的评估仍以模型层面的技术指标为核心,过度关注算法性能与任务完成能力,严重忽视系统融入组织后对决策流程、权责分配的深层影响,评估结果无法反映系统真实风险,让测试评估失去风险防控的核心价值。

(二)采购体系存在漏洞,重形式合规轻实际能力

美国国防采购实践缺乏支撑代理式人工智能采购的概念基础,为紧跟技术趋势,采购文件中频繁出现“智能体能力”的需求表述,却未明确其操作化定义、功能边界与应用场景。模糊的采购需求让供应商拥有极大操作空间,仅在形式上满足要求即可交付,实际交付的系统在功能、自主性、风险等级上差异显著,极易出现采购与需求的严重错配。而采购人员因缺乏关系主义分析框架,只能将焦点放在技术特征“勾选”而非系统的实际价值与潜在风险上,让采购工作失去科学性与针对性。

(三)治理框架与实际风险错配,重技术管控轻系统治理

缺乏清晰统一的定义与概念框架,让美国代理式人工智能的治理框架难以匹配技术应用的实际风险。由于无法明确其与传统决策支持工具、自主平台的边界,评估团队开展安全与法律审查时,无法确定适用的标准与依据,治理工作陷入无序。当前美国的治理框架仍以技术管控为核心,过度关注具体任务的技术基准,忽略代理式人工智能对组织工作流、权力委托与权责分配的重塑作用。在国防领域,这一治理方式极易导致决策流程简化、责任链模糊、军官独立判断能力退化等问题,形成“技术管控严密,系统风险失控”的困境。

报告指出,三大治理困境的核心症结,在于治理体系始终围绕“技术系统本身”展开,未关注代理式人工智能的组织属性。关系主义视角则提供了关键思路,即将治理问题从“系统能做什么”转向“系统如何重塑组织决策,以及在何种约束下进行权力委托”,让治理框架贴合实际应用场景。

(本文内容系“启元洞见”公众号原创编译,转载时请务必标明来源及作者)

参考来源:美国战略与国际研究中心

参考题目:Lost in Definition: How Confusion over Agentic AI Risks Undermining U.S. Governance Frameworks

参考链接:

https://www.csis.org/analysis/lost-definition-how-confusion-over-agentic-ai-risks-governance

免责声明:文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源于网络,如有侵权请联系删除。

编辑 | QZY

审校 | Zoie

声明:本文来自启元洞见,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。