编者按
2026年1月22日,新加坡在瑞士达沃斯世界经济论坛期间,正式发布《Model AI Governance Framework for Agentic AI》(《智能体人工智能治理示范框架》)。这是目前全球范围内首个由政府部门明确以“Agentic AI(智能体人工智能)”为治理对象的政策框架。该文件由新加坡资讯通信媒体发展局(IMDA)牵头制定,并由新加坡数码发展兼新闻部长 Josephine Teo 对外发布,其目的并非对具体技术路径进行规制,而是为正在出现的一类新型人工智能系统预设治理边界。本文将对此事件进行梳理。1
一、什么是“智能体人工智能”?
在这份框架中,新加坡政府反复使用“Agentic AI”这一概念,用以指代具备一定自主规划与执行能力的人工智能系统。与当前公众更为熟悉的生成式AI不同,智能体AI的核心特征并不体现在内容生成质量上,而体现在其能够在较少人工干预的情况下,自主分解任务、调用外部工具并执行连续操作。
从技术结构上看,智能体AI通常并非单一模型,而是由语言模型、任务规划模块、工具调用接口以及外部系统权限共同构成。这意味着,它的输出不再止于文本或建议,而可能直接表现为数据库更新、交易执行、流程推进等具体行为。2
正是这种可执行性,使得智能体AI开始真正嵌入组织运作和社会运行之中。在企业场景中,这类系统已被用于自动处理客户请求、协调内部流程,甚至在一定条件下执行具有现实后果的操作。这一变化,也构成了当前AI治理语境中的一个关键转折点。
二、新加坡《智能体 AI 治理示范框架》的核心内容
1
核心治理原则的转向:
从“人机回圈”到“有意义的监督”
在《Model AI Governance Framework for Agentic AI》中,新加坡并未简单沿用既有人工智能治理中常见的“human-in-the-loop”表述,而是明确提出,应当警惕将形式上的人工介入误认为有效治理。文件指出,在智能体AI场景下,单纯保留人工审批环节,并不足以防范风险,真正的关键在于监督是否“有意义”。这意味着,人类不仅在流程上参与,更应在实质上理解智能体的目标、意图和潜在后果,从而对关键决策承担责任。
在这一原则下,框架反复强调权责必须清晰锚定在人类主体之上。尽管智能体AI具备一定自主性,但其行为目标、运行边界以及风险容忍度,均应由组织内部的具体责任人设定和把关。文件要求部署方明确区分不同角色的责任分工,包括谁负责为智能体设定目标,谁负责安全与合规审查,谁负责日常运行与维护,从制度层面避免“出了问题却无人负责”的治理真空。
2
防止“自动化偏见”
针对智能体AI场景中尤为突出的“自动化偏见”问题,新加坡在框架中提出了相对具体的人机交互要求。文件指出,当系统决策过程过于复杂或不透明时,人工审批往往会流于形式,审批人容易基于对系统的信任而机械放行,从而削弱人类监督的实际效果。
因此,框架明确要求,面向人工审批或干预的请求信息必须易于理解。这并不意味着简单提供原始日志或技术细节,而是需要以审批者能够理解的方式,清楚呈现智能体打算执行的行为、行为依据以及可能产生的后果。其核心目标并非提高审批效率,而是确保人类在关键节点仍然具备实质判断能力,而非被动为系统决策背书。
3
风险预防的前移
在风险治理路径上,新加坡选择将防线前移至系统设计阶段。框架明确提出,应当通过“最小权限原则”为智能体设定清晰的行动边界。智能体只应被赋予完成其功能所必需的权限,而不应因便利或效率考虑而获得不必要的系统访问权。例如,一个用于日程管理的智能体,不应被授权访问财务系统或敏感业务数据库。
与此同时,文件将“行动可逆性”作为风险评估的重要维度。框架要求部署方在评估智能体使用场景时,区分低风险、可逆操作与高风险、不可逆操作。发送内部通知、整理信息等行为风险较低,而对外转账、删除数据或触发关键业务流程,则必须设置更严格的护栏和人工干预机制。这一判断逻辑表明,新加坡并非以技术能力为中心,而是以行为后果为核心来界定风险等级。
4
智能体的“可识别性”:
为责任追溯预留制度接口
在多智能体系统逐渐普及的背景下,框架还特别强调了智能体身份识别的重要性。文件提出,每一个智能体都应具备清晰的身份标识,以确保在系统出现问题时,能够追溯具体是哪个智能体、在何种授权条件下、执行了哪一项操作。
这一要求为责任追究和内部问责预留制度接口。在复杂系统中,如果无法区分不同智能体的行为来源,责任将不可避免地被稀释,从而削弱治理框架的实际效力。
5
技术控制与安全测试
在技术安全层面,框架明确指出,智能体AI面临的威胁形态与传统系统存在显著差异。由于智能体依赖提示词和工具调用机制,其更容易受到提示词注入等攻击方式的影响,被诱导执行越权操作。
针对这一风险,新加坡在框架中建议部署方开展专门面向智能体的红队测试,模拟智能体在复杂或对抗性环境中可能出现的异常行为,而不仅仅测试模型本身的准确性或稳健性。同时,文件建议对高风险任务采用沙箱运行机制,在隔离环境中观察智能体行为是否符合预期,再逐步放开权限。
6
渐进式部署与持续监控
在部署策略上,框架明确反对一次性、大规模上线高自治智能体。文件建议组织从内部辅助、低风险场景入手,逐步扩大智能体的应用范围,而非直接让其对接关键业务或外部用户。
与此同时,框架强调建立持续监控机制的重要性。部署方应设置明确的行为阈值和监控指标,一旦智能体出现异常行为、陷入循环或偏离既定目标,系统应能够自动报警并触发中断机制。这一安排体现出治理被视为一个持续过程,而非上线前的单次合规动作。
7
赋能最终用户:
治理不仅发生在系统内部
在框架的最后,新加坡将治理视角延伸至终端用户。文件明确提出,用户在与智能体交互时,应当清楚知晓其面对的是AI系统,并理解该系统的能力边界和使用限制。这种知情权安排,旨在防止用户对智能体能力产生不切实际的期待。
同时,框架强调对员工和用户的培训不应止于“如何使用AI”,而应包括如何审计、质疑和监督智能体的输出。只有当使用者具备基本的审计意识和判断能力,智能体AI才可能在组织内部实现相对安全的运行。
三、为什么既有AI治理框架开始失效
过去数年,各国围绕人工智能建立的治理规则,主要服务于生成式AI的风险控制,其核心问题意识集中在数据来源、算法偏见、内容真实性以及隐私保护等方面。这类治理逻辑本质上是围绕“输出内容”展开的合规审查。
然而,当人工智能系统开始被赋予“行动权限”时,上述治理路径便出现结构性断裂。风险不再仅来自模型是否生成错误信息,而是来自系统是否被授权做出不当决策、执行不当行为,以及这些行为是否具有可逆性和可追责性。
IMDA 在框架说明中明确指出,随着系统自主性提高,人类操作者可能产生“automation bias(自动化偏信)”,即由于系统在既往运行中表现稳定,而在关键节点降低甚至放弃人工审查。这一现象使得风险并非源于技术异常,而是源于治理结构本身的失衡。
在这一背景下,既有AI治理框架面临的并非不够严格的问题,而是治理对象已经发生变化:从“模型输出”转向“系统行为”,从“信息风险”转向“责任风险”。3
四、意义何在:智能体AI时代的治理信号
从更宏观的视角看,新加坡此次发布的框架,释放出一个清晰信号:人工智能治理正在进入以行为能力为中心的新阶段。在这一阶段,核心问题不再是模型是否聪明,而是系统是否被合理授权、是否可被有效监督、以及在出现后果时责任是否清晰。
这一治理思路的价值在于为全球AI治理提供了一种新的问题框架。在高度自治的技术系统面前,治理不再只是技术合规问题,而是制度如何重新安置人类责任的问题。
随着智能体AI逐步进入更多现实场景,这种以责任结构为核心的治理思路,或将成为下一阶段国际AI治理的重要参考。
【参考资料】
https://www.computerweekly.com/news/366637674/Singapore-debuts-worlds-first-governance-framework-for-agentic-AI
https://fintechnews.sg/125071/ai/singapore-agentic-ai-framework/
https://www.zaobao.com.sg/news/singapore/story20260122-8143450
获取《Model AI Governance Framework for Agentic AI》原文与中译本:https://h5.clewm.net/?url=qr61.cn/onsDMy/qWgKxZ9
本文所含内容仅供学术研究与市场分析交流使用。文中所述观点和分析均基于公开信息,不代表任何公司、机构或组织的官方立场。如需转载本文内容,请注明来源并保持文章完整性。未经授权,不得对文章内容进行任何形式的修改或删减。如有侵权,请联系删除。
网络法理论与实务前沿编辑 | 魏佳彤
排版|林佳萱
声明:本文来自网络法理论与实务前沿,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。