从“能用”走向“可控”,企业关注点正在发生变化
2026年,生成式AI与大模型驱动的智能体(Agentic AI)正在从技术探索走向规模化落地。越来越多的企业开始将智能体嵌入客服、研发、运维甚至业务决策流程之中,推动生产效率与业务模式的深度重构。在这一过程中,企业关注的焦点正在从“能否用起来”,逐步转向“能否用得安全、用得可靠”。近日,Harness engineering(驾驭工程)理念在业界持续升温,其强调通过设计合理的约束、权限边界和行为控制机制,为智能体设定“安全护栏”,确保其在复杂业务环境下的行为可控、合规、可解释,防止因幻觉、目标偏移或恶意利用带来的安全与合规风险。这一理念的流行,进一步凸显了智能体安全治理的紧迫性和必要性。
IDC最新调研显示,安全与道德问题已成为企业在部署AI智能体时最为关注的风险因素。同时,约64%的企业已经在生产环境中发现未授权的智能体或自动化脚本运行在关键业务流程中,企业亟需一套智能体安全治理体系来帮助其AI系统的稳定安全运行。
智能体带来的,不只是效率提升,还有攻击面的重构
与传统应用系统相比,智能体具备更强的自主性与动态性。它不仅可以基于自然语言输入生成决策,还能够调用外部工具、访问多种数据源,并在复杂环境中持续执行任务。这种能力使得智能体在提升效率的同时,也显著扩大了企业的攻击面。不可预测的用户输入、复杂的任务规划路径、多组件协同运行以及与外部系统的频繁交互,都可能成为潜在的攻击入口。
从实践来看,当前智能体面临的安全风险呈现出多维度特征。首先,智能体的开发与运行依赖大量第三方组件与工具链,软件供应链风险随之放大;其次,智能体自身仍存在幻觉、目标错位等问题,在特定场景下可能被恶意利用;此外,提示词注入(Prompt Injection)正在成为典型攻击手段,可诱导智能体执行非预期操作甚至泄露敏感信息。同时,随着智能体权限范围的扩大,访问控制的复杂性显著提升,而员工自行部署的“影子智能体”也在无形中增加了企业安全治理的难度。
智能体管理从“安全问题”走向“治理问题”
这些变化意味着,智能体安全正在演变为一个贯穿全生命周期的系统性治理议题。企业智能体安全和治理工作应和智能体应用部署工作同步开展,立足智能体全生命周期管理思想,开展智能体全流程检测与管控工作。用户的智能体安全体系建设需要从智能体思考、规划、编排、执行、反馈的全流程进行规划设计和执行,尽可能关注智能体全生命周期覆盖的所有核心组件,如大模型、知识库、RAG、Skill、思维链、MCP、API、第三方工具等,根据不同阶段所存在的安全风险对应检测和防护措施,搭配AI合规、AI道德、AI隐私等管控方向,构建符合企业需求的AI治理体系。
IDC在最新发布的《中国智能体威胁检测技术评估,2026》报告指出,当前市场上的智能体安全能力正在从单点检测向体系化治理演进,相关能力涵盖资产管理、漏洞检测、运行时监测、协议安全、数据安全以及安全态势管理等多个方向。该报告综合评估了国内主要厂商在相关领域的技术能力,报告入选厂商包括360数字安全集团、安恒信息、阿里巴巴、火山引擎、华为、君同未来、绿盟科技、领信数科、启明星辰集团、瑞数信息、新华三、亚信安全以及中国电信等。截止到2026年4月,中国智能体威胁检测这一市场仍处于技术快速迭代的状态,技术服务提供商的产品服务能力仍处于快速补齐功能的阶段,技术的精细化、行业化水平仍存在不足。

随着企业应用的深入,构建“可信的AI智能体体系”将成为用户最为迫切的需求之一,解决该需求的核心在于提升系统的可解释性、公平性、透明性、准确性与可追溯性。
可见性成为基础能力,AIBOM成为核心技术方向
在这一过程中,“可见性”正在成为智能体安全的基础能力。企业需要清晰掌握自身智能体资产的构成、依赖关系及其运行状态,才能有效识别风险并制定应对策略。
IDC预测,到2028年,50%的部署Agentic AI的企业将要求具备人工智能物料清单(AIBOM),以实现对模型、数据、API及第三方组件的结构化管理与持续风险监测。AIBOM的引入,将推动AI系统从“黑盒运行”走向“透明可控”。
协议与协作:智能体时代的新风险边界
与此同时,随着智能体之间协作能力的增强,通信协议层面的安全问题也日益凸显。以模型上下文协议(MCP)为代表的交互机制,使智能体能够在多系统之间传递信息并协同行动,但也带来了新的风险挑战。
如何实现对协议行为的持续监测、身份验证与权限控制,将成为保障智能体系统稳定运行的重要环节。MCP资产的发现与风险监测、MCP行为监测和异常检测以及MCP身份和权限的管控将成为重要的技术发展方向。
零信任进入智能体时代,身份与权限体系被重塑
在访问控制方面,传统基于边界的安全策略已难以适应智能体环境的复杂性。以“永不信任、持续验证”为核心的零信任理念,正在逐步延伸至智能体体系中。
无论是用户访问智能体,还是智能体调用外部服务、智能体之间的互相调用,都需要在动态环境中进行实时验证与策略调整,这对身份管理与权限管控、访问控制方向的技术提出了更高要求。从人的身份、智能体的身份入手、通过对资产、环境、行为等多方面的动态监控与检测,运用AI进行动态策略推荐与调整,将更高效地帮助用户处理复杂的身份、权限和访问控制问题。
AI检测防护技术加速整合,向一体化、平台化的AI安全治理方向演进
从体系化、工程化视角来看,统一化、一体化的AI安全治理平台将成为用户AI系统的综合治理平台。该系统将从AI系统的可见性出发,逐步向AI安全态势管理(AISPM),AI检测与响应(AIDR)方向迭代,最终融合道德、伦理等能力,构建一体化的AI安全治理体系。
2026年,平台化加速,大模型安全评估平台、大模型应用防火墙(大模型安全护栏)、智能体威胁检测、智能体身份与访问控制系统等主流生成式AI检测与防护产品将快速集成并平台化,以模块式架构,构建统一的AI安全管理平台,帮助用户一体化、平台化管理AI安全态势。
IDC观点:智能体安全将成为AI落地的关键分水岭
总体来看,智能体安全正在从一个技术细分领域,演变为企业AI战略中的核心组成部分。未来几年,随着智能体规模化应用的加速推进,安全与治理能力将直接影响企业释放AI价值的效率与边界。
如何在创新与风险之间取得平衡,将成为企业在AI时代必须持续面对的重要课题。
IDC中国网络安全领域研究经理王一汀表示,IDC预计,到2031年,中国企业将拥有3. 5亿个活跃的智能体。各类智能体在帮助企业提质增效的同时,也带来了巨大的安全暴露面,智能体安全已成为企业用好智能体的关键。其中,智能体威胁检测作为企业安全风险管控的核心,将帮助企业实现智能体资产梳理、漏洞检测、风险评估等关键工作,并协助形成威胁响应闭环。当前,中国智能体安全市场和相关技术仍处于起步阶段,产品形态、检测机制和标准体系仍需完善。随着企业智能体应用规模的持续扩张,企业对智能体安全检测与防护的需求将加速释放,市场有望迎来快速发展期。
声明:本文来自IDC咨询,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。