今天和大家分享的是公号君对AI改变网络攻防的一点想法。
进入 2026 年,网络安全领域出现了两个彼此印证的信号。一方面,最前沿的人工智能漏洞发现与利用能力,正在被头部模型企业以防守优先的名义谨慎开放。Anthropic 通过 Project Glasswing,向关键软件维护者和关键基础设施伙伴提供 Claude Mythos Preview 的受限访问,用于发现和修复关键系统中的漏洞。据 Anthropic 披露,Mythos Preview 已识别出数千个零日漏洞,具备发现并利用主要操作系统和浏览器漏洞的能力,但仅被置于受控的研究预览中,不面向公众开放。OpenAI也通过 Trusted Access for Cyber 将 GPT‑5.5 和 GPT‑5.5‑Cyber 置于分级访问之下,仅向经过身份核验、承担授权安全工作的机构有限提供。在模型企业看来,谁能使用高能力网络模型、在什么场景下使用、以何种方式接受审计,本身已经构成网络安全治理的一部分。
另一方面,真实威胁活动中的人工智能滥用正在密集出现。Anthropic 在 2025 年 11 月披露,其发现并阻断了一起涉及 Claude Code 的网络间谍行动:攻击者对全球约三十家科技、金融、化工和政府机构发起入侵,攻击链条中 80% 至 90% 的工作由人工智能自主完成,人类仅在少数关键决策点上介入。Anthropic 认为,这是首例被记录的大规模、几乎无需人工实质介入的网络攻击。Google 威胁情报组随后披露,其首次在真实攻击中识别出“高置信度由人工智能辅助开发”的零日漏洞利用代码——一段用于绕过双因素认证的 Python 脚本,目标是一款被广泛部署的开源管理工具。脚本中的教育式注释、幻觉式漏洞评分和教科书式的代码结构,显示出明显的大模型生成痕迹。
一、攻防关系正在发生质变
这类能力之所以被谨慎释放,原因不难理解。同样的能力,既可以用于在防守侧发现和修复关键漏洞,也可以用于在攻击侧压缩漏洞发现、补丁分析、漏洞复现和利用验证之间的时间差。云安全联盟(CSA)的 CISO 共同体、SANS、[un]prompted、OWASP 生成式 AI 安全项目联合发布的《AI 漏洞风暴:构建 Mythos-ready 安全项目》报告,将这一变化概括为一场“AI 漏洞风暴”:人工智能显著提高了攻击者发现新漏洞、生成利用代码并发起规模化自动攻击的可能性;尽管人工智能同样能加快补丁开发,但由于补丁部署天然受限,防守方仍承担更重的相对负担,攻击者获得非对称收益。
更深层的冲击在于,漏洞披露与补丁治理制度赖以成立的时间假设正在瓦解。安全研究者 Himanshu Anand 在《九十天披露政策已死》中指出,九十天负责任披露窗口建立在漏洞发现者稀少、漏洞利用开发缓慢的旧世界之上;而在大模型辅助下,漏洞发现和利用开发的时间都被压缩到接近于零。CSA 报告中由 Sergej Epp 提出的“零日时钟”项目,从历史数据角度展示了同一趋势:从漏洞披露到首次出现可用利用代码的时间,正在从过去的数月、数周压缩到数小时。
由此,当前真正值得关注的,是网络攻防关系的时间结构正在改变。 过去,漏洞从发现到披露、从披露到补丁、从补丁到大规模利用之间,通常存在若干天、若干周甚至若干月的制度缓冲。厂商可以排期,维护者可以等候,安全团队可以评估影响,企业可以等待维护窗口。但当模型可以在分钟级时间内理解补丁差异、复现漏洞条件、生成验证代码,这套基于人类速度的治理节奏就开始失效。
当然,人工智能并不天然站在攻击者一边。Mythos、GPT‑5.5‑Cyber、Google 的 Big Sleep、CodeMender 和 Codex Security 等能力的出现,同样表明人工智能可以成为漏洞挖掘、补丁生成、供应链审查、安全运营和事件响应的重要防御工具。问题在于,攻击侧可以更快、更低成本、更少组织约束地把人工智能转化为可执行能力;防守侧的同等转化往往要经过采购、授权、合规、审批和跨部门协调等多重制度环节。失衡并非源于人工智能本身,而是源于能力转化速度的不对称。
因此,人工智能对网络安全的影响,不能简单理解为攻击方变得更强。更准确的判断是,人工智能正在改变攻击能力的生产方式、组合方式、扩散方式和执行方式,造成一种结构性的攻防失衡。网络攻防正从人类专家之间的能力竞赛,加速转向机器速度下的组织与治理竞赛。
这种失衡至少体现在三个层面。
速度失衡。传统防御体系建立在一个隐含假设上:漏洞发现、披露、补丁发布和大规模利用之间存在可供组织响应的时间差。九十天披露窗口、月度补丁周期、维护窗口和多层级应急审批,都是这一时间差的制度化产物。当自动化系统可以在分钟级完成漏洞分析、利用代码生成、环境验证和攻击链编排,传统组织内部的上报、研判、审批、处置流程就显得过于迟缓。问题的关键不是防守方不够努力,而是政府与企业的安全决策机制本身就是按人类速度设计的;当攻击进入机器速度,防御仍停留在人类流程,滞后不可避免。
规模失衡。Google威胁情报组的报告显示,部分威胁活动已出现向模型发送数千条重复性提示、递归分析不同漏洞并验证利用代码的行为。这类工作在人力条件下成本极高,在人工智能辅助下却可以成为常态作业。报告还指出,PROMPTSPY 等新型恶意软件已显示出向自主攻击编排演进的迹象——恶意代码可以根据受害设备状态动态生成命令、调整行为。攻击侧正在从人工密集型转向算力密集型,一个中等水平的攻击者借助智能体、漏洞知识库、自动化测试环境和模型接口,可能获得过去专业团队才具备的工作能力。
攻击面失衡。人工智能在成为防御工具的同时,也在成为新的攻击面。人工智能系统不只是一个模型接口,而是由模型、插件、代理、网关、中间件、数据连接器、开源依赖、提示词模板和智能体框架共同组成的应用栈。CSA 报告把“未纳管的智能体攻击面”列为关键风险:这类智能体往往具有高权限、默认不安全,尚未被既有控制覆盖,相关风险既来自组织内部的高权限智能体,也来自模型调用协议服务器、开发工具扩展、智能体技能包和规则等供应链环节。当一个组织把人工智能接入生产系统,实际上是在接入一个权限很高、连接广泛,却往往没有被传统资产管理流程纳管的新员工。
这三重失衡共同说明:过去二十年构建起来的网络安全治理体系,其若干底层假设正在被动摇。传统体系假设攻击大体是局部的,所以强调“谁运营、谁负责”;假设响应存在时间窗口,所以设计了多层级应急流程;假设关键资产可以清单化枚举,所以建立了资产分级和周期性漏洞管理框架。人工智能让这些假设不再充分成立。单纯增加安全投入、扩大人员编制、采购更多检测设备,无法从根本上解决问题。真正需要调整的,是治理逻辑本身。
在众多需要重构的治理逻辑中,有一条最根本,也最容易被忽视:防御组织自身的架构与决策机制。这不是纯粹的技术问题,而是组织问题。当攻击进入机器速度,防御组织能否相应升级,直接决定了所有其他治理努力的上限。
二、从人类速度组织到机器速度组织:防御架构与决策机制的重构
CSA报告对应对路径的判断非常直接:防守方不能靠加班、扩编和传统流程去追赶机器速度威胁。报告在 CISO 要点中明确写道:“我们无法靠苦干跑赢机器速度的威胁。必须重新排序、自动化,并为人员的疲劳做好准备。”这句话切中了人工智能时代网络安全治理的核心矛盾——真正落后的未必是检测工具,而是组织形态。
把 CSA 报告中不同专家的判断交叉起来看,可以得到一条清晰的逻辑链。Heather Adkins 和 Gadi Evron 早在 2025 年 9 月就发出“攻击者正在奔向奇点时刻”的行业警告,随后与 Bruce Schneier 一同提出“漏洞运营”(VulnOps)概念,试图把漏洞发现、验证、修复和运营变成一种类似 DevOps 的持续能力。Dan Guido 关于“成为 AI 原生组织”的论述,指向组织形态本身的转型;Wendy Nather 提出的“网络安全能力贫困线”概念则提醒,集体防御不能只服务资源充足的头部组织,也必须考虑那些缺乏基本安全能力的中小主体。
这些观点共同指向一个结论:人工智能时代的网络安全治理,首先不是“多买工具”,而是让组织变成一种能够在机器速度下感知、判断、授权和处置的防御体系。CSA 报告把这一目标称为“Mythos-ready 安全项目”,其衡量指标也相应从传统的补丁完成率和告警数量,转向攻击成本、早期妥协发现和影响范围控制。
这一重构至少要沿三个方向展开。第一,从边界防御转向韧性架构。
过去的防御体系习惯围绕边界展开:哪些系统暴露在外、哪些端口开放、哪些账号有权限、哪些漏洞需要修补。这些仍然重要,但在人工智能加速漏洞发现和攻击自动化的背景下,组织不能再假设边界必然守得住。关键问题已经变成:一旦入口被突破,攻击者能否快速横向移动,能否获得高价值凭据,能否把一个点的突破转化为全局性业务中断。
CSA报告把深度网络分段、零信任架构、出口流量过滤、抗钓鱼多因素认证、凭据轮换、依赖链锁定等列为基础控制项,原因正在于这些措施能够提高攻击成本并控制影响范围。报告还指出,扁平或分段不足的网络会让每一次成功利用都获得放大效应;当人工智能驱动的漏洞发现增加可利用漏洞数量,架构分段就成为限制影响范围的首要控制。
这对中国语境下的安全治理有直接含义。防御架构的目标不应只是“防止被攻破”,而应是“即使被攻破也不造成系统性失控”。关键基础设施、金融、电信、能源、交通和大型平台企业的安全评估,应把以下问题作为核心指标:关键资产是否明确,核心依赖是否可见,凭据是否可快速轮换,关键系统是否可隔离运行,被攻破账号是否会直接导致横向移动,业务是否有降级运行机制。这些问题比单纯统计漏洞数量更接近人工智能时代的真实风险。
第二,从逐次审批转向预授权处置。机器速度的威胁不允许每一次处置动作都重新走一遍审批流程。但这不意味着取消授权——失控的自动处置会带来更大的次生风险。可行路径是把审批的决策点前移:监管部门和组织高层不再针对每一次具体处置临时审批,而是针对典型处置场景预先设定授权边界。一旦事件落入预定义场景,一线安全团队或自动化系统即可执行处置,事后通过日志、报备和审计实现追溯。
CSA报告在九十天行动计划中也体现了这一思路。报告建议组织更新技术和沟通响应预案,使其能够以所需速度和规模执行,其中包括预授权的处置动作,以及同时应对多起高严重级别事件的协调机制。报告进一步建议建设欺骗能力和自动化响应能力,部署诱饵账号、蜜标、行为监测和能以机器速度执行的处置预案。
在中国语境下,可以从最不具争议的场景入手建立预授权清单:恶意域名阻断、已知攻击源封禁、被入侵账号强制下线、关键凭据自动轮换、异常调用令牌暂停、受感染终端隔离。这一改革的关键不在于扩大处置权,而在于把审批从事件发生时的瓶颈,改造为事件发生前的制度建设。前者按事件数量消耗决策资源,天然滞后于机器速度;后者按场景类型一次性完成制度配置,天然匹配机器速度。
与此相关的还有漏洞披露与修复协调机制的改造。九十天披露窗口的制度本质,是给厂商留出修复时间。但当攻击者可以分钟级把补丁差异转化为攻击代码,这一窗口反而成了攻击者的准备期。我国《网络产品安全漏洞管理规定》在制定时已经考虑了部分时效要求,但随着人工智能辅助漏洞利用能力的进一步成熟,披露窗口、协同响应时限和应急联动机制都需要进入新一轮评估与调整。
第三,从安全建议权转向安全运营权。CSA报告在评估安全项目真实状态时,提出了十个核心问题。其中最关键的一个是:安全部门究竟是“运营性”的,还是“主要是咨询性”的——它能否直接影响结果,还是只能审查、建议和向上汇报。报告还要求组织回答:过去一年公司最快完成一次安全驱动的生产变更用了多久;关键资产是否被实时清晰跟踪;是否知道如何让关键第三方优先处理紧急安全事项;管理层是否对“紧急”有工作定义。
这组问题揭示了一个常被忽视的事实:许多组织的安全部门不缺判断能力,而是缺执行权。安全团队可以发现风险、撰写报告、提出建议,却无法快速推动生产变更、供应商修复、业务降级或架构调整。在人类速度的攻击环境中,这种纯咨询模式尚可勉强运转;在机器速度下,安全部门如果仍只是建议部门,防御链路就会在授权环节被拖垮。
人工智能时代的安全治理必须提升安全职能的组织地位。对关键系统和高风险业务,安全团队应被赋予明确的运营权——在预定义边界内直接触发隔离、阻断、凭据轮换、版本回滚、供应商升级和临时业务限制。与此同时,组织需要建立强审计、强复盘、强纠偏机制。机器速度治理不是削弱问责,而是把问责从事前层层签字,转向事前规则清晰、事中留痕完整、事后复盘严格。
三、从周期性漏洞管理到持续性漏洞运营
预授权处置解决的是事件响应速度问题,漏洞运营解决的是漏洞治理节奏问题。传统漏洞管理建立在周期性假设之上:季度渗透测试、月度补丁窗口、年度风险评估、阶段性供应链审查。这种节奏在漏洞发现稀缺、利用开发缓慢的时代具有可行性。但在人工智能加速漏洞发现和补丁差异攻击的时代,周期性漏洞管理正在失去有效性。
CSA报告明确指出,季度渗透测试和被动补丁周期无法跟上持续性的人工智能驱动漏洞发现;现有的漏洞编号和已知利用漏洞清单基础设施,是按每月处理几十个关键漏洞的规模设计的,而不是按每月处理数百个由人工智能发现的关键问题设计的。漏洞编号系统本身可能无法适配人工智能生成式发现的规模,而新发现的漏洞在定义上尚未进入已知利用漏洞清单。
这正是 Heather Adkins、Gadi Evron 与 Bruce Schneier 提出漏洞运营概念的意义所在。漏洞运营不是“更多漏洞扫描”,而是把漏洞发现、验证、修复、补丁验证、业务沟通和上线部署变成一项持续性运营功能。CSA 报告建议长期建立永久性的漏洞运营职能,像 DevOps 一样配置人员和自动化,负责对自有代码、第三方软件和供应链组件进行持续性零日发现与自动化修复。
漏洞运营至少包含四个层面的转变。第一,把人工智能能力指向自己的代码和依赖。CSA 报告建议组织立即让智能体和大模型能力进入自有代码与持续集成流水线,从让智能体对任何代码进行安全审查开始,逐步推进到所有人类或人工智能生成的代码在合并前都经过大模型驱动的安全审查。这一逻辑的核心是,防守方不能等攻击者用人工智能扫描自己的系统,而应先用人工智能扫描自己。
第二,把补丁管理从窗口制改为风险驱动制。在高危漏洞被快速武器化的环境中,传统维护窗口可能不再是安全缓冲,而是攻击窗口。对可远程利用、影响关键系统、存在公开补丁差异或已出现异常扫描迹象的问题,应直接进入最高优先级处置;对短期不能修复的问题,通过隔离、访问控制、边缘规则、凭据轮换和业务降级降低暴露。
第三,把资产清单从静态台账改为持续可见性。CSA报告指出,组织无法修补、分段或防御自己不知道存在的资产;随着智能体扩散到非开发人员,影子信息技术资产和影子智能体还会进一步削弱中央可见性。人工智能时代的资产管理不能只依赖人工登记,而要通过智能体、软件物料清单、依赖图谱、运行时监测和云资产扫描形成持续更新的暴露面视图。
第四,把漏洞披露与修复协调机制重新校准。九十天披露窗口受到的批评,不意味着负责任披露制度本身没有价值,而是提醒我们:在高危漏洞上,披露到补丁、补丁到利用之间的时间差已经不再可靠。对关键软件、开源基础设施和关键信息基础设施相关产品,披露窗口、供应商响应承诺、补丁验证、临时缓解措施和行业通报机制都需要重新校准。真正死亡的不是负责任披露,而是“披露与利用之间天然存在安全缓冲期”这一假设。
四、从工具接入到智能体治理:新型攻击面的纳管
防守方必须使用人工智能,但不能无治理地使用人工智能。这是 CSA 报告中一个关键的平衡判断:智能体是对抗机器速度威胁的必要能力,因为它们能加速员工生产力;但智能体也是高权限、默认不安全、且正在成为攻击者关注焦点的新型资产类别。
组织不能把人工智能智能体简单视为办公软件、开发插件或聊天机器人。一个能访问代码仓库、工单系统、日志平台、云控制台、持续集成流水线和内部知识库的智能体,本质上已经是高权限数字身份。它不仅能“建议”行动,还可能通过工具调用、脚本执行、代码提交、配置修改、凭据读取直接影响生产环境。
智能体治理至少包含五项基础要求。
第一,建立智能体资产台账。组织需要知道哪些团队、哪些员工、哪些业务系统正在使用智能体编程工具、模型调用协议服务器、插件、技能包和自动化工作流。没有清单,就谈不上权限治理、行为审计和供应链审查。
第二,明确智能体权限边界。所有智能体都应按最小权限原则配置访问范围,尤其要限制其对生产环境、凭据、客户数据、核心代码仓库和部署系统的访问。对高权限智能体,应纳入类似特权访问管理的逻辑。
第三,审计智能体的运行框架。 CSA 报告特别提醒,最严重的失败往往发生在智能体的运行框架——提示词、工具定义、检索流水线和升级逻辑,而不只是模型本身或权限配置。组织应以与审计权限同等的严肃程度审计这些组件。
第四,设置影响范围限制与人工接管机制。在智能体接近生产环境之前,应明确作用范围、影响半径、升级逻辑和人工接管机制。不能让智能体在没有边界的情况下自主连接生产系统、外部接口和敏感数据源。
第五,建立智能体供应链治理。模型调用协议服务器、开发工具扩展、智能体技能包、规则、插件和第三方工具,都应纳入供应链安全审查。智能体的供应链不只是传统开源依赖问题,还包括提示词模板、工具定义、检索数据源、模型连接器和执行环境。
过去我们管理服务器、终端、账号、应用和数据,现在必须把智能体也作为一种特殊数字资产纳入治理。谁先建立智能体治理体系,谁就更可能把人工智能能力转化为防御优势,而不是新的系统性风险。
五、从单点防御到集体防御:外部协同与能力扩散的治理
完成组织内部重构,只是新型防御体系的一半。当攻击链条横跨模型服务商、云平台、开源维护者、人工智能中间件、企业用户和第三方供应商,任何单一组织、单一行业、单一国家的自我加固都无法独立成立。外部协同维度还需要完成两项治理逻辑的重构。
从主体责任到生态责任
现行网络安全治理体系的基础原则是“谁运营、谁负责”。这一原则在过去合理,因为系统的安全边界大体与运营主体的组织边界重合。但在人工智能应用生态中,这一假设正在瓦解。一个企业接入人工智能工具,通常不是简单调用一个模型,而是同时接入基础模型服务商、接口网关、向量数据库、插件市场、智能体框架、第三方数据连接器、开源包和自动化工作流。任何一个环节出问题,都可能通过权限、凭据和业务流程向下游扩散。
应对这一挑战,不是简单取消主体责任,而是在主体责任之上发展出生态责任——按各主体在应用栈中的位置、能力和控制范围,建立分层、差异化、可执行的责任矩阵。基础模型提供方处在生态上游,掌握最完整的滥用信号,应承担异常调用监测、滥用迹象通报、威胁情报共享等义务。中间件与应用集成方处在生态中段,应承担供应链审查、权限边界披露、滥用阻断等义务。关键基础设施使用方作为最终承载社会关键功能的主体,应承担接入审查、权限最小化、日志审计、应急演练等义务。
需要强调的是,生态责任不等于责任的无限上推。基础模型提供方的义务应限于其实际能够控制的范围,而不应因下游某个集成方的滥用行为承担超出其控制能力的连带责任。这一边界的清晰划定,是生态责任制度能否被产业接受、能否真正落地的前提。
Anthropic 在 Project Glasswing 中也表达过类似判断:没有任何单一组织可以独立解决这一问题,前沿人工智能开发者、软件企业、安全研究者、开源维护者和政府,都具有不可替代的角色。CSA 报告同样强调,行业需要加强联盟、合作与协调,通过信息共享与分析中心、应急响应中心、行业协调组织和标准机构共享威胁情报、协调响应、形成行业指南。
从管攻击者到管能力扩散
传统外部对抗逻辑主要依靠对攻击者的事后追溯与打击。这一逻辑仍然必要,但已经不够充分。攻击的关键变量正在从“具体攻击者是谁”,扩展为“攻击能力如何被生产、组合、扩散和规模化调用”。
Google威胁情报组的报告显示,威胁分子正在形成一套用于规模化、匿名化访问大模型的工具生态:自定义中间件、代理中继、反检测浏览器、账号池、自动化注册流水线。这些工具帮助攻击者维持高容量、匿名化的大模型访问能力,把对抗工作流工业化。过去只有高级威胁组织才能发动的复杂攻击,其核心能力组件正在被原子化——漏洞知识库、提示词模板、模型代理、账号池、自动注册工具、渗透测试智能体、攻击代码生成框架,都可以被拆分为相对独立的模块并组合使用。
治理逻辑必须从“管攻击者”扩展到“管能力扩散”。这并非弱化对具体攻击行为的追责,而是要在攻击能力的生产、分发、组合和调用链条上设置干预节点。一个可借鉴的成熟治理范式是易制毒化学品的前体管控。我国对成品毒品的查缉从未放松,但禁毒工作真正的突破来自源头管控——盯住能合成毒品的关键原料,而不仅仅查获已合成的成品。人工智能时代的攻击能力扩散具有类似特征:与其事后追溯每一个攻击者,不如在能力扩散的关键节点上建立识别与干预机制。
具体而言,可以在四个节点上建立干预能力。第一,治理接口滥用中间件——对专门用于聚合模型账号、绕过用量限制、隐藏调用者身份的代理服务,识别其异常调用模式而非简单封禁。第二,识别异常账号注册池——推动主管部门与模型服务提供方,围绕设备指纹、注册频率、支付异常、验证码绕过、短信验证滥用等信号建立联防。第三,建立模型提供方威胁情报联动机制——对重大滥用迹象建立制度化的通报渠道,同时严格设置必要性、比例性和最小化原则,防止演变为对普通用户的泛化监控。第四,对高风险智能体框架等两用工具实行分级管理——以能力阈值而非工具名称作为治理标准,对达到高风险阈值的工具探索使用者实名、用途备案、行为审计等轻量级管理,同时明确设置安全研究豁免和合规红队豁免。
这一思路最容易遭遇的质疑,是是否会阻碍正常创新与开源生态。这个担忧必须认真对待。能力扩散治理的目标不是让人工智能工具难以获得,而是让规模化、匿名化、有组织化地滥用人工智能工具变得更难、更贵、更容易被发现。前体管控制度从未阻碍合法化工产业的发展,关键在于管控的精准性。
最后必须回应 Wendy Nather 所提出的“网络安全能力贫困线”问题。CSA 报告在讨论集体防御时特别提醒,防守方必须利用行业协调机制,尤其要考虑那些处于网络安全能力贫困线以下的组织。这对中国同样重要。大量中小企业、开源维护者、地方平台和产业链节点,并不具备独立部署机器速度防御能力的资源。如果治理只要求这些主体各自加固,结果只能是头部组织安全能力上升,长尾组织成为攻击者的跳板。真正的集体防御,必须包括公共威胁情报、共享检测规则、低成本安全工具、行业级应急响应和面向中小主体的安全托底机制。
六、结语:从守土到治网
回顾过去二十年网络安全治理走过的道路,主导逻辑可以概括为“守土”:以等级保护、关键信息基础设施保护、网络运营者主体责任为支柱,要求每一个运营者守住自己脚下的那块数字国土。这一逻辑过去必要,未来也仍将发挥基础作用。但人工智能正在告诉我们,仅靠每一块土地各自守住已经不够。攻击者不再按组织边界行动,他们利用的是边界之间的缝隙、系统之间的连接、供应链中的依赖、权限流转中的盲区,以及一种可以在不同平台和主体之间快速流动的通用攻击能力。
治理逻辑要从“守土”扩展到“治网”:治理的不只是每一块具体数字资产,更是承载这些资产的整张生态网络;治理的不只是单点系统是否安全,更是责任与能力如何在网络中流动;治理的不只是事后追溯攻击者,更是事前重塑防御组织自身的形态,使其能够在机器速度的对抗中持续作战。
CSA报告在结论中把“Mythos-ready”定义为一种长期能力:通过韧性架构限制攻击者利用漏洞的能力,通过主动发现漏洞抢在对手之前修复,通过规模化事件响应降低业务中断,通过智能体加速安全项目和人员能力。报告还以千年虫问题作类比——一种系统性威胁,需要协调、纪律和全行业共同努力,而不是针对某一次公告的临时反应。
我们正处在一个结构性失衡的时刻。失衡的根源既在外部——攻击能力的生产、组合与扩散方式发生了深刻变化;也在内部——我们用二十年构建起来的层级化、流程化决策机制,正在与机器速度的对手严重不匹配。承认失衡的存在,理解失衡的双重根源,并以新的治理逻辑同时回应两个维度的挑战,是人工智能时代网络安全治理必须完成的转向。
未来的网络安全防御,既是技术能力的竞争,更是组织速度与制度韧性的竞争。谁能更早从“守土”走向“治网”,从人类速度走向机器速度,谁才更可能在新一轮的攻防博弈中重新掌握主动。
声明:本文来自网安寻路人,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。