最近一个多月,前沿模型公司的动作很值得注意。

4 月,Anthropic 发布 Claude Mythos Preview,并启动 Project Glasswing,把这款模型提供给一批关键软件、开源生态和基础设施相关组织,用于发现和修复安全漏洞。Anthropic 对 Mythos 的描述非常直接:这是一个通用前沿模型,但在计算机安全任务上表现“异常突出”。

https://www.anthropic.com/glasswing

5 月,OpenAI 又推出 GPT-5.5-Cyber,并通过 Trusted Access for Cyber 机制,将其以 limited preview 的方式开放给负责关键基础设施安全的防御者。OpenAI 明确说,GPT-5.5-Cyber 用来支持更专业的网络安全工作流,帮助保护更广泛的安全生态。

https://openai.com/index/gpt-5-5-with-trusted-access-for-cyber/

这两个动作放在一起看,就不再是普通的模型发布新闻。

Anthropic 和 OpenAI 几乎同时把网络安全能力单独拎出来,说明前沿模型正在进入一个新阶段:模型不只是会写代码、改代码、解释代码,而是开始具备理解复杂软件系统、发现系统缺陷、验证攻击路径、辅助修复漏洞的能力。

这也是为什么网络安全可能会成为前沿 AI 最先发生质变的关键战场。

一、OpenAI 发布 GPT-5.5-Cyber,重点不是“更强聊天”,而是“更高权限的安全能力”

OpenAI 这次发布 GPT-5.5-Cyber,表面上看是发布了一个网络安全模型版本。但从产品逻辑看,它更像是在给高风险 AI 能力建立分级开放机制。

OpenAI 把访问层级分成三类。

普通 GPT-5.5 面向通用用户,使用标准安全护栏。遇到高风险网络安全请求时,模型会更谨慎,甚至直接拒答。

GPT-5.5 with Trusted Access for Cyber 面向经过验证的防御者。OpenAI 表示,这类用户可以获得更低的分类器误拒答,从而支持漏洞识别与分诊、恶意软件分析、二进制逆向、检测工程、补丁验证等合法防御任务。

GPT-5.5-Cyber 则是更特殊的层级。OpenAI 在文章中说,它更适合那些普通 TAC 访问仍然可能遇到拒答的高风险合法场景,比如授权红队、渗透测试和受控环境下的漏洞可利用性验证。

所以,GPT-5.5-Cyber 的重点并不只是“模型更聪明”。更准确地说,它是 OpenAI 面向网络安全防御者开放的一种高权限模型能力。

这里的“高权限”有两层含义。

一层是模型能力层面。它更愿意处理复杂、敏感、双用途的网络安全任务。

另一层是访问控制层面。只有经过验证的防御者、企业安全团队、关键基础设施保护者,才有机会获得这种访问权限。OpenAI 还要求更高权限访问者具备更强的账户安全保护,例如抗钓鱼认证和高级账户安全机制。

这说明 OpenAI 已经意识到,网络安全能力不能再简单按照“能不能回答”来管理,而要按照“谁在用、用来做什么、是否有授权、是否可审计”来管理。

二、Anthropic 的 Mythos 更像一次“能力警报”

如果说 OpenAI 的重点是产品化准入,那么 Anthropic 的 Mythos 更像一次能力警报。

Anthropic 在介绍 Mythos Preview 时,用了非常强的表述。它说 Mythos Preview 是一个新的通用语言模型,整体能力很强,但在计算机安全任务上尤其突出。Anthropic 甚至说,这可能是安全行业的一个“watershed moment”,也就是分水岭时刻。

更值得注意的是,Anthropic 声称 Mythos Preview 在测试中能够发现并利用真实开源代码库里的零日漏洞,也能对闭源软件进行逆向分析,并把已知但尚未广泛修复的 N-day 漏洞转化为可利用路径。Anthropic 还提到,由于大量漏洞尚未修复,公开文章只能披露很少一部分细节。

这个表述其实很重。

它意味着前沿模型已经不只是“帮安全研究员查资料”,而是在某些场景中开始接近真实漏洞研究流程:看代码、找异常、构造假设、验证漏洞、形成利用链、输出修复建议。

Anthropic 因此没有选择把 Mythos Preview 直接大规模开放。它启动了 Project Glasswing,把模型提供给关键软件和基础设施相关伙伴,用来寻找并修复基础系统中的漏洞。Anthropic 还明确表示,目前不计划让 Claude Mythos Preview 普遍开放,而是希望未来在安全防护机制成熟后,再推动 Mythos-class 模型的大规模部署。

这背后的逻辑很清楚。

Anthropic 看到的是,模型能力已经开始逼近网络攻防的危险边界。如果这种能力被无门槛开放,可能会显著降低攻击者发现漏洞、构造利用、扩大攻击面的成本。

所以它选择了一个更保守的路径:先把能力交给关键基础设施、防御者、开源维护者和大型安全组织,让防御侧先获得能力红利。

三、两家路线不同,但判断高度一致

OpenAI 和 Anthropic 的路径并不一样。

Anthropic 更强调模型能力本身的跃迁。Mythos Preview 是一个通用前沿模型,但它在网络安全任务上出现了非常强的外溢能力。Project Glasswing 本质上是在回答一个问题:当前沿模型已经能显著提升漏洞发现能力时,怎样让防御者先用起来?

OpenAI 更强调高风险能力的准入治理。GPT-5.5-Cyber 的意义,不只是模型能力本身,而是 OpenAI 把网络安全能力拆成不同访问层级。普通用户、可信防御者、更高权限授权场景,对应不同的安全边界和模型行为。

Anthropic 像是在说:模型能力已经强到需要行业联合防御。

OpenAI 像是在说:这类能力可以开放,但必须按身份、授权和场景分级开放。

一个偏“能力冲击”,一个偏“产品治理”。

但两家的底层判断是一致的:网络安全已经成为前沿 AI 最敏感、最有价值、也最危险的落点之一。

原因也很简单,网络安全天然是双用途能力。同样是漏洞分析,可以用于补丁修复,也可以用于漏洞利用;同样是恶意软件分析,可以用于检测工程,也可以用于规避检测;同样是渗透测试,可以用于授权红队,也可以用于真实攻击。

过去,模型安全更多依赖内容策略。只要请求看起来像攻击,就拒答。

但到了网络安全场景,这种方式会遇到很大的问题。因为防御者经常也需要做“看起来像攻击”的事情。比如复现 CVE、构造 PoC、验证补丁是否有效、分析恶意样本行为、模拟攻击路径、测试检测规则。

如果一刀切拒答,合法防御工作会被误伤。

如果完全开放,攻击者又可能获得能力放大。

这就是 OpenAI 和 Anthropic 都在探索的核心问题:如何把高风险能力交给可信的人,而不是简单封死或简单放开。

四、为什么偏偏是网络安全?

网络安全之所以被放到这么重要的位置,不是因为 AI 公司突然都想做安全产品,而是因为网络安全任务本身非常适合被前沿模型放大。

1、网络安全高度依赖代码理解。

漏洞往往隐藏在复杂代码路径、边界条件、状态机、权限判断、输入解析、内存管理和组件交互里。传统安全研究需要研究员长时间阅读代码、构造上下文、猜测异常路径。前沿模型恰好擅长处理大量文本、代码和上下文,一旦它具备更强推理能力,就自然会向漏洞分析迁移。

2、网络安全有相对清晰的反馈闭环。

很多 AI 任务很难验证结果,但网络安全任务不同。一个漏洞能不能触发,PoC 能不能运行,补丁是否阻断,检测规则能不能命中,日志里是否出现攻击迹象,这些都可以通过工具、沙箱、测试环境、CI/CD 流程来验证。

这对 Agent 特别重要。因为 Agent 不只是生成答案,而是可以调用工具反复试错。它可以读代码,运行测试,查看报错,修改假设,再继续验证。网络安全正好提供了这种“推理—行动—反馈—修正”的闭环。

3、网络安全天然存在大量自动化工具链。

Fuzzer、调试器、反汇编器、沙箱、扫描器、日志平台、SIEM、EDR、WAF、CI/CD、安全测试框架,这些工具原本就是为了帮助人类安全工程师提高效率。前沿模型接入这些工具后,能力就会从“给建议”变成“跑流程”。

4、网络安全有非常明确的现实价值。

企业安全团队长期面临漏洞太多、告警太多、资产太复杂、人手不够、修复太慢的问题。只要模型能够在漏洞分诊、补丁验证、检测规则生成、恶意软件分析、代码审计、应急响应中稳定节省时间,就会直接进入企业预算。

这也是 OpenAI 为什么积极推动 TAC 生态。OpenAI 在 4 月的文章中已经提到,Trusted Access for Cyber 的参与方覆盖开源安全团队、漏洞研究者、金融机构、安全厂商和大型企业,并列出了 Cisco、Cloudflare、CrowdStrike、NVIDIA、Oracle、Palo Alto Networks、Zscaler 等组织。

换句话说,网络安全不是一个边缘场景,而是前沿模型商业化、国家安全、企业刚需和能力验证同时交汇的地方。

五、网络安全会不会成为下一个 AI 攻破的战场?

我倾向于认为,会。

但这里的“攻破”,不一定是说 AI 会立刻攻破所有系统,而是说网络安全很可能成为前沿 AI 最早发生工作方式重构的领域之一。

过去,安全研究高度依赖少数专家。一个复杂漏洞的发现,可能需要研究员长期阅读代码、理解协议、分析内存布局、构造输入样本、反复调试验证。

未来,这些步骤会被 AI 大幅加速。

模型可以同时阅读多个代码库,自动筛选可疑模块;可以根据历史 CVE 模式,推测相似漏洞;可以把漏洞描述转化为测试用例;可以在授权环境中验证补丁;可以根据攻击路径生成检测规则;可以把应急响应过程整理成报告。

当这些能力结合起来,网络安全行业会出现三个变化。

第一,漏洞发现会更规模化。过去依赖少数专家经验的漏洞挖掘,可能会变成大量 AI Agent 并行扫描、分析和验证的过程。

第二,攻防窗口会更短。漏洞一旦公开,攻击者利用 AI 分析补丁、还原漏洞、构造利用的速度可能更快;防御者也必须用 AI 更快完成影响范围分析、检测规则生成、补丁验证和资产收敛。

第三,安全运营会更 Agent 化。蓝队不再只是问模型“这个告警是什么意思”,而是让模型持续参与代码审计、日志分析、检测规则生成、工单流转、补丁跟踪和复盘报告。

真正的变化不是 AI 取代某个安全工程师,而是安全工作流会被重写。

以前是人使用工具。

之后可能是人管理一组安全 Agent,由 Agent 去读代码、跑工具、查日志、写规则、做验证,人负责设定边界、判断风险和做最终决策。

这对防御者是机会,对攻击者也是机会。

所以网络安全会成为 AI 的关键战场,不是因为它最炫酷,而是因为它最容易形成现实冲击。

六、这对 AI 安全意味着什么?

这件事对 AI 安全行业的启发很大。

过去我们讲大模型安全,很多时候关注的是内容风险。模型有没有输出违法内容,有没有生成歧视言论,有没有泄露隐私,有没有被提示注入绕过。

这些问题当然重要,但从 Mythos 和 GPT-5.5-Cyber 开始,另一个问题正在变得更加重要:模型到底具备什么能力,这些能力应该交给谁,如何限制它使用工具,如何证明它在授权边界内行动,如何审计它做过什么。

这就是从“内容安全”走向“能力安全”。

内容安全关注模型说了什么。

能力安全关注模型能做什么。

在网络安全场景里,这个差异尤其明显。一个模型生成一段漏洞利用代码,风险不只来自文本本身,而来自它可能连接真实系统、调用扫描器、运行脚本、生成 PoC、规避检测、写入持久化逻辑。到了这个阶段,安全治理不能只靠输入输出审核。

未来的 AI 安全产品,需要围绕高风险能力建立完整治理链路:

  • 身份认证要知道谁在使用模型

  • 权限分级要决定用户能访问什么能力

  • 任务授权要确认模型是否在合法边界内工作

  • 资产范围要限制模型能测试哪些系统

  • 工具调用要记录模型调用了什么命令、访问了什么文件、连接了什么环境

  • 行为审计要能在出问题后追溯全过程

  • 风险监控要能发现模型是否正在向恶意方向偏移

这套东西,本质上就是 AI 时代的安全控制平面。

OpenAI 的 TAC 和 GPT-5.5-Cyber,已经很明显地朝这个方向走。Anthropic 的 Project Glasswing 也是同样逻辑,只是它选择先从关键软件和基础设施防御联盟切入。

这对国内 AI 安全产品也有参考意义。

如果未来模型越来越强,高风险能力一定不能简单靠“提示词拦截”管理。尤其在 Agent、代码执行、网络安全、数据分析、自动化运维这些场景里,安全产品必须从内容审核升级到身份、权限、工具、行为和审计的综合治理。

七、前沿模型公司为什么都要抢 Cyber?

还有一个更现实的问题:为什么 OpenAI 和 Anthropic 都把 Cyber 放到产品路线图里的重要位置?

一方面,这是安全风险问题。

前沿模型越强,越可能被用于攻击。OpenAI 在介绍 TAC 时就说,网络安全是模型进步最清晰的双刃剑场景之一,模型可以显著强化防御,也会引入新的风险。

另一方面,这也是商业机会问题。

网络安全是企业愿意付费的刚需领域。安全团队有明确预算,有成熟采购体系,有大量痛点,也有非常直接的效率指标。只要模型能缩短漏洞修复周期、减少告警噪声、提升检测覆盖、降低应急响应成本,就有机会变成企业级产品。

更深一层看,这还是国家安全和技术主导权问题。

如果 AI 真的能显著提升漏洞发现和攻击模拟能力,那么谁先掌握、谁先部署、谁先建立防御生态,谁就可能在未来网络攻防中获得优势。Anthropic 的 Project Glasswing 明确把关键软件、开源生态、基础设施维护者组织起来;OpenAI 则把 TAC 做成一个面向防御者、安全厂商和企业的可信访问网络。

这说明两家公司都不再把 Cyber 当成普通垂直场景,而是把它当成前沿模型能力治理的重要样板。

因为 Cyber 场景几乎包含了所有 AI 安全难题:

  • 它有高价值,也有高风险。

  • 它需要开放能力,也需要限制滥用。

  • 它需要模型自主执行,也需要人类监督。

  • 它既要加速防御,也可能加速攻击。

所以,网络安全很可能成为检验前沿模型治理能力的一块试金石。

谁能把 Cyber 能力安全地开放出去,谁就更有可能把其他高风险能力也开放出去。

八、写在最后

从 Mythos 到 GPT-5.5-Cyber,真正值得关注的不是模型名字本身,而是前沿模型公司对网络安全能力的集体重视。

Anthropic 看到的是能力上限。Mythos Preview 说明,通用前沿模型一旦具备更强代码理解、工具使用和长程推理能力,就会自然进入漏洞研究和攻防验证领域。

OpenAI 看到的是产品路线。GPT-5.5-Cyber 说明,高风险能力不能简单封禁,也不能无差别开放,而要通过可信准入、权限分级、账户安全和使用审计交给防御者。

两条路线共同指向一个趋势:网络安全正在成为前沿 AI 最早发生实战化突破的领域之一。

未来,安全研究员不会只是多了一个问答助手,而是可能拥有一组可以读代码、跑测试、验证漏洞、生成规则、跟踪补丁的安全 Agent。

这会提高防御者的效率,也会压缩攻击者和防御者之间的时间差。

所以,网络安全会不会成为下一个 AI 攻破的战场?

答案可能是:它已经开始了。

只不过这场战斗的关键,不是让模型变成攻击者,而是看谁能更早把模型组织成防御体系。

AI 时代的网络安全,不会只比谁的模型更强。

还会比谁更早建立起可信使用、分级开放、工具约束和行为审计的能力治理体系。

这才是 Mythos 和 GPT-5.5-Cyber 同时出现背后,真正值得关注的信号。

声明:本文来自模安局,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。