在数字威胁日益复杂的时代,全球网络安全领域的风向标再次指向旧金山。RSAC 2025全球网络安全大会于4月28日盛大开幕,汇聚了超过4万名安全精英,共同探讨网络安全的未来走向。
RSAC 2025的主题是"多元声音,同一社区"( Many Voices. One Community),超过435场由行业专家主导的会议,将聚焦身份安全、人工智能(AI)、关键基础设施保护、量子计算、API安全和首席信息安全官(CISO)角色的演变等热点话题进行深入交流。
安全牛团队为您精选到目前为止RSAC 2025中部分最具影响力的主题演讲与产品发布,解读行业巨头的战略布局,剖析技术创新的实质内涵。
美国国土安全部长呼吁重组CISA,回归核心使命
在旧金山举行的RSAC大会上,美国国土安全部长Kristi Noem于4月29日在RSAC 2025上发表主题演讲,呼吁重新调整网络安全和基础设施安全局(CISA)的定位,并对该机构过去关注虚假信息的做法提出尖锐批评,同时警告联邦政府在网络安全政策上不应过度干预。
Noem表示CISA已偏离其创建初衷:"CISA不是真相部,它的工作是作为一个网络安全机构保护国家。"尽管没有直接点名,但很明显她针对的是2020年因公开确认总统选举合法性而被特朗普解职的前CISA局长Chris Krebs。
CISA成立于2018年特朗普第一任期内,其使命是保护联邦系统和关键基础设施免受网络威胁。该机构在2020年大选中扮演了重要角色,特别是在打击选举虚假信息方面。目前,特朗普政府已采取一系列被广泛视为政治化并削弱美国网络安全的举措,包括撤销Krebs的安全许可。
Noem表示,国土安全部正在对CISA进行正式审查,包括其总部、资金水平和人员配置。她暗示该机构将被重组,重点关注为州和地方政府以及小型企业提供技术援助。"我们不是要消除CISA,而是确保它做它被创建来做的事情——搜寻和加固系统。"
据报道,在特朗普执政的前100天,CISA经历了大规模裁员,计划将员工数量减半,裁减多达1300个职位,并终止了约1000万美元给互联网安全中心的年度资金。
在整个演讲中,Noem强调创新应来自私营部门,政府的角色是支持而非主导网络安全战略。她承诺使用国土安全部的采购权力来执行"安全设计"原则,警告供应商该机构将不再为本应从一开始就安全的软件中的漏洞买单。
Noem还确认关闭国土安全部科学技术理事会,这是该机构的主要研究部门,此举在学术和网络安全界引起警觉。她为这一决定辩护说,联邦研究通常效率低下,创新应该来自大学和私营部门合作伙伴。
摩根大通CISO发表公开信,呼吁保持对云计算和AI的审慎态度
在RSAC 2025前夕,摩根大通首席信息安全官Patrick Opet发表的公开信引发了广泛关注,他呼吁业界对即将在会议上听到的各种AI和云计算推销保持审慎态度。
在数字合作成为创新和效率命脉的世界中,网络安全和运营弹性的责任界限变得日益模糊。正如信中所指出的,直接攻击主要组织的时代已经演变。如今,恶意行为者越来越善于将SaaS供应商作为战略入口点,以此接触大量下游受害者。这种横向移动的潜力使得对供应链的信任不仅仅是一种偏好,而是生存的关键需求。
黑客深知,入侵单个SaaS提供商可以获取数百甚至数千个互联实体的访问权限,这比尝试突破高度防御的主机系统更高效且更有利可图。这一现实给CISO们带来了巨大压力,他们必须应对将敏感数据和关键操作委托给外部合作伙伴的挑战。
这种风险环境已从根本上改变了采购流程。曾经相对简单的服务获取现在涉及严格的安全审查、全面的尽职调查和持续监控。CISO现在的任务是确保每个受托管理其数据的供应商都遵守严格的安全和隐私标准。正如Opet信中强调的,对供应商漏洞的快速响应能力取决于这种可见性和主动评估。
SaaS模式虽然在敏捷性和可扩展性方面提供了巨大好处,但也模糊了数据所有权和控制的传统边界。客户与供应商之间的信息流通常是双向的,这创造了一个潜在的风险情景,即任何一方的漏洞都可能产生连锁反应。这种互联性要求共同承担安全责任,超越纯粹的交易关系,建立基于信任和透明度的真正伙伴关系。
随着模型上下文协议(MCPs)的日益采用,这一挑战被独特地放大。虽然MCPs旨在简化和标准化组织内不同系统之间的数据访问和交换,但它们可能无意中创建了高度互联的数据环境。如果攻击者在MCP环境中获得特权访问权限,跨众多系统的广泛数据泄露和横向移动的可能性将大大提高。
现实是:组织无法从当今互联的环境中撤退。开发人员将不可避免地寻找创新和连接系统的方法,这往往会创建更难管理的影子IT和AI风险。重点必须转向实现安全集成,为开发人员提供工具和框架,以安全合规的方式构建和连接应用程序。
展望未来,只有建立在透明度、强健安全实践和对威胁环境共同理解基础上的协作和主动方法,才能在这复杂的互联风险网络中前行。
Agentic AI催生包容性身份认证新范式
Microsoft合伙人、安全架构师Abhilasha Bhargav-Spantzel和高级数据与应用科学家Aditi Shah在RSAC 2025大会上,共同发表了题为"AI时代认证:用包容性身份保障未来安全"的演讲,探讨了人类多样性与自主AI Agent引入之间的交叉领域。
视障人士Shah指出,不同身份可以有不同的认证方式。例如,视障用户可能使用音频CAPTCHA而非视觉CAPTCHA,但音频CAPTCHA对人类用户来说记忆困难,而现代语音转文本AI模型却能轻松解决。
演讲者指出AI Agent身份面临三大挑战:
首先,需要确定"谁是代理",解决使用人类用户或服务账户凭证所采取行动的责任归属问题。Bhargav-Spantzel强调,组织应能区分"何时是用户,何时是代理"进行认证、访问数据或执行特定操作。
其次,AI Agent的权限范围和持续时间比表面看起来更复杂。Shah指出,如果两个权限有限的Agent能够相互交互,它们可能交换知识以提升权限或推断敏感数据,这意味着"传统的最小权限访问控制对自主AI系统不再适用"。
最后,常见的钓鱼攻击可以通过提示注入的形式转移到AI Agent上,类似于社会工程攻击操纵人类的方式。这需要在身份威胁检测和响应监控中包含代理身份。
演讲者提出安全认证AI Agent和具有特殊需求的人类之间的相似之处。例如,依赖指纹生物识别的认证系统对没有手指的人群构成挑战。AI也需要在不"降低安全标准"的前提下,保持其自主性的替代认证方式。
Shah补充道,攻击者是"平等机会的破坏者",组织必须同等地保护AI Agent和具有多样能力的人类的身份。一刀切的身份系统不适用于每个人类用户,也不适用于包括AI Agent在内的每个数字身份。
因此,Shah敦促组织"提供尽可能多的安全认证替代方案",因为提供最大可用性和安全性的方法可能因每个用户而异。被动、持续的认证方法(如基于行为的认证)被强调为对人类和Agent都特别易于访问的方式。
虽然Agent可能无需人类干预即可认证,但安全设计AI时加入两个关键元素:实时透明地向用户展示AI正在执行的具体操作,并在关键决策点采用"人在环路“机制要求用户明确授权,可以确保其行动符合用户意图,从而防止潜在的权限越界或滥用。
安全设计之路:尚未获胜,但曙光已现
Veracode创始人Chris Wysopal和哥伦比亚大学的Jason Healey在RSA 2025发表了题为"安全设计:我们正在获胜吗?"的演讲,给出了一个清晰的答案:尚未获胜,但有希望。
两位专家展示了软件安全方面的积极进展数据。尽管这些进步仍然脆弱。核心问题始终未变:互联网及其运行的软件从未将安全性纳入设计考量。全球连通性、默认不安全的软件和级联故障风险,共同为攻击者提供了系统性优势,即使是复杂的防御者也难以克服。
"我们的系统高度互联,一次失误可能引发灾难性连锁反应。"Healey说。
Veracode最新的软件安全状态报告显示,通过OWASP十大漏洞检查的应用程序比例从2020年的32%跃升至2025年的52%。更令人鼓舞的是,高危漏洞中被漏洞利用预测评分系统(EPSS)评为"可能被利用"的比例在过去五年中从3.7%稳步下降到2.7%。
然而,重大障碍依然存在。尽管在早期识别漏洞方面有所改善,但修复它们仍是严重瓶颈。"开发速度变得如此之快,以至于人们根本不修复已知的漏洞,"Wysopal警告道,"他们优先考虑新功能而非安全修复。"
更令人担忧的是,虽然大多数缺陷存在于第一方代码中,但最关键的未修复漏洞越来越多地隐藏在第三方开源组件中,第三方代码正在造成真正的系统性问题。对此,Wysopal说:"你无法修补你不知道引入的东西。"
人工智能正在重塑软件开发,给双方都带来了利弊。Wysopal警告说,AI工具已经在加速代码创建,但并不一定使其更安全。"AI编写的代码在安全性方面略差于人类。如果AI将开发人员生产力提高50%,除非你改变修复缺陷的方式,否则你将产生超过50%的漏洞。"
然而,AI也可能成为解决其帮助创造的问题的方案。Wysopal认为,基于生成式AI的代码修复,也就是自动修复,是唯一的解决方案。
两位演讲者强调,赢得安全设计之战不仅需要更好的技术,还需要透明度和责任制。Wysopal倡导强制性软件认证的理念,仿照制造业质量控制。
两位演讲者明确认为:防御者仍然可以获胜,前提是他们衡量进展、更快地关闭反馈循环、主动投资修复漏洞并相互问责。
LLM修复不安全代码的能力与局限性
在4月29日 RSAC 2025的"使用LLM进行安全编程的未来"会议上,卡内基梅隆大学软件工程研究所CERT主任Mark Sherman分享了他团队基于2,500多次测试运行的研究成果,为开发者使用大语言模型(LLM)修复不安全代码设定了现实期望。
研究团队测试了OpenAI的ChatGPT 3.5、ChatGPT 4和ChatGPT 4o以及GitHub Copilot,使用来自SEI CERT C、C++和Java安全编码标准的1,223个合规和不合规代码示例,在2023年3月至2024年8月期间共进行了2,684次试验。
研究发现,较旧的ChatGPT 3.5模型在识别代码错误方面表现不佳,经常"明显错误"或"忽略明显问题",同时指出不存在的错误。例如,该模型有时会将原始代码重复返回给用户,声称已经进行了实际上原代码已包含的修复;在另一个案例中,模型将C语言中的字符数组误认为字符串,导致不准确地用strcmp()替换memcomp()函数。总体而言,ChatGPT 3.5对不安全Java示例的正确解释率不到40%,对不安全C代码不到50%,对不安全C++代码略低于65%。
较新的模型如ChatGPT 4、4o和GitHub Copilot表现有显著改善,能够捕获ChatGPT 3.5遗漏的一些错误。然而,Sherman指出,所有测试的模型仍然会遗漏某些错误。平均而言,较新的模型在处理不安全代码时,Java和C++的错误遗漏率仍超过30%,C语言超过20%。
值得注意的是,这些模型在检测最常见错误时表现最佳。例如,较新模型对C语言中的表达式错误、内存操作错误和字符串处理错误的检测率分别为96%、92%和84%。Sherman表示,这与最常见错误及其解决方案在模型训练数据中最为普遍的事实相符。这凸显了"使用LLM修复代码时,你看到的不是对程序的正确分析,而是模式"。
为提高LLM的代码分析能力,Sherman建议提供更好的提示,而不仅仅询问"好代码与坏代码"。研究表明,提供静态分析器警报或错误上下文等信息可将AI提供修复的能力提高60%。其他有用的上下文包括功能文档以及代码应使用的库和API。
Sherman警告程序员不要过度信任AI,不要不加质疑地复制粘贴其解决方案。他建议LLM应被要求提供其建议修复正确性的证据,并通过定理证明工具进一步验证,以减轻程序员检查AI工作的负担。
思科开源安全AI模型,推动行业协作应对机器级威胁
4月28日,思科在RSAC 2025主题演讲中宣布了一项重大开源计划,旨在保障AI的未来安全。思科执行副总裁兼首席产品官Jeetu Patel发布了Foundation AI——一个专为安全构建的AI模型,该模型基于网络安全数据训练而成。
与传统开源项目不同,思科不仅开放概念,还将发布实际训练的模型权重,允许研究人员和开发者检查、调整和优化它。同时,公司还开源了完整的工具框架,邀请全球安全社区共同合作开发更安全、更透明的AI系统。
Patel强调:"真正的敌人不是我们的竞争对手,而是攻击者。"他警告说,微调模型显著增加了被破解和产生有害输出的风险,思科研究表明,微调可能使破解漏洞增加三倍,有害响应增加22倍。
Foundation AI模型虽然不是最大的,但它专为网络安全领域打造,注重精确度、速度和效率。该模型由80亿参数驱动,在精心挑选的50亿个标记上训练(从9000亿个中精选),轻量级设计仅需一到两个A100 GPU即可运行,而大多数通用模型需要30倍的资源。Patel将这一举措视为在世界从人类规模安全向机器规模威胁转变过程中的必要之举。
Google升级统一安全平台,推出多项AI驱动新功能
Google于4月28日宣布为其Google统一安全平台(Google Unified Security)增添一系列新功能,该平台是刚推出不久的安全解决方案。
统一安全平台整合了Google领先的威胁情报、安全运营、云安全、企业安全浏览以及Mandiant专业知识,创建了一个覆盖整个攻击面的可扩展安全数据架构。该平台将Google的安全运营(SecOps)、Chrome企业浏览器、安全指挥中心和Google威胁情报整合在一起,并融入了2022年被Google收购的知名网络安全公司Mandiant的专业技术。
此次更新主要集中在Google安全运营平台,这是一个为客户提供威胁检测、安全编排自动化与响应(SOAR)和安全信息与事件管理(SIEM)服务的云平台。新增功能包括:
基于Mandiant最新年度M-Trends报告的云威胁规则包
由代理型AI驱动的安全运营中心(SOC),通过协作多代理系统增强安全运营
SecOps实验室,为客户提供AI增强功能的早期访问权限
复合检测功能,可将看似孤立的事件关联起来,帮助防御者揭示更完整的攻击情况
内容中心,提供资源以简化安全运营并最大化平台潜力
由Google Gemini AI支持的文档搜索功能
此外,Google的云资产平台安全指挥中心将在其AI保护功能中整合MITRE ATLAS威胁情报,该平台适用于AWS、Microsoft Azure和Google Cloud。
声明:本文来自安全牛,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。