本文提出了PentestAgent,一个基于LLM的多代理自动化渗透测试框架。
本报告将从全球威胁态势、行业影响、AI驱动的具体攻击方式和AI模型原生威胁、典型安全事件与案例入手,系统分析近一年AI攻击的主要形态、技术特征及其安全影响,并在此基础...
当下快速发展的个人 AI Agent 生态,正沦为恶意软件的全新传播渠道。
本文中引入了MAGIC,这是一种新颖而灵活的自监督的APT检测方法,能够在不同级别的监督下执行多粒度检测。
本文提出了一种能够支持多种输入语言和语言特性的通用模糊测试框架Fuzz4ALL。
这是一种思维模型和框架,它根据连接性和自主性水平将四种不同的智能体架构分类,并在每种架构中映射关键的安全控制措施。
本文探索了LLM在渗透测试领域的应用潜力,并提出了两个核心用例:高层任务规划(如为攻击Active Directory制定策略)与低层攻击执行(如在已获得初始权限的Linux系统上进行...
本文的核心方法是构建一个统一的实验框架,对选定的八种 PIDS 进行模块化复现和系统化分析,从而识别其共同缺陷并探索更优设计。
WIZ发布了首个专为软件开发生命周期(SDLC)基础设施设计的威胁框架——SITF (SDLC Infrastructure Threat Framework)。
从架构到风险,从实测到趋势研判,全链路揭SKILLS繁荣下的安全危机 想摸清SKILLS哪里不安全?哪些攻击面实锤利用?这篇就够!
本文提出了MEGR-APT,这是一个针对高级持续性威胁(APT)狩猎的高效内存系统。该系统基于攻击表示学习,旨在从大规模溯源图中发现与攻击场景匹配的可疑子图。
该论文在揭示 LLM 驱动个人信息抽取风险以及探索网页侧对抗措施方面具有较高研究价值,但其防御方法在更强攻击模型下的鲁棒性、实际部署可行性以及评估指标的精细化程度仍...
本研究提出了一种名为“生成利用攻击”(generation exploitation attack)的极其简单的方法,旨在越狱LLMs的对齐,特别是针对那些在发布前经过安全微调的开源模型。
Palo Alto认为,保障氛围编程安全应落实六大原则:职责分离、人在回路、输入/输出验证、强制采用安全的辅助模型、最小智能体权限、防御性技术控制。
FedCEO为差分隐私联邦学习提供了一种新颖的客户端协同优化范式,不仅在理论上实现了效用-隐私权衡的显著提升,也在多个实际场景中验证了其有效性与实用性。
论文紧扣当前移动安全领域中Java与Native代码联动导致检测难度提升,尤其是隐藏在跨语言(Native)中的恶意代码难以挖掘的核心问题,填补了主流静态分析工具对Native代码覆...
AI浏览器将是发病重灾区。
论文系统论证了推理能力对模型泛化、效率与实际威胁识别的重要作用,并首次验证了“专用小模型,优于通用大模型”在安全领域的成立性。
OpenAI透露,旗下前沿大模型的网络攻防能力正在快速提升,在CTF比赛中,8月GPT-5仅得分27%,11月GPT-5.1-Codex-Max达到了76%,预计未来发布的前沿模型都将达到高级别网络安...
该框架旨在绘制并量化真实工作流中的智能体风险。除了提出新的风险分类法和动态评估方法,还详细剖析了NVIDIA AI-Q Research Assistant的案例,并开源了一个包含超过一万条...
微信公众号