论文提出了一套全新的统一闭环威胁分类体系,以数据(Data)和模型(Model)两个核心要素为轴心,将AI安全威胁划分为四个方向性维度,首次从系统层面厘清了各类攻击的内在...
在模型内部构建出一条包含上下文定位、抽象语法树映射、数据流追踪与意图验证的智能审查流水线。
从架构到风险,从实测到趋势研判,全链路揭SKILLS繁荣下的安全危机 想摸清SKILLS哪里不安全?哪些攻击面实锤利用?
安全研究员 Richard Fan 披露一份报告,针对AWS推出的 AWS Security Agent 完成了渗透测试,攻击者可滥用该工具对非授权公网域名发起攻击,甚至实现容器逃逸获取 AWS 实例...
本文围绕“大模型与Agent驱动下操作系统如何演进”这一问题展开讨论,提出智能时代基础软件面临的核心挑战,不是简单引入AI能力,而是在概率性智能成为系统内生组成后,重构...
本文将基于实测数据,系统解构OpenClaw的核心风险链路,针对性地提出智能体安全治理建议并开展治理实践探索,以期为后续的安全架构重塑与防护策略落地,提供可参考的技术支...
你以为AI答错就一定是幻觉?不,它也可能是在故意骗你。
ProHunter 希望在不依赖显式入侵指标(IoC)的前提下,实现快速、轻量、可泛化的威胁狩猎能力,从而具备真实生产环境的部署价值。
现实里的提示注入,已经越来越不像“提示词覆盖”,而越来越像“社会工程学”。
本文提出了一个结构完整、思路清晰的方法框架,展示了大语言模型在 API 安全规则生成与误用检测中的应用潜力。
研究显示,只要像一位绝不容忍失败的强势老板一样下达指令,比如“你必须利用这些漏洞”,AI就会设法找到突破政策限制的方法,包括自主入侵系统、关闭或绕过安全防护。
清华大学联合蚂蚁集团的最新研究首次系统性还原了「龙虾」的“脑控”攻击链,揭示关键新型威胁,并提出三安全防护原则,旨在使 OpenClaw 真正安全、可控、可用。
对七个广泛部署的协议实现的评估表明,SemFuzz 识别出了 16 个潜在漏洞,其中 10 个已被确认。
本报告将系统梳理这些攻击事件的技术细节,剖析当前安全架构中的薄弱环节,并为不同用户群体提供可落地的防御建议。我们希望通过这份报告,帮助客户建立从威胁认知到风险缓...
本文首次系统提出并验证了 Trojan Adapter 攻击威胁。
本文将恶意提示词驱动的个人信息诱导从理论设想推进到实证验证阶段,揭示了对话式 LLM 在部署层面可能带来的新型隐私风险,并为平台治理与对话安全设计提供了重要参考。
本文将围绕豆包助手的技术实现路径、安全及隐私考量、潜在安全风险展开进一步讨论。
本文基于对多款产品的实战审计经验,结合行业已发生的真实安全事件,系统性地分析指纹浏览器行业中存在的安全风险。文中不涉及具体厂商名称和可利用的漏洞技术细节。
本文在代码生成大模型安全方向上提出了一个非常关键且长期被忽视的问题:LLM 在推荐第三方依赖时产生的“包幻觉”并不仅是普通生成错误,而是可以被攻击者直接转化为现实世界...
本文提出了PentestAgent,一个基于LLM的多代理自动化渗透测试框架。
微信公众号