PS1Bot主要攻击目标为Windows用户,可能导致敏感信息泄露、系统受控等风险。
我们对网络安全的理解必须升维:未来的网络安全防线将是由无数个AI Agent共同构成,有弹性、能进化、会思考的“有机生命体”。
清华大学网络研究院NISL实验室发布SecCodeBench 2.0。
共包含3000个测试题,具有风险知识精细化、应用场景多元化、测试方法丰富三方面特点。
报告定义了AI安全运营中心核心架构模型,评估了13家供应商,并提供了分析框架、技术基准和分阶段部署策略。
攻击者可以利用此漏洞注入任意命令到Git参数中,可能导致未授权的命令执行或其他安全问题。
生物技术巨头因美纳被指虚假宣称其检测设备符合政府安全标准,但实际上存在大量安全漏洞。
本文提出了一种名为MH-Net的新型多视角异构图模型,通过将不同位数的流量比特聚合为多种类型的流量单元,构建多视角流量图,丰富了信息表达粒度,并提升了模型性能。
现有的方法对大语言模型(LLM)「越狱」攻击评估存在误判和不一致问题。港科大团队提出了GuidedBench评估框架,通过为每个有害问题制定详细评分指南,显著降低了误判率,揭...
SafePay近日宣称已从英迈受损系统中窃取了高达3.5TB的数据,并威胁若英迈不支付赎金,将在暗网公开这些敏感信息。
解决数智时代的安全问题,必须内生为本,以“零事故”为目标。
深入探讨了通信网络中引入抗量子密码的策略与关键技术,分析了通信网络现有安全体系的架构与潜在漏洞,提出了渐进式的抗量子密码引入策略,包括过渡期内混合加密方案的实施...
从战略意图、演习特点、核心趋势等维度对2025年度美国及其盟友举办或参与网络演习进行系统性地梳理,并探讨这些演习所反映出的美国网络空间战略的深层演变与未来挑战。
到2030年,先发制人型网络安全(Preemptive Cybersecurity)解决方案将占据IT安全总支出的50%,而这一数字在2024 年尚不足5%。
Orion创新性地结合了大语言模型(LLMs)在代码理解与推理方面的能力,以及传统确定性工具在验证与细粒度分析上的优势,建立了一套多agent协作的自动化体系。
该法案聚焦前沿AI模型,为大型或前沿人工智能系统的开发者设定了新的透明度要求,并包含了安全测试条款。
宁有种乎。
美国防部基于网络劳动力框架开展网络部队战备情况分析。
本文的研究为理解和防御 LLM 越狱提供了新的视角,也提醒业界亟需更加透明且强健的防御机制,以提升 AI 安全与伦理的底线保障。
选取2起典型事件予以公布,为重要行业领域提供安全预警。
微信公众号