微软安全研究员利用Security Copilot辅助分析大型复杂代码项目(GRUB2、U-Boot和Barebox),在其中找出了20个零日漏洞,据估算Security Copilot给研究员节约了约一周的手动...
分析与梳理AI医疗影像技术面临的多种合规及法律风险,进一步探讨AI医疗影像系统在数据合规、个人信息保护、知识产权及责任承担方面的法律监管及风险防范问题。
深度解析美军十大前沿项目:从覆盖全密级的“联合作战云”到用AI改写百万行代码的“C转Rust计划”,从动态自组网的“战斗网络化”到利用心理学误导攻击者的“认知防线”,揭秘美军...
本文对伊朗黑客组织针对油轮卫星通信系统攻击事件进行技术分析,并提出相关建议。
MIT、Apache 2.0、BSD 3-Clause、ISC、Unlicense五大协议暗藏哪些"生死符"?
从经济绞杀到信息操控,解析五角大楼为何要成立统管中情局、特种部队、FBI的超级部门。
GPU暴力破解对于使用短密钥的很多国际标准和包括军事加密通信在内的现实应用来说是一个紧迫的威胁。
发现攻击者和受害者都破绽百出。
研究建议,加快制定中国特色网络安全政策法规,构建基于内生安全的网络安全架构,推动网络安全责任从用户侧向制造侧转移,为建立全面的网络安全责任和质量控制体系提供有力...
榜单综合了大模型爬虫的请求量、覆盖网站范围、被封禁频率以及对服务影响的严重程度等维度。
本文选取了国家安全、网络安全、网络信息内容安全、数据安全、个人信息保护、数据资源开发利用、公共数据授权运营、数据跨境、人工智能、平台监管十个领域作为讨论维度,以...
本文将从攻击者视角梳理DARKNAVY对Web3硬件钱包开展的一点研究。
本篇文章将以系统演化为起点,深入揭示用户在Android中为何“身份注定暴露”。
美国NIST发布对抗性机器学习最终防御指南,包括预测性人工智能系统和生成式人工智能系统。
2022年极棒我们曾验证宇树机器狗存在可以被远程劫持的安全漏洞,新版机器狗GO2在安全性上是否有更好的表现?
本文将简要介绍DARKNAVY前期对Starlink用户终端开展的初步探索。
一个好的人工智能检测工具需要满足哪些标准?为什么说“AI水印”还有很多尚未解决的技术和法律问题。除了水印外,我们还有没有其他可信赖的工具?
日本采取软法范式的监管制度,强调技术发展优先,依靠发布的监管原则及指南引导企业自主治理,形成以企业为中心、多方利益相关者共同参与治理的监管格局。
通过分析提炼 AI 对密码学带来的影响、威胁和挑战, 结合当前信息技术发展现状和趋势, 面向 AI 的密码学应重点关注和发展以下 8 个方向.
本文试从医疗数据交易的视角出发,试探讨医疗数据来源及其权属问题,并进一步分享数据产权交易所对于医疗数据交易的实践经验。
微信公众号