模型上下文协议(MCP)是 LLM 连接外部工具与数据源的机制,成 AI 集成事实标准,被多家巨头采用。但因缺乏统一安全认证,MCP 应用存数据安全、调用逻辑等隐患。本文整理 1...
研究结果表明,大语言模型可能提供错误但符合用户态度倾向的信息,而用户未对其进行检验或验证,此现象称为“聊天室效应”(Chat-Chamber)。启元洞见编译了文章中的核心内容...
第11网络战营作为美国陆军CEMA的核心力量,其发展历程体现了美陆军在多域作战背景下对网络与电磁空间融合能力的需求。
阐述欧盟执法部门合法有效获取数据的前进方向。
本文将通过对该事件的风险分析,探寻切实可行的应对策略,为企业实现稳健、持续地发展提供一些指导方向。
生成式AI正在重塑现代军事决策的范式边界。
英国首席大法官领衔发布司法AI新规,明确应用准则促公正高效。
本文结合银行数据中心实际介绍了防爆安检技术的应用。
从TCP/IP 层到应用层的指纹识别。
华安证券从行业合规风控业务难点及痛点出发,打造合规风控一体化平台,推动公司合规监管从“风控孤岛”到“全域监管”的转型升级。
PrompTrend通过跨平台收集漏洞数据,并利用多维评分框架进行评估,填补了正式安全研究与社区驱动漏洞发现之间的关键空白。
在本文中,我们研究了当前对抗攻击方法的局限性,特别是它们在应用于大型语言模型(LLMs)时的可迁移性和效率问题。
AI智能体越来越多地被称为人工智能创新的“第三次浪潮”,也带来了复杂的治理问题和网络安全挑战。
事实核查技术是一个结合了NLP、机器学习、信息检索和知识图谱的复杂系统工程。
本文首次尝试研究典型VLP模型的对抗迁移性。系统地评估了现有的攻击方法,并揭示了尽管它们在白盒设置中表现出色,但仍然表现出较低的迁移性。
深度合成是生成式人工智能最主要的技术,具有超拟真、反鉴别、快更迭、通用性强等特征,由此衍生出的深度伪造风险日益严重,亟待监管治理。
令人万万没有想到的是,本意是提升模型准确性和安全性的RAG,反而成了一种非常高级的”越狱“,本地知识库的文档(即便是安全的文档)越多,越有可能触发大模型的对齐漏洞,...
从战略级决策助手到智能兵棋推演,揭秘北约AI革命背后的数据引擎。
foundation-sec-8b,80亿个参数、开放权重的大型语言模型,专为安全而构建。
本文以“租用云服务、调用算法接口”为视角,分析为什么架构设计会成为出口管制的判断依据,租用一台云服务器是如何踩到“合规红线”的,探讨以上内容对全球AI产业链合作模式和...
微信公众号