新型安全威胁持续涌现,对现有网络安全治理体系、监管框架及应对策略形成全方位挑战。在此背景下,亟需深刻认识生成式人工智能给网络安全带来的新变化、新风险与新挑战,推...
企业不应流连于夸大其词的宣传或陷入到过度炒作所带来的恐惧中,而是应该关注AI的可持续的发展路径、实际的经济效益以及切实可行的应用场景。
旨在阻止联邦机构采购和使用中国等“外国对手”研发的人工智能技术。
当大模型接入开放、动态的互联网环境时,不仅面临信息质量参差、实时计算延迟等技术难题,更潜藏数据安全、内容合规等系统性风险。因此,深入研究大模型联网的风险与应对举...
深入探讨前沿人工智能模型带来的监管挑战,并构建有效的监管框架和安全标准,成为当前亟待解决的重要课题。
世界主要国家和地区相继出台人工智能法律政策,加快相关立法与战略布局。国际组织也将人工智能发展与安全纳入核心议题,与各国政府共同构成全球人工智能治理的重要推动力量...
《指南》的核心内容是限制高风险武器研发,其旨在最大限度地发挥人工智能效能并降低利用风险。
明确提出现阶段群智能系统涵盖数据、通信、系统可靠、鲁棒和信任管理的安全目标与相关数据、身份和意图的隐私保护目标,并分析主要攻击方法及相关防御技术。
文本检测工具中,检测标准参差不齐,明显误判、漏检、乱检的情况均有存在。而图片检测工具中,均对PS后的摄影图片难以识别
OpenAI首次公开承认自5月中旬以来,一直在悄悄保存用户已删除和临时的聊天记录,事件曝光后引发众怒,一场关于AI隐私的风暴正在酝酿。
Zuboff写《监控资本主义时代》时,距离ChatGPT的爆发还有三年。如今,当我们身处生成式AI(尤其是大语言模型)日渐渗透的2025年,再回望她的诊断,不得不承认:那场关于“数...
日本《人工智能利用促进法》倾向于赋权中央政府对技术发展趋势进行监测、调查滥用情况,并向人工智能提供者发出指导建议。
本文对Anthropic发布的最新一代大模型Claude 4系列及系统卡研究报告进行分析与解读。
本文主要介绍其2023至2025年开展的人工智能项目及重大动向。
四国网络安全机构联合发布保障AI系统数据安全的指南,为AI数据集生成唯一识别码,可有效发现未经授权的修改或损坏,从而保障数据的真实性。
我们在享受技术红利之时,也应警惕数据安全与隐私保护等问题,特别是其存在的泄密风险隐患,妥善保护好个人信息和敏感数据。
讨论了AI系统的“失控自主复制”的威胁模型,以及失控自我复制的能力阈值划定和评估。
提示词攻击手段丰富多样,主要可分为黑盒攻击和白盒攻击两大类。
从教育、技术、伦理多个角度分析生成式人工智能教育应用过程中的安全风险问题,并提出应对策略。
生成式人工智能(GenAI)如何改变行业实践,推动企业软件从“辅助工具”迈向“智能代理”的根本性转变。
微信公众号