近日,七国集团网络安全专家小组发布联合声明,系统评估了人工智能对金融体系的深远影响。本文将从技术应用、风险与治理等维度,对该声明进行解读。
声明指出,AI正深刻重塑网络安全格局。其影响是多方面的:既可显著增强网络防御能力,也可能被用于放大既有威胁,同时还会暴露AI系统自身在设计与数据使用上的脆弱性。
一是AI增强网络韧性的五大应用。声明详尽列举了AI在防御端的具体优势,这些应用正深刻变革着传统安全运营模式。异常检测与响应:AI能够精确识别网络中细微的异常模式,并驱动自适应防御机制。例如,搭载AI技术的Web应用防火墙可在毫秒级时间内实时拦截威胁。欺诈检测与响应:通过持续学习不断演变的欺诈手段,AI能够更高效地识别支付欺诈、身份伪造以及AI生成的钓鱼邮件。预测性维护与修补:AI通过预判潜在的系统故障和软件漏洞,并根据风险优先级自动安排修补计划,实现从被动响应到主动预防的转变。提升安全运营中心效率:生成式AI通过总结安全事件并推荐响应方案,提高整体运营效率。供应商与供应链风险监控:AI工具通过整合财务指标与公开数据,对第三方合作方的风险进行持续、动态地评估与预警。
二是AI放大现有网络风险的三种途径。声明同时发出警示,AI的广泛普及降低了发动高级攻击的技术门槛,让攻击者能够以更高的效率、更大的规模开展行动。其一,AI驱动的钓鱼与冒充。借助生成式和代理式AI,攻击者能够批量生成高度个性化、极具迷惑性的钓鱼信息和深度伪造内容,极大地增加了检测与防御的难度。其二,自动化漏洞开发。高速扫描网络与代码库,自动完成攻击前的侦察以及漏洞利用路径的探索,大幅提高攻击效率。其三,智能化恶意软件。AI具备开发出能够实时进化以躲避检测的恶意软件的潜力,不仅降低网络犯罪的技术门槛,还会增加攻击的数量和复杂程度。
三是AI系统自身存在的新型安全风险。除了会对攻防平衡产生影响外,AI系统本身也有可能沦为攻击目标,或者成为攻击的载体。首先是数据中毒。攻击者通过操控AI模型的训练数据或运行时数据,降低模型性能,或者植入可在未来被利用的“后门”。其次是数据泄露。在与公共AI工具交互的过程中,可能会在不经意间披露或被窃取敏感信息。最后是提示注入。攻击者借助系统提示操纵输出结果,或者检索敏感信息。
基于上述风险,声明进一步深入剖析AI可能给金融体系带来的系统性影响,并着重指出,金融机构在应用人工智能时,面临着一系列相互交织的风险。其中包括因专业知识不足而引发的模型与供应链风险,以及由此加剧的、在人类监督薄弱情况下难以有效应对的运营风险。
针对上述挑战,声明为金融机构和监管当局分别提供了具体、可操作的行动建议。
对于金融机构,建议从以下几方面入手,系统梳理、规划内部治理框架:
网络安全集成:掌握AI系统的设计与部署是否遵循了“安全设计”原则?
数据安全和谱系:数据源是否经过严格审查?数据的流转与使用谱系是否清晰可追溯?
日志记录和监控:是否建立了有效的机制,对异常情况和边缘案例进行全面记录与审查?
身份和身份验证:系统是否具备抵御身份冒充及AI支持的欺诈行为的能力?
事件响应:应急预案和操作手册是否已更新,以专门应对AI增强型攻击及AI系统自身故障?
资源、技能和意识:如何确保拥有足够的专业知识,来评估、部署和持续监控AI的使用?
对于监管机构,声明建议:
提升能力:强化监管机构内部对AI网络安全风险的理解与专业判断能力。
引导行业实践:鼓励并推动金融机构构建健全的AI治理和安全体系。
促进多方协作:作为沟通桥梁,推动金融行业、科技公司和学术界之间的信息共享与合作,共同跟踪AI技术发展并应对新兴风险。
融入现有框架:将AI相关风险评估无缝整合到现有的金融风险监管流程中。
声明的发布,体现了金融体系相对发达国家对AI时代金融安全的深刻洞察与高度共识。其核心启示在于:未来的金融网络安全,将不再是IT部门的孤立行动,而是一场涉及战略、技术、人才和生态的系统性工程。谁能更好地驾驭AI,谁就能在未来的金融安全竞争中占据主动。
文章参考来源 | G7 Cyber Expert Group Statement AI and Cybersecurity 2025.pdf
声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。