文 | 中国人民公安大学国家安全学院 苗争鸣;清华大学自动化系 许展玮;香港中文大学(深圳)人文社科学院 倪桂桦

生成式人工智能是基于算法、模型和规则,通过学习大规模数据集,能够生成文本、图片、声音、视频、代码等的技术,其工作原理主要基于深度学习技术。当前,生成式人工智能技术被广泛应用,直接关系国家安全。一方面,生成式人工智能技术提升国家安全情报数据的分析与收集能力,优化国家安全事项决策部署,增强军事领域武器系统的自主决策效能;另一方面,生成式人工智能技术的低门槛、平民化造成某些具有安全隐患的技术过度扩散;深度伪造技术生成的虚假信息塑造民众认知,影响国家政治安全。此外,生成式人工智能因耗能过多可能存在引发能源匮乏等风险,导致国家或地区出现能源短缺的隐患。因此,需要从行为主体、技术本身、认知塑造和国际合作视角提出应对解决措施。

一、生成式人工智能大模型深度赋能国家安全

生成式人工智能技术正成为维护国家安全的重要工具。生成式人工智能技术能够优化国家安全决策过程,合理分配资源,也可提升国防领域武器系统智能化水平,提升攻防效能,还有助于构建国家安全预警防御体系,推进国家安全体系和能力现代化建设。

(一)优化国家安全决策与资源配置机制

生成式人工智能技术在国家安全领域,能够大幅提升情报搜集、分析与预警能力。生成式人工智能技术通过大数据挖掘和深度学习技术,可实时处理海量情报信息,迅速识别潜在威胁,并预测未来安全风险,特别是能够提前预警危害国家安全的行动或异常行为,并提出多种应对决策选择,为决策者提供支持。例如,美国国土安全部已宣布将强化利用人工智能应用程序,全面提高边境安全、网络安全和运输安全等,并在具体执法过程中借助生成式人工智能技术,提供文档搜集与总结搜索结果的功能,通过整合数据、情报和文档,促进执法工作开展。

生成式人工智能技术可构建高精度虚拟环境,为国家安全领域提供模拟危机场景的平台,实现模拟应急演练和预案制定,从而提升国家应对突发事件的能力。国家安全机构通过运用生成式人工智能技术,优化资源配置,实现智能化管理和调度,整合国家安全各领域资源,确保资源有效管理和调配,进而提高维护国家安全的整体效能。例如,特朗普新政府将人工智能技术融入政策分析,并采用新的分析技术制定跨部门协作策略,打破联邦机构的官僚壁垒,进而改革国家安全委员会的运作机制。美国政府还使用人工智能技术加强五角大楼与各相关部门的联系,美国国防部利用人工智能大模型技术生成多种政策选择,并通过深度学习技术提取国内其他机构提供的数据信息,整合不同机构数据,创建美军战略层面作战规划,并提供基于数据驱动的政策建议。

(二)提升国防领域武器系统与攻击防御效能

在军事安全领域,人工智能驱动的无人机等自主武器系统早已出现。人工智能自主武器能够在复杂战场环境自主执行任务,增强国家防务能力,维护国家领土安全。优化生成式人工智能算法和模型,可进一步提升自主武器系统的智能化水平和作战效能,在减少战斗人员伤亡同时,实现精确打击和高效防御。随着美国等国军队采用生成式人工智能技术,军事领域规模化部署应用人工智能技术或将打破全球军事平衡。

数字化时代,大国博弈主要竞争领域由传统的物理空间转向数字空间。生成式人工智能技术也能够很好地构建数字空间安防体系,通过不断自我学习进化,提升自身数字空间攻击防御能力,赋能数字空间安全。生成式人工智能能够识别恶意代码与各类攻击入侵等行为,并自动采取应对措施,形成无形的防护盾,并基于既有的安全攻击数据,生成防御指南方法和预测未来攻击态势,提升安全攻防能力,确保国防信息系统及关键基础设施的安全稳定运行。2024年12月,美国国防部下属机构首席数字和人工智能办公室(CDAO)与国防创新部门(DIU)合作宣布成立新的人工智能快速能力小组(AI RCC),目的是加速国防部使用如生成式人工智能等技术,加快尖端人工智能工具的部署。在乌克兰危机中,乌克兰部署推进人工智能驱动的无人机系统参与军事行动,减少直接作战人员的参与,提高战斗力,并依靠生成式人工智能系统优化战场决策。

(三)推动国家安全预警防御体系和能力现代化

随着数字化和智能化技术在国家安全治理实践中的战略地位日益凸显,生成式人工智能技术已成为国家安全体系和能力现代化建设的重要需求之一,成为提高国家安全态势感知能力、健全国家安全风险研判与防范化解机制的基础。政府借助生成式人工智能技术,可以更加精准地识别和评估国家安全风险,进而制定更加有效地应对安全威胁的策略,从而全面提升国家安全保障能力。生成式人工智能技术可以模拟国家安全威胁场景,辅助决策者预判风险并制定应急预案,构建国家安全防范机制。在公共安全领域,生成式人工智能技术能够自动生成政策解读文本、快速响应突发公共事件信息需求,提升政府治理精准度与公信力,优化国家安全治理模式。生成式人工智能技术将成为维护政治安全、数据主权、网络空间安全的重要工具,助力国家安全体系和能力现代化。综上所述,生成式人工智能技术在国家安全领域,以其技术优势和广泛应用前景,逐步成为赋能国家安全的重要力量。

二、生成式人工智能技术带来的国家安全隐患

生成式人工智能技术在带来巨大社会效能提升的同时,也给国家安全带来隐患。例如,技术门槛的降低,导致技术外溢和扩散的不可控;深度伪造技术可以制造虚假新闻、假冒政府公告,操纵公众认知;人工智能技术的迅猛发展导致对电力需求大增,引发国家能源安全风险。

(一)技术平民化带来的国家安全风险

随着生成式人工智能技术的普及、技术门槛的降低,技术扩散会带来一系列风险隐患。例如,一些未经规范的生成式人工智能大模型技术,能够查询制造高度致命和可传播的病原体步骤,以及如何制造病毒软件的技术,增加了人类面临技术威胁风险的可能性。技术门槛的降低,使以假乱真的现象日益普遍,也使智能换脸和语音伪造的诈骗问题日益突出,为不法分子提供了新的技术手段,例如利用生成虚假信息实施网络诈骗对社会秩序和公共安全构成威胁。

人工智能技术“虚构化”生成带来信息过载的安全隐患,需要警惕。生成式人工智能大模型技术存在信息生成过载问题,太多无用信息和非真实信息可以导致互联网回音壁效应。在这一过程中,技术平民化导致民众无法识别大模型无中生有的信息。甚至,生成式人工智能模型可能成为“邪恶教程指南”,将涉及复杂的产品制造方法,提炼成普通民众可理解和使用的说明,并帮助用户规避开发相关安全产品的禁令。例如,对于普通大众而言,由于生成式人工智能技术的出现,访问、编辑和合成病毒基因组技术变得不再遥不可及。

(二)虚假信息误导舆论威胁政治安全

生成式人工智能可能会用来通过伪造技术操纵公众舆论,影响决策并威胁政治稳定。一是生成式人工智能技术会生成虚假信息,引导网民舆论认知和意识形态。生成式人工智能具备快速生成大量仿真度高的文稿、图片和音视频的能力。不法分子可能利用这一技术进行诈骗,包括捏造事实、传播网络谣言和虚假有害信息等非法活动。这些虚假信息可能对公众产生误导,损害国家安全和形象。二是生成式人工智能技术能够引导舆论认知,对政治产生影响。例如,美国众议院议长南希·佩洛西的一段视频被故意放慢语调,使其看起来像说话含糊不清,可作为政治对手攻击她的证据。三是生成式人工智能能够制作高度针对性的深度伪造视频、进行虚假宣传活动和大规模网络攻击,直接造成地缘政治风险,对国家安全和政府信任构成威胁。四是影响国家选举和政治安全。不法分子可能会使用人工智能根据目标兴趣量身定制发起复杂网络钓鱼攻击,进入选举系统,对国家选举公正和政治稳定造成影响。此外,过度使用生成式人工智能技术还会出现技术依赖风险。随着生成式人工智能技术的发展,人类可能愈加依赖人工智能模型生成的内容,还可能逐步丧失辨别生成内容真伪的能力,甚至最终削弱个人的认知与创造能力。随着生成式人工智能控制越来越复杂和关键的系统,可能会出现以人类无法理解的方式优化工作流程的现象。由于人类对人工智能技术愈加依赖,无法理解的生成内容可能模糊人类和机器决策界限,破坏人类创造性与能动性。

(三)大模型技术规模化部署引发能源安全问题

人工智能技术发展将加速全球能源消耗,造成能源安全危机。生成式人工智能技术作为高耗能的技术模型,训练模型可能需要数周或数月的时间,并在此期间耗费大量计算资源和电力资源。根据2025年3月《自然》杂志网站发表的题为《人工智能到底会消耗多少能源?好的、坏的和未知的》(How much energy will AI really consume? The good,the bad and the unknown)的文章,美国弗吉尼亚州已建有340个数据中心,相关数据中心耗电量占该州电力使用量的四分之一以上,同时,美国数据中心电力消耗超过10%的州至少有5个。2025年1月,波士顿咨询公司发表题为《打破数据中心增长的障碍》(Confronting Challenges to Seize the Data Center Opportunity)的报告提出,到2030年,美国数据中心的用电量将是2022年的3倍。此外,自2012年以来,OpenAI训练模型所需的算力每3.4个月翻一番。预计,到2040年,信息和通信技术行业的碳排放将占全球总量的14%,而其中主要来自数据中心和通信网络。

生成式大型语言模型的广泛部署,尤其是本地化部署策略的实施,将导致能源的过度消耗,并可能引发能源安全问题。大型语言模型的运行依赖庞大计算资源,特别是具备并行计算能力的GPU,耗电量巨大。在模型训练过程中,模型规模提升和数量急剧增加会导致能耗显著上升。此外,大型语言模型遵循规模效应原理,随着模型参数和数据集规模的扩大,模型的智能性能将实现质的飞跃。在各大企业持续扩大模型规模的过程中,对电力资源的需求将产生巨大压力,进而可能引发全球性的能源安全危机。

三、规制生成式人工智能技术赋能国家安全

生成式人工智能技术对维护国家安全至关重要。这些技术既可以用于增强安全防御,也可能成为信息战和认知战的攻击工具。国家应从健全监管与审查机制、建立人工智能安全防御体系、加强国际合作与规则体系建设等多方面入手,防范并遏制生成式人工智能犯罪,确保技术为国家安全服务,而不是成为潜在的安全风险。

(一)建立全流程多主体的监督机制

在生成式人工智能的生命周期全流程构建人工智能监督机制,同时各个行为主体都应参与生成式人工智能监督,进而建立全流程、多主体参与的监督机制。从时间上看,需要覆盖生成式人工智能技术的研发、部署、应用和反馈全过程;从行为主体看,需要整合政府、企业、学术机构和社会公众等多方主体,确保生成式人工智能技术的安全性。

一方面,针对生成式人工智能技术,各国都需构建多元主体的监督体系。一是政府主导出台关于生成式人工智能的法律法规。建立生成式人工智能技术的伦理与合规标准,如隐私保护、公平性、算法透明度要求。设立专门的安全问题监管机构,如设立生成式人工智能安全审查委员会,负责监管技术和系统的开发和使用,规避潜在安全风险。二是强化生成式人工智能技术企业安全监督。技术企业在研发相关技术时应考虑将安全问题前置,也应在内部建立人工智能安全和伦理审查小组,确保算法安全和可靠,并做好算法安全评估。同时,第三方独立机构对生成式人工智能系统安全性与可解释性进行审核。第三方机构可通过算法模型创新、多技术融合、标准体系建设等路径,在保障技术合规、防范系统性风险方面发挥关键作用,有助于构筑预防生成式人工智能滥用的立体化防御网络体系。三是强化学术机构与社会的安全预警监督。要推动学术机构参与构建生成式人工智能技术评估和风险预警研究,提供专业学术咨询建议,同时鼓励媒体和公众参与生成式人工智能的安全问题监督,及时反馈生成式人工智能技术危害国家安全的行为。

另一方面,要构建生成式人工智能技术安全监督机制,贯穿生成式人工智能技术的研发、部署、应用和反馈全过程。在生成式人工智能技术研发初期,应对技术路径、算法模型安全进行严格审查,确保其符合伦理与安全标准。在部署阶段,加强对技术系统的安全测试,防止潜在安全漏洞和隐患。在应用阶段,持续监控技术的运行状况,及时发现并处理可能的安全风险点。在反馈阶段,重视用户反馈和投诉,及时改进生成式人工智能技术可能产生的安全问题。通过全流程监督,确保生成式人工智能技术在各个环节的安全隐患都能得到有效管控。

(二)前置技术防范与认知安全理念

在现代网络空间对抗过程中,单一技术手段已不足以应对复杂的安全威胁,必须前置技术防范措施,强化认知安全理念宣传,形成全方位的安全防护体系。前置技术防范是一种主动防御策略,强调在威胁发生之前通过技术手段进行预警、预测和拦截。认知安全是一种更高层次的信息安全理念,涉及如何防止敌对势力利用信息技术影响个体或群体的认知、心理和行为决策。

一方面,从技术维度出发,通过提升技术防范能力规避生成式人工智能技术影响国家安全。一是在技术的研发前期评估数据收集、训练方法、潜在社会安全的影响,同时开展安全性测试,通过建立沙盒环境,测试人工智能模型的鲁棒性、抗攻击性等。二是设立算法备案与认证机制,识别如模型歧视、数据泄露等异常情况。三是通过人工智能内部对抗的方法,提升技术的安全性。政府应主导研发人工智能驱动的反伪造算法,利用模式识别、语音指纹分析、元数据审查等方法检测生成的虚假内容,并在社交媒体和新闻平台部署自动化内容审查系统,实时监测并标记生成的可疑信息。四是强化政府与军方数据库的人工智能防护机制,防止对手利用生成的误导性数据干扰国家安全决策。

另一方面,从认知维度出发,在生成式人工智能技术应用中,构筑维护国家安全的观念。一是要从认知维度树立重要国家安全的思想。不使用非法生成式人工智能大模型,避免受错误信息误导影响决策。二是提升全民人工智能安全认知水平。在当前教育课程体系加入生成式人工智能技术潜在安全危害等相关课程,培养公民对生成式人工智能技术伪造信息的识别能力,增强公众对深度伪造、人工智能操控舆论的认知。三是强化国家在生成式人工智能安全认知引导的主体性作用。通过设立国家级信息认证平台,集中发布权威信息,减少虚假信息对公众的误导,避免公众陷入信息茧房,增强不同群体之间的信任,降低借助生成式人工智能操纵舆论的可能性。此外,针对人工智能消耗过多电力资源而影响能源安全的问题,也需要通过创新使用新能源技术、优化数据中心布局等方式,未雨绸缪解决能源安全问题。

(三)构建国际合作技术规制共同体

当前,生成式人工智能技术潜在的安全隐患,已超过单一国家掌控范畴,亟须国际合作共同治理影响国家安全的生成式人工智能技术不当应用。一是构建生成式人工智能技术的国际治理机制。各国可通过联合国等国际组织,共同制定治理框架,在伦理规范、算法透明度、数据安全等领域构建合作协议。二是推动全球生成式人工智能技术在军事领域的审慎应用。各国可建立跨国生成式人工智能技术风险评估机制,特别是对生成式人工智能技术“致命性自主武器系统”应用的安全评估问题,防范技术滥用和安全隐患。三是强化共同防范跨国生成式人工智能安全威胁。各国通过联合制定生成式人工智能伦理与安全规范,尽快达成全球性的关于生成内容的标准,规制技术应用的合法性和安全边界,防止跨国信息操控和认知战。各国可共享生成式人工智能威胁全球安全的情报,联手防范生成式人工智能生成的网络攻击、深度伪造欺诈等安全风险。各国通过合作构建生成式人工智能监测系统,实时分析全球范围的人工智能大模型可能存在的潜在安全威胁,如操纵舆论、数据泄露等问题,及时采取应对措施,平衡好数据安全与合作的关系。

四、结 语

生成式人工智能技术正深刻重塑地缘政治格局与国家安全体系,对全球安全格局和国家安全态势产生重要影响。当前,世界处在一个可能引发颠覆性变革的十字路口,生成式人工智能技术的兴起,不仅预示着一场技术革新,同时预示着全球地缘政治博弈的开始。技术工具演变为地缘权力载体,引发的“数字权力”再分配可能重塑国际秩序。面对新兴的非传统安全问题的出现,各国需要重新审视国家安全治理框架,应认识到生成式人工智能技术在安全维度存在的双重特性。联合国应主导构建一个包含全流程和多方参与的监督机制,预先采取技术防范措施及加强认知层面的重视。各国应在此机制中加强合作,共同审慎地利用生成式人工智能技术赋能国家安全。【本文系国家社会科学基金重点项目“以加快构建新安全格局保障新发展格局研究”(23AZD067)的阶段性成果】

(本文刊登于《中国信息安全》杂志2025年第4期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。