作者简介
苑卫国
中国互联网络信息中心正高级工程师,长期从事网络安全等领域相关研究工作。
张新跃
中国互联网络信息中心正高级工程师,长期从事域名安全等领域相关研究工作。
尉迟学彪
中国互联网络信息中心研究员,长期从事域名滥用治理领域相关研究工作。
论文引用格式:
苑卫国, 张新跃, 尉迟学彪. 生成式人工智能技术对网络安全领域的影响分析与启示建议[J]. 信息通信技术与政策, 2025, 51(1): 2-9.
生成式人工智能技术对网络安全领域的影响分析与启示建议
苑卫国 张新跃 尉迟学彪
(中国互联网络信息中心,北京 100070)
摘要:当前生成式人工智能技术正在蓬勃发展,带来了网络安全技术和产业的变革,人工智能技术的应用推动了网络攻击和防护技术对抗升级。基于大模型的网络安全产品和应用已成为网络安全行业新焦点,为网络安全产业发展注入了新动能。与此同时,人工智能大模型应用也带来了新的安全威胁,各国及地区持续关注生成式人工智能引发的网络安全问题,陆续出台各项针对性法规和措施。因此,通过分析生成式人工智能技术对我国网络安全产业的影响,并提出对策建议,对提升国家网络安全保障能力有重要意义。
关键词:生成式人工智能;网络安全;大模型;产业发展
0 引言
近两年,生成式人工智能(Generative Artificial Intelligence,GAI)开创了大模型主导内容生成的新时代[1-2],正引领一场新的技术革命。GAI基于自然语言处理和深度学习技术,通过在大规模通用数据上的预训练,结合不同场景和任务的微调,以及多模态数据融合方法,可以生成高质量文本、声音、图像、视频和虚拟场景等原创内容,提高代码编写效率,提升数据分析能力,改变人机交互方式。GAI已成为人们日常工作中的新生产力,推动了各行业生产方式结构性变革,展现出对未来生产、生活和国家竞争形态的巨大影响潜力。
在网络安全领域,GAI技术是“双刃剑”,其发展带来了网络安全攻击和防护技术的新变化,推动着网络攻防对抗的不断升级[3]。GAI的快速发展为网络安全技术和产业发展注入新动能,促进了网络安全产品功能和性能的提升[4],同时其存在的数据泄露、内容安全、模型安全和遭受网络攻击等安全问题和风险[5],对全球网络安全健康发展提出新问题、新挑战。
1 国外:GAI对网络安全领域影响分析
1.1 GAI的应用全方位推动网络攻防技术对抗升级
GAI技术为网络攻击手段带来全新变化。GAI应用进一步丰富了网络攻击工具,加速了网络攻击频度,提升了网络攻击组合能力,提高了网络攻击的智能化。当前已经成熟应用的基于GAI技术的安全攻击升级包括大规模分布式拒绝服务攻击(Distributed Denial of Service,DDoS)的智能构建、恶意攻击代码快速迭代生成、自动化的漏洞挖掘和渗透测试、高精准的口令爆破、高仿真钓鱼网站的快速生成、高仿真的网络诈骗和网络勒索行为等,造成普通攻击者实施网络犯罪的门槛降低,大大提升了安全防护难度。2023年4月,英国网络安全机构Darktrace研究显示,ChatGPT为代表的GAI技术兴起后仅1个月,复杂网络钓鱼攻击数量上升了135%[6]。另外,相关研究显示,在2023年,基于人工智能的深度伪造欺诈行为暴增30倍,并且已有多个高级持续性威胁(Advanced Persistent Threat,APT)组织利用人工智能技术实施了十余起攻击事件[7]。国外已出现多款基于大模型的网络安全攻击工具。例如,基于ChatGPT的开源自动化渗透测试工具PentestGPT,可实现渗透测试任务执行过程的自动化;基于开源大模型开发并使用大量恶意代码训练和调试的WormGPT,可自动生成代码执行各种网络攻击和快速迭代升级;基于大模型的网络钓鱼邮件生成工具FraudGPT,其生成的高逼真性钓鱼邮件可轻松绕过邮件网关防护。
GAI给网络安全防护技术带来新革命。GAI在知识语义理解、逻辑推理和交互决策等方面都取得了突破性进展,可以更好识别和应对各种复杂网络安全威胁的变化,给网络安全防护技术带来深刻影响,赋能网络安全迈向智能化时代。随着GAI技术逐步成熟应用,以及网络攻击的复杂性和规模持续增加,基于特征库匹配和专家经验的规则驱动安全,以及基于用户行为和流量威胁分析的数据驱动安全,开始迈向基于大模型的威胁检测、攻击预测和安全处置的智能驱动安全。大模型的涌现全面提升了应对复杂网络攻击的防护能力,可以保持对大量网络安全数据持续分析,提高了威胁检测和响应有效性。基于专业网络安全数据训练的大模型不仅可以自动识别常规攻击,学习和理解新出现的攻击模式,优化提升检测和识别精度,并可实时检测和修复安全漏洞。如2023年3月,微软公司推出了基于GPT-4的网络安全助手Security Copilot,该工具通过自动化工具汇集多个来源的安全数据和告警,可帮助终端用户快速识别和响应网络入侵行为;同年4月,谷歌公司推出基于网络安全数据训练的大模型Sec-PaLM,并发布云安全人工智能工作台(Security AI Workbench)的网络安全套件,结合对软件漏洞、恶意软件、威胁行为的综合感知能力,协助用户分析和应对网络安全威胁。
GAI技术易于扩展到各网络安全应用领域。在网络安全检测领域,可以提升恶意域名检测、恶意软件检测、异常行为分析、威胁情报分析、加密流量分析和代码安全检测等方面效果;在网络安全研判领域,可以增强对APT攻击事件的溯源分析能力,实现对网络安全告警日志数据的自动化分析处理;在网络安全处置领域,可以协助训练智能问答的安全专家,自动生成安全分析报告和处置建议,实现自主化风险控制和应急响应。
1.2 GAI为全球网络安全产业发展注入新动能
当前全球人工智能市场规模正迅速增长,根据《全球人工智能产业发展白皮书(2024)》,2023年全球人工智能产业规模达7 078亿美元,同比增长19.3%,GAI将实现快速商业化[8]。另外,机构Precedence Research分析,全球GAI的市场规模也将迅速增长,2023年为176.5亿美元,预计2033年将达到8 039亿美元,复合增速约46.5%;全球网络安全市场规模也将持续增长,2023年为2 381亿美元,预计2034年将达到8 785亿美元;全球基于人工智能的网络安全市场规模也将迅速增长,2023年为224亿美元,预计2032年达到1 028亿美元,复合增速约20%。
美国强化GAI技术领先地位。目前,美国在GAI技术研发具有领先优势,并不断迭代推出新的通用大模型。2023年3月,OpenAI推出超大规模多模态大模型GPT-4;6月,谷歌推出多模态视觉语言模型PaLM2;7月,Meta(原Facebook)推出LLaMA2开源大模型。2024年1月,OpenAI宣布启动GPT Store应用上线,其社区成员可以构建自定义GPT应用;2月,OpenAI发布文本生成视频大模型SORA,可以通过接收文本生成逼真短视频内容;5月,OpenAI推出GPT-4o多模态大模型,可以实时对文本、音频和图像进行推理;9月,OpenAI推出o1大模型,可以实现复杂的推理能力,尤其解决复杂科学、数学和编程任务。
美国开启了由GAI驱动的网络安全产品研发竞赛。随着GAI赋能各行业应用的深入,美国各主要公司推出多款基于GAI的网络安全产品应对新的威胁和安全需求。2023年4月,美国网络安全公司SentinelOne在RSAC大会上发布了一款基于大模型的网络安全威胁搜索工具,大幅提高了安全分析人员工作效率,IBM也在该大会上推出了新的安全运营产品套件,实现了智能化警报筛选和威胁搜索;12月,思科推出人工智能助手并将其嵌入防火墙策略管理平台,该智能助手经过全球最大安全数据集的训练,每日分析超5 500亿次各类网络安全事件。2024年5月,CrowdStrike在RSAC大会上推出基于大模型的安全运维平台(Security Operations Center,SOC),利用GAI技术实现流程自动化和安全运行效率提升。
美国政府加强与GAI企业合作以提升安全防护能力。美国政府加大对GAI技术在网络安全领域研发的财政资金补贴,提升该技术对国家安全和关键基础设施的防护能力。2023年6月,OpenAI宣布启动一项网络安全创新扶持计划,提升由人工智能技术驱动的新一代网络安全能力建设。2024年1月,OpenAI公司修改其有关禁止大模型技术用于军事目的应用的政策措辞,并与美国国防部开展网络安全防护系统的开发合作;2月,美国制定“先进网络安全计划”,开发人工智能工具以加快发现和修复关键信息基础设施漏洞;4月,美国公布微软公司正基于GPT-4大模型为美国部分情报机构开发人工智能网络安全应用。
1.3 GAI存在网络安全风险引发持续关注
GAI存在内容安全问题。一直以来,人工智能的使用存在普遍社会伦理争议,如果训练数据含有偏见可能导致大模型应用产生不公平或歧视性内容;如果训练数据存在侮辱性、违法犯罪等内容,模型会存在生成有害信息的风险;通过深度伪造技术等生成虚假信息进行网络诈骗,会扰乱正常网络传播秩序和社会秩序。另外,攻击者可以利用GAI技术,通过互联网的传播进行恶意社交媒体操纵。如2023年初发布的恶意信息传播工具PoisonGPT,就可被网络攻击者用来制造假新闻、扭曲现实和舆论操控。
GAI存在数据安全问题。大模型的训练和处理阶段涉及大量数据收集任务,数据安全和隐私保护就成为大模型发展中需要解决的重大问题[9]。大模型通过对话框的形式进行用户交互,容易导致用户个人信息或企业商业敏感数据泄露。如2023年3月,OpenAI公司称正式订阅ChatGPT Plus 服务用户的个人隐私和支付信息遭泄露;4月,韩国三星公司在引入ChatGPT后的20天内,就发生多起涉及半导体设备测量资料等企业内部机密数据泄露事件。另外,大模型通过关键字等诱导式的用户交互,可以有针对性地进行大范围数据收集和事件画像,存在涉及政治、经济、科技等国家安全的敏感数据泄露风险。
GAI存在模型安全问题。大模型自身也存在安全隐患,攻击者可以针对前期模型训练数据进行投毒攻击,还可以通过在应用场景中添加干扰信息或微小变动信息,使得模型生成结果出现错误或产生潜在危险输出。此外,针对大模型的对抗攻击手段已经出现,如指令注入攻击是攻击者通过操纵模型输入内容,可诱导模型输出非预期的结果,从而利用模型泄露敏感数据或者扭曲模型训练结果。2024年3月,开源大模型服务商Hugging Face被曝其提供的学习模型可加载恶意代码并对用户环境发动攻击,造成数据泄露和系统损害。另外,大模型底层构建的复杂性,以及深度学习模型的“黑箱”特性,给大模型应用带来了可解释性挑战,并出现大模型的“幻觉”等难题。
GAI应用服务存在遭到网络攻击的问题。作为一种典型的网络应用服务,GAI厂商在向用户提供系统应用服务时,就成为各种网络攻击的目标。如攻击者通过窃取ChatGPT应用程序接口(Application Programming Interface,API)与用户应用交互密钥,可以针对ChatGPT服务实施进一步网络攻击,造成敏感数据泄露等安全风险。2023年6月,网络安全公司Group-IB报道超10万ChatGPT用户账号被信息窃取类恶意软件盗取并在暗网出售。11月,OpenAI发布首届用户开发者大会后,遭到大规模DDoS攻击并出现异常流量模式,导致ChatGPT及其API服务出现长达24小时的周期性服务中断。因此,GAI服务系统需要加强访问控制和漏洞修复,防止未授权访问和阻止系统被滥用,提升应对异常流量攻击能力。
1.4 全球各国及地区纷纷出台监管措施,开展GAI安全治理
各国及地区持续关注GAI安全问题,各项保护法规和监管措施陆续出台[10-11]。2023年1月,美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)制定《人工智能风险管理框架》,对人工智能存在的安全风险进行分类;3月,英国政府发布了人工智能新监管框架的提案《支持创新的人工智能监管方法》,提出利用现有法律制度进行监管,避免过度监管阻碍创新;5月,美国政府发布《国家人工智能研发战略计划》,强调确保安全的人工智能和人工智能的安全;7月,美国7家人工智能巨头与白宫达成协议,将为人工智能生成内容添加水印;10 月,美国签署《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》;11月,首届全球人工智能安全峰会在英国召开,与会各国一致同意加强全球合作建立人工智能监管方法。2024年5月,欧盟正式批准《人工智能法案》,对GAI采取了基于风险等级的分类监管策略,加强对模型提供者的义务约束,并实施全链条的监督管理;9月,OpenAI等100余家企业签署了欧盟发布的《人工智能公约》,包括制定人工智能治理策略,确保合乎道德和负责任的人工智能开发。各国及地区对GAI安全的监管措施随着对该技术认识水平的提升而不断调整变化,在加强安全监管和治理的同时更强调监管的适度性和行业自律。
2 国内:GAI对网络安全领域影响分析
2.1 GAI对我国网络安全提出新挑战
GAI在网络安全领域的发展影响我国信息技术硬实力。人工智能将成为我国数字经济发展的核心驱动力量,未来还将给涉及国家安全各关键领域带来广泛深刻影响。GAI技术凭借其强大的网络渗透能力、舆情认知能力、处理分析能力,将会给我国发展带来新的安全风险和挑战[12]。基于GAI的网络攻击武器广泛使用在网络空间争夺中,并在威胁情报分析和网络防御系统中发挥重要作用。基于人工智能技术的深度伪造和虚假信息传播,已经成为操纵社会舆论的新方式。利用GAI技术还可以有效提升情报分析和作战方案生成能力。当前新一代人工智能技术已经成为大国科技竞争的焦点,核心算法和学习模型上持续取得新突破,算力设施和训练数据规模不断加速发展,在人工智能领域占据代差优势一方,可以在网络安全领域进行“先发制人”的降维式打击,给对方网络安全造成严峻威胁和挑战。
基于GAI的网络攻击威胁给我国关键信息基础设施安全防护带来新挑战。当前在大国博弈加剧的国际背景下,针对关键信息基础设施实施以运行瘫痪和服务中断为目的的网络攻击不断出现,特别是大规模DDoS攻击、针对软件供应链的APT攻击和伪装成勒索软件的恶意数据擦除攻击成为关注焦点。GAI技术提升了攻击者对关键信息基础设施侦察和信息收集能力,并可用于恶意代码生成、自动渗透攻击和漏洞挖掘利用等多项攻击任务,其强大数据处理能力极大提升攻击效率,其生成恶意软件的隐蔽性使得攻击更加难以检测,给关键信息基础设施特别是工业控制系统安全带来严重威胁[13]。此外,利用GAI技术开展针对关键信息基础设施的安全威胁评估,将提升关键信息基础设施的网络安全防护韧性和能力。
GAI技术对互联网络基础资源安全提出新挑战。GAI作为新兴技术,为网络安全技术发展带来新动力,同时带来新挑战。域名、IP地址、路由等互联网基础资源是互联网“神经系统”,互联网基础资源安全是整个互联网安全稳定的根基。GAI技术可以被攻击者利用获取互联网基础资源的控制权,发动大规模DDoS攻击,构建更加复杂的域名隐蔽安全信道,可能带来大规模网络瘫痪或路由隐私信息泄露,使整个互联网基础资源服务的安全稳定受到严重威胁。此外,利用GAI加强互联网基础资源关键技术攻关,将提升互联网基础资源领域的安全保障能力。
2.2 GAI给我国网络安全产业注入新动力
GAI成为我国网络安全产业发展新热点。近两年随着国外通用大模型的爆发式增长,国内相关企业也纷纷跟进推出相关通用大模型,并赋能制造、金融、医疗、交通和教育等各行业领域。据统计,截至2024年7月,我国已备案的人工智能大模型达197个,注册用户超6亿[14]。另外,根据中国网络安全产业联盟报告,2023年我国网络安全市场规模约为640亿元,2025年预计达到800亿元,进入稳健增长阶段,GAI成为其中发展热点[15]。2023年以来,国内各网络安全公司也积极探索GAI的应用,将大模型技术融入公司安全防护产品。深信服公司发布国内网络安全大模型,提升对日志和流量的安全检测能力,其升级版进一步提升了零日漏洞攻击和APT攻击检测能力;奇安信公司发布“Q-GPT安全机器人”和“大模型卫士”,提供虚拟安全专家和安全知识应答;安恒信息公司发布“恒脑安全垂直领域大模型”,实现其安全运营平台全新升级;绿盟公司推出“风云卫”大模型,为网络安全应用场景提供实战化安全运营和决策支持;360公司推出的安全大模型由攻击检测、运营处置、追踪溯源、知识管理、数据保护、代码安全等六大专家子模型组成。可以预见,GAI技术将带来国内网络安全产品格局的巨大变化,大模型将继续赋能安全日志分析、流量威胁检测、钓鱼邮件识别、恶意软件检测、数据分级分类等更多网络安全场景成功应用。
2.3 GAI对实现我国网络安全技术提出更高要求
目前我国算力资源建设很大程度上仍依赖国外算力芯片。人工智能大模型包括超数百亿乃至上万亿参数,无论通用大模型还是网络安全行业垂直领域大模型的训练和扩展,都需建立在充足的网络、算力和存储等基础资源之上。目前智能算力建设高度依赖先进人工智能芯片。美国政府多次升级对我国先进智能芯片和制成设备的出口限制。我国在先进人工智能芯片的研发设计和生产制造与国际先进水平存在一定差距,仍需促进算力芯片技术实现新突破,破解大模型发展的算力资源制约,提升算力供应链、产业链保障水平。
GAI模型核心算法研究仍与国际先进水平存在一定差距。由人工智能驱动的网络安全产品和应用竞争优势,主要取决于算力、算法和数据3个方面,创新算法是关键驱动力量之一。强大的基础模型会对原生应用爆发和开发生态繁荣起到巨大推动作用,扎实的基础模型研究会给各领域原生应用开发打下坚实基础。我国在大模型的行业应用领域具有一定优势,但是在底层技术理论、核心算法和框架平台的基础研究尚有一定差距。另外,人才对人工智能技术未来发展起到关键影响,我国在人工智能领域顶尖科研学者数量上并不占绝对优势,仍需加强高水平人工智能领域科技人员的培养和引进,加强核心算法和框架等方面基础研究和技术创新。
2.4 我国加强安全监管应对GAI带来新挑战
我国不断加强对GAI监管和治理[16]。面对GAI发展带来的网络安全问题和挑战,尤其引发的内容安全和数据安全风险,一方面,我国从技术发展长远角度,开始着手建立相关的法律法规和标准制度体系,加强对GAI有效监管。2023年8月,国家互联网信息办公室发布《生成式人工智能服务管理暂行办法》,对规范GAI应用和保护数据安全作出明确要求,要求服务提供者依法履行网络信息内容生产者的责任和网络安全义务。2024年3月,全国网络安全标准化委员会发布《生成式人工智能服务安全基本要求》,对语料安全、模型安全和安全措施等给出安全要求和评估方法,为相关主管单位评判大模型服务安全水平提供依据。2024年7月,工业和信息化部等4部门联合推出《国家人工智能产业综合标准化体系建设指南》,其中包括建设人工智能安全和治理标准体系,规范人工智能安全和治理的相关要求。2024年9月,全国网络安全标准化委员会发布《人工智能安全治理框架》1.0版,提出包容审慎确保安全等治理原则,同时对模型算法安全、数据安全、系统安全和网络攻击等安全风险提出技术应对和综合防治措施,为GAI安全可靠和可持续发展提供指引。另一方面,我国重视加强国际合作推动全球人工智能治理形成共识。2023年10月,我国提出《全球人工智能治理倡议》,倡议逐步建立健全法律法规,保障人工智能研发和应用中的个人隐私和数据安全,加强各国及地区在人工智能治理中的交流合作,共同促进全球人工智能健康有序安全发展。
3 启示和对策建议
3.1 加强政策引导,大力推动GAI在网络安全行业应用
加大GAI在网络安全领域应用的政策支撑,打造网络安全领域新质生产力。当前大模型在各行业应用进入关键时期,可适时发布促进GAI在网络安全行业应用的指导意见,支持鼓励GAI技术为传统网络安全产品赋能和应用场景创新,持续做大做强国内网络安全产业和人工智能产业,加强人工智能和网络安全人才培养和交叉学科建设,推动实现高水平科技自立自强。
适时出台促进GAI在网络安全领域的发展行动计划。及时总结我国GAI在网络安全领域阶段性发展成效,推进人工智能在网络安全领域最佳实践应用,加强网络安全和人工智能产业园的综合规划和布局,培育网络安全和人工智能交叉发展的专精特新企业,促进网络安全和人工智能产业融合发展。
3.2 创新协作机制,培育GAI在网络安全领域产业生态
基础自主算力资源建设是GAI发展的安全底座,需要多措并举加快我国算力基础设施建设,包括持续提升算力芯片设计能力和制造水平,加大国内芯片厂商智能芯片研发和配套软件的研发进程,完善和优化我国智能计算中心布局,提升算力资源协同共享和利用效能,降低网络安全等领域中小企业用算成本。
打造一批GAI的网络安全示范应用工程。组织开展GAI在网络安全领域应用的典型案例遴选工作,发挥行业标杆示范工程引领带动作用,鼓励大模型在网络安全领域应用场景技术创新,带动网络安全领域企业大模型发展进程,加快形成国家需要的网络安全行业大模型应用产品和方案,形成供给需求双轮驱动的网络安全产业高质量发展。
加强GAI和网络安全的国际合作和技术交流。通过加强国际技术交流合作,更好引进国外GAI的高端人才、先进技术和服务,提升网络安全服务和产品竞争力,促进我国网络安全企业向国际拓展业务。主动参与全球人工智能的使用规范和标准制定,共同打击利用GAI技术的有组织网络犯罪,共同应对GAI带来的网络安全新威胁。
3.3 鼓励技术研发,加快GAI在网络安全领域创新发展
布局GAI关键技术攻关。鼓励国内企业在大模型底层算法、框架平台等关键技术领域研发,支持通用大模型的基础平台设施建设,包括开发平台、代码编写平台、数据分析平台和模型维护工具等。推进我国全阶段大模型建设,打造高质量公共数据训练平台,掌握技术发展的主动权和话语权。加强大模型安全防护技术研发,提升大模型系统安全防御能力。
布局支持基于GAI的网络安全应用技术研发和科技创新。优先支持基于大模型的恶意加密流量检测、恶意软件检测、代码安全检测、自动化渗透测试、网络靶场场景构建、威胁情报聚合分析和智能运维等网络安全应用技术开发。支持面向网络安全领域的高质量语料库建设,打通大模型与多模态安全数据和多类型安全设备的交互接口,促进GAI技术与网络安全应用深度融合。
3.4 加强应用监管,保障GAI在网络安全领域健康发展
从国家层面加紧对人工智能安全法律法规制定,推动现有网络安全法律法规向人工智能领域延伸适用。积极完善包容审慎的监管机制,鼓励大模型技术持续创新。加快建设人工智能安全标准体系和大模型安全评测体系。制定大模型系统和内容安全评估管理办法,加强训练数据和生成内容的安全检测。关注GAI的数据安全,切实保障国家数据安全,防止企业和用户隐私数据泄露风险。
加强对网络安全领域GAI应用的监督和数据审查。建立网络安全行业的GAI应用的分级分类监管制度和监管措施,建立有效的数据审查机制和接入许可规范,从源头规范大模型内容安全。加强GAI在网络安全检测、研判和处置领域的产品和应用管理,对大模型可能产生的安全风险,开展合规性评估和审查处置。
4 结束语
GAI技术将对网络安全技术和网络安全产业发展产生广泛和深远影响。随着GAI技术在网络安全领域的广泛应用和深度赋能,相信未来该技术将成为网络安全技术和产业发展的关键驱动力量。面对GAI技术给网络安全领域带来的诸多风险和挑战,需要加大政策引导和机制创新,推动该技术在网络安全领域的创新发展和生态建设,同时加强相关法律法规和标准制度体系建立,加强GAI在网络安全领域应用的监督管理,从而保障该技术在网络安全领域持续健康快速发展。
Impact analysis and recommendations for the network security field by generative artificial intelligence technology
YUAN Weiguo, ZHANG Xinyue, YUCHI Xuebiao
(China Internet Network Information Center,Beijing 100070)
Abstract: The current Generative Artificial Intelligence (GAI) technology is developing vigorously, bringing transformation to network security technology and industry. The application of AI technology has driven the escalation of confrontation between network attack and defense technologies. Network security products and applications based on large model have become the new focus of network security industry, injecting new momentum into the development of network security industry. At the same time, the application of AI large models has also brought new security threats. Countries and regions around the world are continuously paying attention to the network security issues caused by GAI, and have introduced various targeted regulations and measures. Therefore, by analyzing the impact of GAI on China’s network security industry, and proposing countermeasures and suggestions, it is of great significance for enhancing the country’s network security protection capabilities.
Keywords: generative artificial intelligence; network security; large model; industrial development
本文刊于《信息通信技术与政策》2025年 第1期
声明:本文来自信息通信技术与政策,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。