文 | 中央网信办数据与技术保障中心 张亚飞 田思远 王志伟
随着人工智能技术进入大规模应用阶段,以GPT-4、Claude 3、文心一言、豆包、DeepSeek等为代表的大模型正推动新一轮技术范式变革。微软首席执行官萨蒂亚·纳德拉在2024财年第三财季业绩说明会上透露,超过65%的财富500强企业已部署使用微软的Azure OpenAI服务。随着技术部署的增加与使用成本的持续降低,大模型近两年逐渐进入大众视野,广泛应用于客服、娱乐、社交等多个领域,帮助更多人体验到大模型带来的便利。
然而,“数据时效性困境”正在成为制约大模型发展的关键瓶颈。以DeepSeek-V3为例,其训练数据截止于2024年7月,训练数据的“静态性”难以满足用户对信息时效的需求,常出现由于数据集内容陈旧而导致回复错误等问题。
为解决上述问题,大模型联网成为当下热门的研究方向。通过赋予大模型实时访问和整合互联网信息的能力,可突破训练数据的时间限制,实现知识的动态更新和扩展,保证生成内容的时效性。当前,虽然已有部分研究团队将大模型与搜索引擎、知识图谱等外部知识源结合,并取得了一定进展,但技术突破伴随新风险的产生。当大模型接入开放、动态的互联网环境时,不仅面临信息质量参差、实时计算延迟等技术难题,更潜藏数据安全、内容合规等系统性风险。因此,深入研究大模型联网的风险与应对举措,具有重要的理论价值和现实意义。
一、大模型联网发展现状及分析
当前,大模型领域正通过联网技术加速突破静态数据限制,推动能力体系全面升级。全球科技企业正加速布局这一赛道,OpenAI、Meta、百度、小米等国内外头部企业均取得显著进展,大模型联网后在实时性、功能性以及应用场景等方面能力大幅提升。
(一)大模型联网趋势明显
从国际角度来看,2021年9月,ChatGPT宣布与微软公司合作,实现互联网接入及溯源功能,实时更新数据集,率先打破了大模型只能基于已知数据回答用户问题的局限性;2023年7月,Meta宣布与微软达成战略合作,将Bing搜索引擎整合至人工智能对话系统,构建实时信息获取通道;同年9月,OpenAI推出联网版ChatGPT,通过实时检索增强生成(RAG)技术,进一步缩短知识更新延迟时间并扩充网页索引库。
从国内角度来看,百度公司依托搜索引擎优势,通过将百度搜索接入文心一言大模型,在问答输出时同步推送关联文献,拓展知识服务维度;小米旗下的“小爱同学”融合字节跳动豆包大模型,借助头条内容生态实现热点资讯实时抓取,打造聚合式信息服务平台;DeepSeek则聚焦学术场景,打通中国知网、专利数据库等权威学术资源,通过规范化引用专业文献和数据,显著提升了内容的准确性和逻辑严谨性。
(二)联网大模型实时性、功能性提升
联网后,大模型的实时性和功能性等方面均有所提升。一是大模型摆脱静态数据集限制,通过实时检索生成技术动态接入互联网数据流,保障用户能够获取实时、准确的信息,不仅解决静态数据集的知识滞后困境,也使大模型能够快速响应突发事件和适应新兴趋势,显著提升在时效性敏感场景中的适用性;二是数据来源更加丰富,大模型通过API接口、网络爬虫和数据流平台等,整合来自社交媒体、学术论文、新闻媒体、行业数据库等多源异构数据,扩展了大模型的知识广度,也增强了其在不同领域和场景中的泛化能力;三是信息交叉验证更便捷,联网能力使大模型能够让“多源数据获取”和“一致性检测机制”等技术发挥协同作用,通过新数据的引入,可实现“静态”数据与实时数据的交叉验证,有助于改善历史数据陈旧、信息错误的局限性,增强回复内容的可信度和可解释性,为用户提供更可靠的信息支持。
(三)联网大模型应用场景更加丰富
大模型联网前,多应用于基于已有知识的简单问答场景,如知识问答、数据运算及文本翻译等。联网后,由于实效性提升,覆盖领域扩展到决策支持、动态环境感知以及跨领域协同等多个方向,加速推动了全球智能化、数字化和信息化进程。具体而言,在金融领域,联网大模型由简单的数据计算扩展到可实时追踪市场动态,经综合评判提供投资建议和风险评估;在医疗健康领域,通过实时接入学习最新临床经验和相关研究成果,能够为医生提供诊疗建议参考,在一定程度上提升诊断准确性和治疗效率;在教育领域,联网大模型能够依托教学大纲与学情反馈数据进行持续优化,动态调整知识架构和教学策略,构建个性化学习支持体系。
二、大模型联网后易引发的风险
大模型联网后,虽然在实时性、功能性和应用场景等方面均有所改善,但将大模型暴露于公开互联网后,同样带来一系列风险挑战,如虚假信息生成、有害信息传播、数据投毒和技术滥用等。
(一)虚假不良信息生成风险
该风险主要源于动态数据环境中的信息污染和对多源数据的过度依赖,联网能力使大模型能够实时接入互联网数据流,但网络上的信息大多未经真实性检验,存在错误、过时、虚假,甚至低俗色情、网络谣言等负面内容。当前,部分大模型提供“联网搜索”功能,该功能根据搜索到的信息直接加工后输出文本。由于缺乏对数据源的权威性评估能力,在将低质或虚假信息纳入训练数据后,训练数据集容易受到“污染”,进而降低生成内容的真实性,易生成大量虚假不良信息,对网络生态产生较大影响。
(二)有害信息传播风险
联网能力使大模型能够快速接入互联网上的海量信息,但这些信息中可能包含暴力、仇恨言论、极端主义等有害内容。在大模型的训练和推理过程中,由于缺乏对有害信息的精准识别能力或过滤机制不健全,易导致训练过程中引用或放大数据中的偏见或错误,生成具有危害性的输出,削弱用户对模型的信任。此外,大模型的广泛部署和高效传播能力进一步加剧了有害信息的扩散风险,联网大模型生成的内容会进一步通过社交媒体、即时通信工具等多种渠道迅速传播,成为热点新闻传播的新源头。例如,2022年,基于4chan网站“政治上不正确”板块逾1.3亿个仇恨言论帖子训练生成的GPT-4chan模型,不仅精准掌握了极端文本的特征表达,更在上线不到24小时内自动生成超过15000个充满暴力内容的帖子,造成巨大影响。该模型在被相关平台删除前,已产生超过1000次下载记录,其生成的有害内容存在向其他平台及用户群体扩散的风险。
(三)数据投毒攻击风险
大模型联网后,易造成“数据投毒”风险加剧。对于大模型来说,模型规模越大,越容易受到数据投毒攻击。即便是在受到最低程度的数据投毒时,大型大语言模型学习到有害行为的速度也比小型大语言模型快。据《自然》(Nature)刊登的《数据投毒攻击对医疗领域大模型影响的研究》文章中的数据表明,对于1.3B参数的模型,当训练数据集中只有0.01%和0.001%的虚假信息时,模型输出的有害内容会分别增加11.2%和7.2%。而对于4B参数的模型而言,当虚假信息比例为0.001%时,模型输出的有害内容增加了4.8%。
大模型联网后,由于训练数据集直接接入开放环境数据,为攻击者提供了数据投毒的便利条件。攻击者可根据自身需求,有针对性地编造虚假有害信息、创造热点、塑造舆论等,故意对大模型进行投毒训练,形成“中毒样本”,通过污染模型训练数据,进而影响大模型生成的内容。这种攻击不仅会削弱模型准确性和可靠性,还可能被用于操纵舆论、破坏决策或实施欺诈。2023年,由于在互联网上抓取训练数据,“毒教材”内容被引入科大讯飞学习机,导致其一篇作文生成了诋毁伟人、扭曲历史等违背主流价值观的内容。
(四)技术滥用风险
联网大模型的高效生成能力和广泛接入性,使其成为技术滥用的潜在工具。不法分子可通过实时网络信息内容,生成实时性更强、伪装度更高的虚假信息,用于实施网络诈骗、网络钓鱼等,或利用其代码生成能力开发恶意软件,降低网络攻击技术门槛。根据奇安信集团发布的《2024人工智能安全报告》,2023年基于人工智能的深度伪造欺诈暴增了3000%,基于人工智能的钓鱼邮件增长了1000%。同时,联网大模型也容易被用于侵犯隐私或实施监控,通过实时分析社交媒体、邮件和聊天记录,精准提取个人敏感信息、商业秘密等,生成深度伪造内容,用于敲诈勒索或其他不法行为。奇安信XLab实验室报告称,2024年12月至2025年2月期间,出现了超2000个仿冒DeepSeek的域名,通过钓鱼欺诈、域名抢注等手段,窃取用户密码、诱骗下载恶意软件、骗取订阅费用,使得众多用户面临信息泄露和经济损失的风险。
三、针对大模型联网风险的应对建议
虚假不良信息生成、有害信息传播、数据投毒攻击和技术滥用等风险,不仅影响大模型的应用体验与生成内容的准确度,更制约着大模型的健康有序发展。基于对大模型联网风险原理的研究分析,现从数据来源、内容标识、多方治理和新技术应用等四个方面提出应对建议。
(一)提高来源数据质量
大模型联网带来的风险,可首先在数据输入环节加强防范,加强对训练数据的质量把控,从源头遏制各种风险。大模型联网后,网络所有数据都有可能成为训练数据,应保障来源数据的权威性、时效性和纯净度,提高数据公信力。一是网站平台或相关机构应与官方网站、学术机构、政府数据库等权威机构合作,共同搭建中文权威数据库,建立“权威数据白名单”,使大模型的训练数据具备实时、可信、可靠等特性,从源头防范虚假信息生成风险。二是应通过“技术+人工”的机制,建立“不良数据黑名单”,使用自动化清洗工具过滤低质量甚至虚假有害信息,通过技术手段识别并删除存在风险的训练数据,同时通过人工审核进行修正,进一步降低使用不良数据训练的风险。三是建立数据质量评估体系,通过数据监测,减少重复数据和干扰信息造成的影响,评估数据的更新频率、真实性等,根据评估效果调整数据库内容,不断优化数据的质量,为大模型运行提供坚实基础。
(二)增加人工智能生成内容标识
增加人工智能生成内容标识可进一步提升大模型生成内容的透明度与可信度。一是建立统一的标识标准,相关部门应出台人工智能生成内容标注标准,明确标注生成来源、生成时间及生成主体等信息,用户在阅读相关信息时可快速识别内容性质,从而提高对人工智能生成内容,特别是虚假信息的警惕性和辨别能力。二是针对文字、声音、图片、视频等多模态内容,结合机器学习、自动学习技术开发适配的标识工具,如在文本中嵌入不可见的数字水印,在音频中添加背景音提示,在图片和视频中插入可见标识符等,确保多种内容均可被准确识别。三是建立内容可信度评分机制,可在人工智能生成内容后设置用户评分选项,综合数据来源的权威性、时效性和用户反馈动态调整内容权重,过滤低质生成内容,进一步提升生成内容的可靠性。
(三)构建多方协同治理生态
大模型的治理,需要政府、企业、科研机构等多方共同参与,助力形成协同治理的新发展格局。一是政府应加快制定完善监管政策与标准,建立人工智能生成内容的评估规范,利用人工智能技术优势开展技术研发,搭建风险预警评估系统,为大模型发展提供保障。二是企业应加强行业自律和技术创新,提升专业技术实力,利用数据清洗、内容过滤等核心技术提升大模型整体性能,推动大模型安全且快速发展。三是科研机构应聚焦网络攻击防御、有害信息识别、投毒检测等重点领域,深入研究机制机理、潜在风险并提出可行的应对举措,提供坚实的理论支撑。此外,应积极开展网上宣传,鼓励群众参与共治,通过举报等方式及时发现风险,协同共建积极向上的网络环境。
(四)探索新技术在风险治理中的应用
结合大模型联网后的数据安全、内容安全、隐私安全等风险问题,应充分利用当前的新兴技术,将其应用于大模型联网后的风险治理中。通过区块链技术,实现训练数据的追溯,明确训练数据的来源,同时防止数据被不法分子篡改;通过人工智能内容检测技术,及时检测识别大模型联网后动态生成的虚假内容、敏感信息等,形成较为全面的防御机制。此外,还可通过技术融合,如“区块链+AI检测”“红队测试+安全对齐”等方式,有效过滤有害信息,降低有害内容生成的风险。
四、结 语
大模型联网作为人工智能发展的关键节点,在提升实时性、功能性和应用场景多样化的同时,也衍生出复杂的系统性风险。研究表明,联网能力使大模型从静态知识库升级为动态知识流,知识更新周期从数月缩短至小时甚至分钟级,显著提升了时效敏感场景的适用性。然而,开放的互联网环境也加剧了虚假信息生成、有害内容传播、数据投毒攻击及技术滥用等风险。为此,通过构建多维度的风险防控体系,实现技术创新与安全治理的平衡发展,已成为当前亟需解决的核心课题。
展望未来,联网大模型的健康发展需统筹政策规制、技术升级与公众参与等多个层面的协同共治。首先,应加快制定大模型管理规范,特别是明确数据使用与传播的合规要求,并进一步加强大模型备案审查工作。其次,应进一步优化升级数据清洗与内容审查相关技术,提升大模型自身对虚假信息的鉴别能力。针对数据来源,可以探索区块链技术在内容溯源中的结合应用。最后,随着大模型使用范围逐渐扩大,可借助公众力量共同提升大模型联网风险管控能力。通过建立便捷的举报渠道和奖励机制,激励用户主动报告有害内容,形成多方协同的风险防控体系,为大模型的安全应用提供坚实保障。
随着技术的不断进步与治理体系的完善,大模型推动了教育、医疗、娱乐、工业等多领域的革命性发展,联网后的大模型将在更多领域实现安全、可信的应用,在这场科技革命的进程中为社会发展注入新的动力。
(本文刊登于《中国信息安全》杂志2025年第3期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。