陈世华 南昌大学新闻与传播学院教授

以美国开放人工智能研究中心(OpenAI)的ChatGPT、中国深度求索公司的DeepSeek为代表的人工智能大模型崛起,成为推动科技和产业进步的关键力量。大模型驱动的人工智能通过学习与模拟海量语料获得核心能力,作为人工智能训练基础的语料库不仅决定了人工智能的智力水平,还潜在地、先验地塑造了由大模型产出成果所延伸的社会文化、价值观念乃至意识形态认知。

当前,全球围绕大模型语料库的竞争已从技术层面扩展到意识形态安全领域:一方面,用于训练大模型的原始语料库缺乏中文内容,例如,ChatGPT训练数据中,中文语料占比不足千分之一,这种失衡导致大模型难以适配国内语境的需求,限制了算力性能的发挥;另一方面,大模型语料库存在“数据霸权”倾向,威胁文化主体性,算法“黑箱”中的价值渗透正在重塑公众认知。因此,如何在技术自主创新的同时筑牢意识形态安全防线,成为人工智能技术发展亟待解决的命题。

语料库的多重意识形态渗透

作为人工智能领域的前沿技术,大模型训练包含预训练、奖励建模和强化学习三个阶段。其核心能力源于预训练基础模型的双重突破:一方面依靠模型参数的指数级扩展,另一方面依托自监督学习机制(大模型预训练的核心技术之一)对海量无标注数据的深度挖掘。预训练模型通过深度学习模型Transformer架构构建多层级特征表征,在吸收文本数据中的语法规则、语义关联和隐含知识体系后,形成可迁移的通用认知基座。

当前,主流大模型普遍采用“预训练—微调”技术路径,预训练阶段通过处理TB级(太字节)语料数据建立通用表征能力,而微调阶段则针对具体任务进行参数适配,使大模型具备跨领域解决方案的高性能。例如,华为盘古气象大模型在预训练阶段覆盖40年全球气象数据,仅需1.4秒即可实现24小时全球气象的预报;阿里巴巴达摩院大模型M6预训练参数突破十万亿,成为国内首个商业化落地的多模态大模型。

然而,技术突破也伴随着新风险。作为人工智能的认知基石,语料库并非价值中立,而是携带了先验的价值观念、文化立场和政治判断。大模型语料库的意识形态偏向表现为从表征符号到价值观念再到政治立场的递进式渗透,当某一语种如英语语料在训练数据库中占据绝对优势时,模型参数会优先拟合该语言所关联的文化范式,英语文化符号通过数字技术霸权获得超线性数据积累,使模型将英语文化框架强加于其他语言系统之上。这面临两重困境:首先,基于固定语种语料库完成训练的人工智能在跨语言解码能力上受限。例如,基于英文语料库预训练的大模型在自然语言处理层面呈现出语言生成能力差异,这种差异可能会影响从字词表征到深层语义理解的多个层面。语料库中的语种分布不均不仅造成文化符号的编码密度差异,还会导致特定文化符号在模型认知中占据主导地位,进而映射出话语权与意识形态的深层结构。其次,语料库不仅导致非英语文化符号被边缘化,还对英语世界内部的边缘文化群体形成结构性压制,通过技术层面的排斥机制导致价值体系的单向渗透。例如,在语言模型输出时,偏向英语文化的内容更易获得用户互动,这些互动数据又被用来进一步训练模型,形成闭环的意识形态增强循环。更为严峻的是,这种失衡具有代际传递效应,当前模型的输出内容会被用作下一代模型的训练数据,使文化稀释效应在数据训练迭代过程中被指数级放大。

模型认知底层框架及其影响

从原始语料的数据生产到数据选择性训练再到智能交互,潜在的意识形态特征通过数据层价值嵌入、算法层偏差放大和表征层认知重构,重重累积影响技术系统与社会结构的互动关系。数据的采集范围、清洗规则与标注标准共同构成模型认知底层框架,影响人工智能系统的价值输出。

数据采集的偏向性导致文化符号的编码密度差异。目前,主流大模型训练所依赖的数据,英语内容占据主导地位。这意味着英语世界里的概念、文化符号在模型里“嗓门”最大,其他语言和文化的声音相对微弱。这种数据失衡实质上是现实世界中技术、文化权力格局在数字空间的映射。模型依赖统计规律运行,数据中高频出现的语言模式和文化符号自然被赋予更高的“可信度”权重。例如,ChatGPT在进行特定翻译任务时(如英语翻译为意大利语),即使源语句在性别上是中性的,生成的意大利语句子中仍有相当比例(约34%)完全缺失了女性表达形式。这清晰地显示了训练数据(主要是英语数据)中存在的性别刻板印象是如何被模型学习并重现(即“拓扑重构”)的。数据量不足的文化或群体视角在模型内部很容易被边缘化。要纠正这种偏差,仅靠增加多元数据还不够,关键在于认识到模型容易将“高频出现”误认为“普遍真理”。

清洗规则中的隐性价值判断进一步强化认知偏见。作为机器学习的关键环节,数据清洗本质上是一种基于规则的社会认知重构过程,旨在去除无效或低质信息,包括预处理、规则校验、结果校验在内的各个环节都潜藏着筛选主体对“何为有效数据”的价值预设。这种预设既体现为显性的规则设计,更深层的则是隐性认知框架对数据语义的裁剪。在预处理阶段,清洗规则中定义的“无效数据”或“噪声”,往往基于主流价值判断。这使得非主流表达(如特定方言、小众文化符号)可能因不符合既定标准而被归入“无效数据”,导致模型从源头上就缺失对多样性表达的认知能力。清洗规则的有效性通常基于历史数据或既有知识体系进行校验。然而,历史数据本身可能包含结构性偏见。数据清洗试图通过“去人化”的自动化规则追求客观性,但规则的设计与迭代始终无法脱离人类的价值判断。筛选主体的认知边界会通过规则参数渗透到数据集中:当某一群体的表达方式超出规则设计者的经验范畴时,其数据可能被判定为异常值。这种认知不对称在敏感词过滤机制中尤为显著。出于风险控制建立的敏感词过滤机制,有时会因规则过于宽泛而产生“误伤”。对某些政治术语的限制,可能连带阻碍了与之相关的、有价值的文化批评或历史讨论,导致模型将复杂的社会语境简化为二元对立。这种清洗机制在无形中也起到一种规训作用,将多元表达压缩进特定框架内,使模型在训练中对表达有边界限制。

标注标准中的文化预设定向塑造认知框架。为了让模型理解数据的含义(如判断文本的情感倾向),需要人工为数据添加标签(标注)。标注所依据的标准往往不可避免地带有特定文化背景的具有倾向性的价值判断。在数据训练完成的模型投入应用后,其输出结果会影响用户行为(如点击、采纳建议),这些用户行为数据又会被反馈用于下一代模型训练。如果用户行为受到模型现有偏见的影响,新数据就会进一步强化这些偏见,形成一种自我循环的“偏见升级”。同时,大模型易于制造大量难以溯源验证的信息,这些信息若流入未来的训练数据会加剧已有偏见的固化。当用户信任并采纳大模型的建议时,实质上参与了一种人机协同的价值塑造过程。这种双向互动既存在外部价值观渗透的风险,也可能导致本土文化符号在算法逻辑中被重新诠释乃至消解。

构建“制度—产业—技术”三位一体治理体系

语料库的意识形态偏差,映射出技术系统在运行中无意间复制和放大了现实社会中的某些权力结构。这类偏差渗透于数据筛选、算法偏好与最终输出等多个环节。它并非单纯的技术缺陷,而是数字时代知识生产机制所蕴含的社会性。当语料库成为塑造社会认知的重要基础时,其内在的文化资源分配不均必然会影响认知的公平性。鉴于此,如何通过制度引导、产业协作与技术创新构建有效的治理范式,成为平衡技术与社会价值的关键命题。

在制度层面,构建以社会主义核心价值观为根本遵循、兼具文化包容性的制度规制体系。要建立主旋律引领的全生命周期治理机制,在数据采集、清洗、标注及应用中嵌入意识形态安全框架,通过相关制度引导明确语料库须动态公开语种分布权重、性别平衡系数和多元文化覆盖率,如地域特色词汇、青年亚文化术语收录比例等,并设立国家级数据伦理审查机构,对语料库的价值观导向进行常态化审计;要完善开放包容的协同治理模式,组建由马克思主义理论专家、多民族文化研究者和技术伦理委员会构成的跨学科监督体系,制定兼具政治原则性与文化多样性的量化指标,在坚守意识形态主阵地的基础上系统性纳入少数民族文化、非遗符号和国际友好型话语表达。此外,强化导向明确的动态风险评估制度,开发基于社会主义核心价值观语料基准库的对抗性测试模型,重点扫描历史虚无主义、文化霸权主义和群体偏见等风险节点,通过对风险数据进行针对性干预实现意识形态纠偏与文化生态平衡的双重治理目标。

在产业层面,构建开放共享的分布式语料生态。通过政策激励与市场机制联动,推动企业、学术机构和公共部门释放异构数据资源(类型、格式、结构或来源不同的数据集合),形成覆盖多模态、多语种及多文化圈层的协同网络,从而破解语料库的意识形态垄断。针对低资源语言与边缘群体话语的“数据荒漠化”问题,需建立文化多样性补偿机制,构建动态更新的细分领域语料库,通过数据增权打破符号在影响力上的结构性失衡。与此同时,开发基于意识形态包容性、文化表征均衡性的语料质量认证标准,引导产业从粗放式规模扩张转向精细化伦理竞争,重塑语料市场的价值评估体系。

在技术层面,突破传统统计模型的认知局限,向价值敏感的计算范式跃迁。核心路径在于构建伦理—算法的双向映射机制:一方面,通过意识形态感知建模框架将伦理约束编码为可计算的量化形式,利用反事实数据并结合动态对抗训练持续优化模型,从而消除语料中隐含的文化霸权影响;另一方面,开发多模态价值观对齐引擎,借助强化学习实时评估生成内容的文化包容性,确保技术输出与社会主义核心价值观同频共振。此外,需探索知识引导的混合智能范式,将外部结构化知识库与数据驱动模型深度融合,通过先验规则校准统计偏差,在技术理性与价值理性的博弈中开辟人机协同的第三条道路——既非纯粹的概率霸权,亦非僵化的教条灌输,而是基于文明对话的动态平衡。

人民网主流价值语料库于2023年3月启动建设,在对国内外主流人工智能大模型进行全面安全评测的基础之上,围绕习近平新时代中国特色社会主义思想和中国式现代化所涉及的经济、政治、社会、科教、文化等十几个领域,有针对性地进行科学归集、清洗、标注、风控,重点建设基础语料、图文语料、问答语料等多类语料,满足人工智能语料全面性、专业性、时效性、导向正确性的要求。目前,主流价值语料库已完成3000多万篇基础语料、20万条问答语料的建设工作。

人工智能大模型语料库的意识形态偏差本质上是技术权力与文化权力相互作用的结果。要有效应对,必须通过制度规制打破数据垄断、产业协作重建语料生态、技术革新支撑智能重构。建设高质量的本土语料库是中国对全球人工智能文明多元发展的积极回应。未来,中国人工智能的发展要在创新实践中探索出一条既能把握技术革命机遇,又能坚守意识形态安全的特色路径,力争在技术革新中占据发展先机,为全球数字治理提供中国方案。

作者:陈世华系南昌大学新闻与传播学院教授;汤黎学习工作单位为南昌大学新闻与传播学院

来源:《中国网信》2025年第9期

声明:本文来自中国网信杂志,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。