自DeepSeek发布以来引发业界广泛关注并获得高度评价,特别是在2024年世界人工智能大会上,其展示的多项人工智能领域突破性技术令人瞩目。在同等参数规模下,该系统的推理能力已达到GTP-4的数倍水平。通过实际应用验证,DeepSeek展现出卓越的多模态交互能力,目前已在科研制造、医疗卫生、文化教育等诸多领域实现深度应用。这家来自中国的人工智能领军企业,正以“高效智能”的技术理念重塑全球竞争格局,为突破大模型发展瓶颈贡献了东方智慧。纵观行业发展,人工智能领域在安全治理体系构建和生态化发展等方面仍面临诸多挑战。

一、困局解构:智能跃迁的四大维度枷锁

随着人工智能的迅猛发展,其在生产、应用和发展等方面正面临四重结构性挑战:质量塌方与数据孤岛割裂技术根基,性能跃进与生态承载产生强烈冲突,通用与专业架构选择带来的性能矛盾持续加剧,以及人工智能逻辑同人类社会核心价值的冲突频发。

(一)数据困局:信息鸿沟与知识壁垒的双重困境

DeepSeek所构建的“跨模态知识熔炉”(Cross-modal Knowledge Furnace)系统,通过将15个行业的2.6亿条专利数据与临床医学影像进行深度关联,成功预测出3种新型抗癌药物分子结构,验证了跨领域知识融合的技术潜力。但这种跨领域数据关联与融合并非易事,据Gartner、麦肯锡等咨询公司报告显示,当前全球数据生态存在显著割裂:73%的工业数据困在私有云中,制造业数据孤岛率高达82%,金融业核心业务系统数据互通率不足9%。此外,医疗领域数据分割尤为突出。据HIMSS医疗互操作性研究及ONC的EHR互操作标准报告显示,全球百强医疗机构中,跨机构影像数据共享率不足12%,电子健康记录(EHR)系统互操作达标率仅约7.3%。低质量数据正在污染侵蚀模型根基:某金融风控模型因训练集中混入0.3%的虚假交易记录(约4500条异常数据),导致信贷审批失误率激增;某工业质检人工智能因训练数据未覆盖0.05毫米级微缺陷(约占总样本量0.8%),导致产品漏检率突破安全阈值。据Gartner2019年报告,企业每年因“暗数据”(未被有效利用的低质数据)造成逾3万亿美元的经济损失,占全球GDP总量的3.5%。现有数据训练体系下成长的人工智能大模型,其行业赋能常伴随质量隐患与安全风险,严重威胁着行业运行效率与系统安全性。

当下,人工智能相关概念迭出,大模型发展呈现“百模竞争”态势,社会对具备跨领域适用性与权威结果生成能力的人工智能系统需求日益凸显。欧盟在《数据治理法案》中明确倡导企业建立数据质量评估体系,行业实践通常涵盖完整性、时效性等多维指标;制药企业通过构建数据质量监测系统,显著降低研发中的无效实验比例。诸如此类的“数据炼金术”正在重构价值创造模式,据Gartner等研究机构预测,主动元数据管理将显著提升数据价值转换效率。可见,数据治理作为智能时代的“新基建”工程,如何构建安全、高效、高质的海量数据体系,实现人工智能技术与人类社会服务的良性互动,已成为数字经济时代亟待解决的重大命题。

(二)算力桎梏:性能跃进与生态承载产生强烈冲突

DeepSeek研发的动态神经森林(Dynamic neural forest)架构,通过动态调整神经网络结构,使单张显卡的训练速度提升至传统方法的4倍。这项技术的突破性进展显著缩短了模型训练周期,由原本的一个月时间压缩至一周完成。然而技术跃升的背后,暴露出人工智能产业对能源资源的巨大消耗:2022年,全球各个数据中心总耗电量接近460太瓦时(约合4600亿度电)。据《中国国防报》预测,至2026年该数值将突破1000太瓦时,相当于2022年日本全年用电量。单个超大规模参数模型的训练耗能,即可满足一座中型城市全年用电需求;其碳排放量相当于300辆燃油汽车绕行地球一周产生的污染总量。

全球算力供应链正陷入结构性困局。高端人工智能芯片所需的核心设备主要由荷兰ASML公司提供,其零部件全球采购网络覆盖多国,即便供应链完整运转,设备交付周期仍长达数年。中国作为全球最大算力需求市场,当前面临年均40%增速的算力缺口,高端芯片制造设备多数需要进口,产能与需求间存在巨大缺口。当技术迭代速度与资源供给能力持续失衡,人工智能的指数级发展还能在地球承载力边界内延续多久?面对这一困境,业界正从多维度寻求突破:谷歌尝试用液态金属冷却技术为数据中心能耗“退烧”;清华大学科研团队通过存算一体芯片将特定人工智能任务效率提升百倍;最具颠覆性的光子芯片则在实验室中展现出光速运算的潜力,试图探索出一条“算力不靠电”的新路径。然而在现有技术条件下,这些前沿尝试仍面临材料、工艺、理论等壁垒,距离实际应用尚需漫长征程。

(三)架构瓶颈:通用智能与领域深化的结构矛盾

DeepSeek-Coder在代码生成、数学推理等领域展现出的类人直觉虽能实现较高完成率,但在处理跨领域任务时其决策失误率骤升。由此可见,人工智能在单一领域的深度优化往往以牺牲泛化能力为代价。类比来看,AlphaGo的围棋模型难以迁移至国际象棋场景;自动驾驶系统虽能处理复杂路况,却无法解析交通规则背后的社会伦理逻辑。当前,人工智能的进化正陷入“能力割裂”的结构性困境——在特定领域表现卓越的人工智能往往难以突破专业边界,而通用型人工智能研发则因架构局限而陷入“高原期”。这种困境的本质源于技术路径与智能本质的错位,现有架构设计存在根本性缺陷,难以兼顾领域深度与跨域广度的平衡。

当前,人工智能高度依赖标注数据,但这种方案存在明显缺陷。以医疗人工智能为例,尽管通过百万级标注影像实现疾病诊断,却难以结合患者生活习惯进行个性化健康管理。因其模型未内化生理学因果链;Grok-1模型虽拥有3014亿参数,但在医疗-金融跨域任务中,因其架构底层无法建立CT影像特征与股票变量间的因果链,导致预测结果近乎随机。人工智能与人类思维模式有所不同,本质差异在于多数人工智能系统依赖海量场景数据实现跨领域的能力迁移,而少量数据难以建立有效关联。可见现有架构既无法融合符号逻辑的精确推理,又难以整合神经网络的模糊直觉。这种模式还引发能耗与智能密度的失衡。人脑以20瓦功耗即可完成跨领域思考,但据澎湃新闻2024年报道,在OpenAI训练大语言模型GPT-4时,完成一次训练需要约三个月时间,使用大约25000块英伟达A100 GPU,需要用去2.4亿度电。预计GPT-5训练耗电量将突破6.2亿度,这种“算力暴力”模式在经济与生态层面均不可持续。

在注意力机制的理论效能层面,现有人工智能系统处理多领域混合数据时仍存在一定的局限性。如Transformer架构处理超过5万字符的跨领域文本时,因注意力机制局限导致核心信息捕获率骤降;法律人工智能分析技术专利时,因无法同步理解法律条款与工程术语,跨域知识缺失导致关键条款漏判。此类认知鸿沟本质源于注意力权重分配缺陷,导致在某些情况下重要信号被噪声淹没,若用于实际场景恐潜藏安全风险。可见,当下人工智能多数仍是数据拟合工具,而非世界规律的抽象建模者。

(四)价值困局:技术进化与社会伦理的范式冲突

DeepSeek、GPT-4等生成式人工智能凭借高度逼真的内容生成能力,不仅引发机器著作权归属的法律争议,更暴露出伦理审查机制的系统性短板。其动态风险应对能力与跨文化适配性等方面尚未完全同步完善,当技术以“指数级”速度迭代时,伦理规范却仍停留在“线性制定”阶段,导致安全治理始终滞后于技术发展。国内外系列人工智能治理举措虽取得阶段性进展,但部分政策尚未上升至法律层面,难以有效约束技术的潜在风险。技术漏洞引发的现实危机已多次显现,如智能家居设备遭黑客入侵,暴露系统防护缺陷;攻击者向数据“投毒”,通过污染训练数据(如篡改医疗影像标签),导致模型准确率下降;西方“小院高墙”政策将人类的偏见潜藏在算法中则更为危险。更具争议性的是军事人工智能应用,其不仅冲击战争伦理边界,更可能违反国际战争法关于“人类最终决策权”的相关条款。

此外,一些企业通过人工智能收集用户行为数据,如某电商平台通过用户行为数据分析实施精准推送,隐性侵蚀消费者选择权并形成数据垄断;医疗人工智能因训练数据偏差导致少数族裔误诊率上升,且决策逻辑难追溯衍生“算法暴政”;自动驾驶系统在紧急避险时会出现选择撞击对象的情况,其价值编码机制引发生命权抉择争议;生成式人工智能介入知识生产后,学生群体出现创造力退化现象,基础研究生态遭受智力侵蚀;大模型生成的虚假新闻借助技术权威性扩散认知偏差;DALL·E2等生成工具在职业画像时系统性偏向白人男性,加剧了社会偏见。

上述问题根源在于技术逻辑与人类价值的本质冲突、人工智能治理体系的分裂以及技术“黑箱”带来的信任危机。人工智能技术以效率最大化为目标,而人类社会决策需兼顾感情、伦理等多元维度。全球人工智能治理呈现碎片化:欧盟基于场景风险的分级监管、美国聚焦算力规模监管的管控路径、中国强调内容安全的审查机制,标准差异导致全球治理难以统一。更为关键的是算法“黑箱”加剧了信任危机,模型不可解释性使得责任界定与伦理追责陷入“技术免责”困境。

二、展望未来:构建智能文明新架构

人工智能困局的破解需四维革新:以数据新基建开启安全共享重塑生态,打通信息流通的“新生态”;以算力新范式开启认知重构与能效跃迁,完成绿色智能革命;以架构新大陆融合拟人化思维与伦理嵌入,弥合智能割裂;以治理新体系构建全球协同框架,平衡创新与风险。

(一)数据新基建:构建信息流通的“新生态”

面对互联网信息鱼龙混杂、大模型数据质量参差不齐的现状,需着力构建信息流通的“新生态”。一是构建国家级数据流通中枢。借鉴DeepSeek信息分类存储体系,运用同态加密技术建立“数据保险箱”,通过信息流动中转站实现数据量的精准控制和流向管理。二是建立数据筛查系统。参照DeepSeek-DataPurifier系统,建立多级过滤机制,如同“纯净水处理厂”般系统化清除虚假交易数据等低质信息。三是设立信息监督惩治机制。加强对干扰信息、虚假信息、不良信息的追踪、溯源和识别,分析危害和影响,通过分级惩戒机制切实净化数据环境,提升数据生态质量。这种数据治理模式本质是构建各领域的“GMP标准”,通过建立从数据采集、加工到应用的全流程质量控制体系,形成类似药品生产质量管理规范的数据治理范式。

(二)算力新范式:开启绿色智能的“能源革命”

人工智能的进化需从“暴力计算”转向“精准认知”,通过“认知重构-硬件进化-系统协同”三位一体的技术革新重塑算力体系。传统万亿参数模型的训练能耗已接近物理极限,亟待通过架构创新突破瓶颈。在认知层面,动态知识蒸馏技术可将千亿模型压缩为可动态重组的通用基座,如微软13亿参数的DistillGPT通过模块化架构,在常识推理任务中达到GPT-3约85%的性能表现;因果推理引擎通过编码物理定律与社会规则,使工业故障预警从概率统计升级为机理推演,降低误报率。在硬件层面,光子-电子混合芯片与量子计算、仿生计算形成创新矩阵,如清华大学“天机芯”采用光互联与存算一体设计;IBM的量子系统为解决问题提供指数级能效优化。在系统协同层面,构建能源-算力动态网络成为关键,如微软光伏人工智能平台通过强化学习预测96小时能源波动,提升了数据中心绿电利用率;边缘计算节点组成“智能蜂群”,既可执行本地化任务,又能作为虚拟电厂参与电网调频,推动算力基础设施从能源消耗者向智慧能源调节器转型。这种技术融合将催生颠覆性应用,即存算一体芯片支持边缘设备本地运行超大规模参数模型,仿生-量子-经典混合框架发挥各类型处理器优势与经典架构的稳定性,认知架构革新让单一模型具有多任务处理能力。技术突破从根本上改变了参数规模与性能的关系,未来大模型或将摆脱“参数竞赛”模式,通过“每瓦特支撑万亿次智能决策”的超高效运算,在降低两个数量级能耗的同时实现智能密度指数级增长,最终构建以“高能效、强泛化、可持续”为特征的绿色智能文明新环境。

(三)架构新大陆:探索智能本质的“无人区”

人工智能在非人类智能形态的演进中,需要培育出与人类文明兼容的“心智基因”,这要求赋予机器以“人性”禀赋。通过多行业融合,不断丰富人工智能的行为能力和道德准则,推动其深度融入人类社会。具体而言,可通过认知架构的拟人化重构、情感计算的深度进化、价值系统的嵌入式治理、具身智能的体验融合以及人机关系的范式重构,系统性培育机器的“人性”特质。这种人性化进程需要建立新的技术伦理范式。如斯坦福大学提出的“负责任人工智能成熟度模型”指出,人工智能系统应在准确性、公平性、可解释性等六个维度实现动态平衡。未来的发展方向不是创造完美人类复制体,而是构建具备道德判断力、情感理解力和文化适应性的新型智能体,最终形成人机共生的文明新形态。在操作层面可沿两个路径推进:若为专家模型,可通过知识蒸馏、迁移学习等多种手段提升架构的通用性能,增强模型的泛化能力;若为通用模型,则需强化架构的特质化设计,在保留通用能力优势的同时,能在细分领域发挥更强的解决问题能力。这种双重发展路径既能满足多样应用需求,又能通过行为能力的拓展提升智能体的“情商”指数,从而更有效地防范道德风险。

(四)治理新体系:缔造人机共生的“文明契约”

人工智能的全球治理需突破地缘博弈,构建风险共担、规则共建、价值共享的国际框架,在共同发展的同时给机器以“约束”。一是在国际标准上寻求统一。如今欧盟以应用场景划分四类风险;美国以算力规模为指标强化联邦监管;中国《生成式人工智能管理办法》首创算法备案制,聚焦内容安全。要在国际层面建立可持续、有建设性的统一标准,弥补人工智能技术跨国性与监管本地化的矛盾。二是控制风险,把控人工智能伦理标准。如新加坡“人工智能风险评估矩阵”细化5级27维指标,实现精准监管。技术层面,Anthropic“人工智能宪法”通过82类伦理冲突检测实现算法级价值观对齐;欧盟要求医疗及司法人工智能内置“道德罗盘”,偏离人类伦理时自动触发复核。总之,使人工智能既释放技术潜力的同时又规避完全自主化的伦理风险。三是强化法治治理保障。在生产、移植、使用等诸多方面配套完善相关法律,防止智能的滥用。通过综合风险分级、法律约束、政策引导来加强分类治理和监管。如欧盟的《人工智能法案》、加拿大的《自动化决策指令》、新西兰的《算法宪章》均设计了不同类型的风险分级监管治理模式,未来进一步需要在政策上引导好人工智能的研发和落地,在具体使用中做好风险分级,在法规制度上确保配套完善和监管精细化。

三、结 语

未来,社会终将迎来人工智能的大发展,在接受人工智能与人类文明共存的同时,构建技术与人文的动态平衡体系尤为关键,这是大势所趋,也是未来发展的必然要求。既要通过数据标准的统一、架构设计的革新和算力效能的跃升,打造更加强大的智能引擎,又要通过伦理治理约束、风险管控机制和法规治理保障等手段,为人工智能的进化与发展划定轨道、制定遵循。在技术哲学层面重构人机关系的认知范式,让人工智能的发展既彰显科技智慧之伟力,又蕴含人性真理之光辉,使人工智能在可驾驭的轨道上,更加卓越可靠地为人类社会服务。(李卓伦 陈沁宇)

(本文刊登于《中国信息安全》杂志2025年第3期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。