文 | 武汉大学国家网络安全学院 王骞 张神轶 赵令辰

当前,以大模型为代表的人工智能技术正加速从数字空间向物理世界延伸。具身智能作为人工智能与物理实体深度融合的新形态,已成为全球科技竞争的战略高地。与运行在数字环境中的传统人工智能应用不同,具身智能通过机器人、无人系统等物理载体直接作用于现实世界,其安全问题呈现出独有的复杂性,而数据作为指导具身智能系统进行决策的基础,其安全性直接关系到具身智能系统的可靠性、公民权益的保护乃至国家安全的维护。因此,亟须系统性地梳理具身智能发展中的数据安全风险,分析当前治理面临的挑战,并探索可行的治理路径,为具身智能技术的安全健康发展提供有益参考。

一、具身智能数据特征

具身智能是指将人工智能技术与物理实体相结合,使机器能够通过传感器感知真实环境、借助智能算法进行自主决策,并通过执行决策对物理世界产生实际作用的智能系统。典型的具身智能系统包括人形机器人、工业协作机器人、服务机器人、自动驾驶汽车、无人机等,应用领域覆盖制造、医疗、养老、家政、安防等众多行业。近年来,特斯拉、波士顿动力等国际企业和优必选、宇树科技等国内企业均已开始积极布局,产业规模快速增长。

具身智能系统的运行高度依赖数据的采集、传输、处理和应用,其数据在内容、时间、空间和传播四个维度上均表现出区别于传统人工智能应用的特征。从内容维度看,具身智能数据具有多模态融合性。系统通常会集成摄像头、激光雷达、麦克风、触觉传感器等多种感知设备,同步采集视觉、语音、触觉、运动姿态等不同模态的数据,并在系统内部进行融合处理,形成对物理环境的综合感知。从时间维度看,具身智能数据具有实时连续性。系统在运行过程中需要持续不间断地感知周围环境,如视觉系统以每秒数十帧的频率采集图像,运动控制需要毫秒级的传感器反馈,由此产生高频率、大流量的实时数据流。从空间维度看,具身智能数据具有时空关联性。与互联网应用中的时间戳或地理标签不同,具身智能系统采集的数据与特定物理空间和时间节点紧密相关,通过分析这些数据可以精准还原周围环境布局、物体运动轨迹、设备运行状态等信息。从传播维度看,具身智能数据具有跨域流动性。数据处理涉及云、边、端的协同计算,数据在不同节点间频繁传输,甚至可能涉及跨境传输。

上述特征的相互叠加,导致具身智能系统数据具有高度的敏感性。多模态融合使得单一设备即可在多个信息维度上刻画其所处环境,时空关联性又使这些数据能够精准映射到真实空间。此外,实时连续性带来的海量数据积累和跨域流动性带来的传输扩散,使得数据一旦发生泄露,其影响范围也将超过传统应用。这些区别于传统应用的特征,使得具身智能中的数据安全问题呈现出不同于传统信息系统的复杂性,也对数据安全治理方式提出了新的要求。

二、具身智能数据安全风险分析

上述数据特征不仅表明了具身智能数据本身的性质,也在很大程度上决定了安全风险的分布。在数据采集阶段,多模态融合性和时空关联性造成隐私边界模糊和隐私信息过度采集;在数据传输与存储阶段,实时连续性和跨域流动性扩大了数据泄露的可能性;在数据使用阶段,四种特征的共同作用使得攻击后果可能从信息层面转化为物理世界中的实际危害。

需要说明的是,下文按风险所针对的数据处理环节进行分类并详细介绍,而非按攻击行为发生的入口。例如,对抗样本攻击虽然通过篡改感知输入来实施,入口在采集端,但其攻击目标是模型的推理决策过程。因此,归入数据使用阶段讨论。实际上,具身智能系统中感知与决策的耦合程度远高于传统信息系统,许多安全威胁天然具有跨阶段特征,这本身也是治理的难点之一。

(一)数据采集阶段的安全风险

数据采集阶段的风险,主要源于多模态融合性和时空关联性这两个数据特征。

多模态融合引发了数据的过度采集问题。传统软件应用的数据采集边界相对清晰,用户对授权了哪些信息有较明确的预期。而具身智能设备集成了多种传感器,这些传感器往往同步工作,采集的数据天然是多模态捆绑的。以家庭清洁机器人为例,执行清扫任务只需要地面障碍物的位置信息,但设备搭载的摄像头和麦克风同时能够记录家庭成员的面部特征、私密对话、日常起居习惯。这种过度采集并非源于厂商的主观意图,而是多模态感知的天然特性,因此,相比传统应用更难通过简单的权限开关来解决。

时空关联性则加剧了隐私侵犯问题。具身智能系统采集的人脸、声纹、步态等生物特征数据与具体的空间位置和时间节点紧密绑定,长期积累后可形成关于个人行为轨迹、社交关系等信息的精细画像。与手机App基于点击行为和浏览记录构建的用户画像不同,这类画像建立在对物理生活空间的直接感知上,敏感程度也远超过线上行为数据。

此外,上述两个特征的共同作用还加剧了第三方权益侵害问题。具身智能设备在公共场所运行时,不可避免地会采集到非用户的第三方人员数据,而传统软件中基于用户主动授权的知情同意机制难以覆盖现实中的所有数据主体。这一问题并非单纯的制度设计缺陷,而是具身智能系统在开放物理环境中运行时难以回避的固有矛盾。

(二)数据传输与存储阶段的安全风险

在数据传输和存储阶段,实时连续性和跨域流动性是风险的主要来源。

实时连续性导致传输链路长时间处于活跃状态。具身智能系统产生的是高频率、不间断的数据流,而非传统应用中离散的请求-响应式数据包。视觉系统每秒捕捉到的数十帧图像、运动控制模块毫秒级的传感器反馈,都可能实时传输至云端或边缘节点。这种实时性使得攻击者可利用的时间窗口远大于传统应用。更重要的是,传输数据中不仅包含感知信息,还可能包含控制指令。篡改控制指令的后果不仅是泄露一条隐私信息,还能够直接导致系统行为失控,例如在工业场景中引发设备碰撞或产线停摆。

跨域流动性带来的风险在于,不同设备在不同场景中各自采集的数据,经由传输链路汇集后,就具备了被关联分析的条件。单独来看,每份数据的敏感程度或许有限,但若将工厂中负责质检的机器人采集的产品图像和缺陷数据,与负责搬运的机器人记录的物料运输路径和频次汇集到同一服务器后,通过关联分析便可推算出该产线的产能规模、良品率等敏感信息。此外,对于跨国企业而言,还涉及跨境的数据流动问题。涉及国家安全和公共利益的重要数据一旦出境,将面临难以管控的安全风险。

(三)数据使用阶段的安全风险

数据使用阶段的风险主要体现在模型训练和推理两个环节。针对这两个环节的攻击手段本身虽非具身智能所独有,但四种数据特征的作用却显著加重了其后果。

在训练阶段,后门攻击是最具代表性的威胁之一。攻击者在训练数据集中注入精心构造的恶意样本,使模型学习到特定的错误行为模式。由于模型对正常输入仍能保持良好表现,这类攻击在测试阶段往往难以被发现,同时具身智能训练数据的多模态特性也进一步增加了排查难度。在推理阶段,对抗样本攻击是主要威胁。攻击者通过在输入数据中添加人类难以察觉的微小扰动,即可欺骗系统的感知模块做出错误判断。例如,在自动驾驶场景中,路面上放置特定图案的贴纸可干扰视觉系统对周围环境的识别,进而引发交通事故。

上述具身智能在数据全生命周期的各类安全风险,不仅源于数据自身的特征与技术层面的漏洞,也受制于当前数据安全治理体系的不完善、技术能力的不足等多重因素,使得具身智能数据安全治理面临诸多亟待解决的挑战。

三、具身智能数据安全治理面临的挑战

针对具身智能发展所带来的新型数据安全风险,国内外已开展了大量前期探索。但由于这一领域尚处于发展初期,现有的制度体系和技术手段在应对具身智能中存在的新型安全风险时仍存在局限,治理能力有待进一步提升。

(一)法规标准体系有待完善

在法律法规和标准方面,我国已出台的《中华人民共和国网络安全法》《中华人民共和国数据安全法》(以下简称《数据安全法》)、《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)等建立了数据安全治理的基础法律框架,能够为具身智能领域的数据安全提供基本要求。此外,《生成式人工智能服务管理暂行办法》和国家标准《生成式人工智能服务安全基本要求》对大模型服务提出了安全要求,明确了服务提供者在数据训练与使用等环节的义务,可为具身智能系统搭载大模型的数据安全规范提供一定的参考。不过,上述法规和标准主要针对通用人工智能系统及其服务制定,对于具身智能这一涉及物理交互的新形态,尚缺乏具有针对性的内容。而机器人产业现行的相关标准主要聚焦于功能安全和电气安全,对数据安全的关注较少,同样无法覆盖具身智能系统的数据安全需求。国际上也已出现了一些与具身智能数据安全相关的立法实践,例如,欧盟《人工智能法案》采用风险分级的监管思路,将部分机器人应用列为高风险人工智能系统,并在数据治理、透明度、人工监督等方面提出了严格要求。美国则通过行政命令加强对人工智能系统的安全评估,要求开发者报告训练数据来源和模型能力。这些国际实践也能够为我国开展具身智能数据安全治理提供参考。

(二)技术治理能力有待提升

在技术层面,具身智能系统数据的多样性和复杂性也对现有的安全防护手段提出了新的挑战。从开发者和服务提供商的角度,面临敏感数据分类分级的困难。具身智能涉及视觉、语音、触觉、运动等多种模态数据,不同模态数据的敏感性评估缺乏统一标准,且多模态数据融合后产生的信息可能比单一数据源更为敏感,现有的分类分级方法难以准确衡量其风险等级。从用户的角度,主要面临的问题是数据的可控性和使用的透明性不足。对于普通用户而言,通常难以掌握设备具体采集了哪些数据、流向何处、被用于何种目的。相应地,现有的安全审计工具也难以对持续产生的海量数据流进行有效监测。

技术治理能力的不足不仅制约了现有风险的防范,也使得在具身智能产业高速发展的背景下,技术创新与安全保障的平衡成为治理的核心难题之一。

(三)发展安全平衡有待探索

具身智能产业正处于高速发展阶段,既要重视安全监管,又要避免过度管控制约产业发展,需要在技术创新和安全保障之间找到好的平衡点。从产业视角来看,数据是具身智能发展的核心资源。模型的训练和优化需要海量、高质量、多样化的数据作为支撑。然而,过于严格的数据安全限制可能对数据的采集与使用造成阻碍,制约模型性能提升,削弱产业竞争力。如何在保障数据安全的前提下促进数据的合法合理利用,是治理实践中需要思考的难题。从监管视角来看,具身智能技术当前迭代迅速,新的产品形态、应用场景和数据类型不断出现,而法律法规和标准规范的制定周期相对较长,容易出现规则滞后的情况。新型数据安全风险从出现到被识别、再到形成有效应对措施,往往存在时间差,为监管工作带来了挑战。

四、具身智能数据安全治理建议

针对具身智能数据安全面临的风险与挑战,需要从法规制度、技术保障、评估监管、产业生态等多个维度入手,共同构建系统完备的治理体系。

(一)完善法律法规与制度体系

推进专项法规与标准的研究制定。在现行《数据安全法》《个人信息保护法》等相关法规框架下,研究出台针对具身智能的数据安全管理办法或指导意见,明确具身智能产品在数据采集、处理、传输、存储、销毁等各环节应当遵循的合规要求。此外,针对具身智能数据采集的特殊性,还应建立数据采集清单,明确禁止或限制采集的数据类型和场景,实现数据采集最小化。

建立健全分类分级管理制度。根据具身智能产品的应用场景、数据类型和潜在风险等级,对不同产品实施差异化管理。对于涉及关键信息基础设施、公共安全、国防军工、医疗健康等高度敏感领域的具身智能产品,实施更加严格的数据安全审查和准入机制;对于普通的家庭服务、教育娱乐等面向一般用户和场景的产品,则可以采取相对灵活的监管方式,在确保其满足基本数据安全要求的前提下,为相关企业和研究人员提供前沿探索和创新的空间。

明确数据安全责任主体与义务边界。具身智能产业链涉及芯片厂商、传感器供应商、算法开发者、整机制造商、平台运营方、终端用户等多种主体,需要明确各方在数据安全保护中的具体责任分工,建立安全事件责任追溯机制。同时,完善具身智能相关数据的流通规则,特别是跨境流通规则,将涉及敏感场景的核心数据纳入重要数据目录管理,依法开展数据流通与出境安全评估工作。

(二)构建技术安全保障体系

强化终端设备的安全能力。在具身智能产品的设计阶段充分考虑数据隐私保护理念,研发面向多模态数据的实时脱敏技术,对人脸、声纹等敏感信息在采集后即时在本地进行脱敏处理。推广本地化计算、数据非必要不上传等技术策略,尽可能在终端侧完成数据从采集到使用的全部流程,减少原始数据的远程传输和云端存储,从源头减少数据泄露风险。

提升传输与存储环节的安全等级。推广端到端加密、安全传输协议等技术在具身智能系统中的应用,保障数据在终端设备和云端服务器之间传输过程中的机密性和完整性。建立敏感数据分级加密存储与管理机制,根据数据类型和敏感程度采取差异化的安全存储策略。

加强模型与算法层面的安全防御。针对数据投毒、对抗样本等模型与算法层面的数据安全威胁,开展攻击检测和防御技术研究,提升模型对恶意数据的鲁棒性。研究可解释人工智能技术在具身智能领域的应用,增强系统行动决策和执行的透明性与可审计性。

(三)健全评估认证与监管机制

建立具身智能产品数据安全评估制度。在产品上市前,要求制造商进行数据安全风险评估,识别数据采集、处理、存储等环节可能存在的安全隐患,提供详细的分析报告,并采取相应的防护措施。对于面向高风险场景设计的产品,实施严格的第三方安全评估和检测认证。建立产品上市后的持续性安全监测机制,跟踪评估产品在实际运行中的数据安全情况。

推动具身智能数据安全认证体系建设。制定关于具身智能系统数据安全能力的成熟度评价标准,从管理制度、技术措施、应急响应等方面构建评价体系。鼓励具身智能企业开展数据安全管理体系认证和产品安全认证,并将认证结果作为政府采购、行业准入的参考依据。培育和扶持具备专业能力的第三方数据安全评估和认证机构,提升行业整体安全保障水平。

完善监管执法与应急处置机制。建立网信、工信、市场监管、公安等部门协同配合的监管工作机制,形成监管合力。加强对具身智能安全事件的监测预警能力建设,健全事件报告、应急响应和处置恢复机制。

(四)促进产业生态协同发展

推动行业交流与标准共建。鼓励具身智能领域的知名企业与科研机构等共同发起成立产业联盟,搭建信息共享与技术交流的平台。支持行业主体联合制定数据安全标准与实践指南,形成行业共识。

加强技术创新与人才培养。围绕隐私保护、安全芯片、人工智能等相关方向,支持产学研联合开展技术攻关。推动人工智能、机器人工程、信息安全等学科的交叉融合,培养具有复合知识背景的专业人才队伍。

深化国际交流与合作。积极参与具身智能安全相关领域国际标准和治理规则的制定。在尊重各国数据主权的前提下,探索建立数据安全领域的国际合作机制,共同应对未来具身智能发展带来的安全挑战。(赵令辰系本文通讯作者)

(本文刊登于《中国信息安全》杂志2026年第3期)

声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。