文|杜安琪 中国信通院互联网法律研究中心工程师

12月10日,越南审议通过了《人工智能法》,自2026年3月1日正式施行。该法是越南首次制定并颁布的人工智能专门法律,旨在以治理促发展,确保在风险管控与鼓励创新之间取得平衡。该法采用框架式立法方式,重点规定了风险分级管理制度以及人工智能发展促进制度。

一、立法思路

人工智能迅速发展,已在经济、文化、社会、安全与国家治理方式等方面产生深层次影响。在此背景下,越南政府认为有必要建立相应的法律框架,以推动可持续发展、把握新兴机遇并有效应对相关风险。

一是秉持“以治理促发展”的立法理念。越南将人工智能视为推动国家增长与创新的重要动能,在法律层面同时设置促进性制度工具与风险治理底线规则,通过分级监管、受控沙盒、基础设施与促进制度供给等安排,避免以单一管制逻辑抑制技术迭代与应用落地。越南《人工智能法》并未对模型进行监管,而是注重围绕人工智能的使用行为、输出结果、社会风险等构建义务与责任。同时,越南《人工智能法》强调“以人为中心”,规定人工智能必须服务于人类,重要决策过程需保留人类监督权。

二是打造兼顾安全与发展的折中模式。越南在官方说明中明确,在立法过程中对欧盟、日本、韩国等主要治理路径进行了比较研究,认为欧盟采取严格管理、注重安全的路径,日本以促进发展为主要导向,韩国兼顾安全与发展,但安全部分相对较轻。越南对国际经验进行了有选择性的结合,打造了兼顾安全与发展的越南模式,即安全强度高于韩国基础水平,但比欧盟设置更轻义务、更少程序,同时发展激励力度向日本看齐。

三是采取“框架性法律+配套规则细化”的技术路线。鉴于人工智能技术与应用迭代速度较快,越南在立法技术上强调灵活、可调整。越南《人工智能法》从法律层面确立基本原则、国家管理架构、风险分级与核心义务、禁止性规则及关键治理基础设施等制度框架,而将风险分级的具体操作、高风险人工智能系统名单、符合性评估程序、伦理影响评估等操作性规则交由政府后续以政令和部门规章分层细化,从而在保障规范稳定性的同时保留对技术变化的快速响应能力。

二、主要内容

越南《人工智能法》共8章35条,包括人工智能系统风险分级与管理,人工智能基础设施发展与国家主权保障,人工智能应用、创新生态与人力资源发展,人工智能伦理与责任,监督检查和法律责任、国家人工智能管理等内容。

(一)风险分级管理

越南《人工智能法》将人工智能系统区分为高风险、中风险与低风险,并以对人权、安全的影响程度,适用领域及规模等作为分类依据。人工智能具体分级方式以提供方自行分类为主,中风险与高风险系统须通过统一网站向主管机关报告分级结果后再投入使用。

该法规定了“透明度”和“事故管理”作为跨风险等级的基础性义务,明确了人工智能生成内容的标识义务,建立了严重事故报告制度。在高风险人工智能系统方面,该法规定高风险系统原则上须在投入使用前完成符合性评估,且明确由政府确定高风险系统目录,并据此区分“强制认证”与“自评/委托评估”两类路径。该法对高风险人工智能系统的提供方设定了风险管理、数据治理、技术文件与日志留存、人类监督与可干预、向监管机关与受影响者解释说明等义务,同时明确解释说明不应被要求披露源代码、详细算法、参数集等商业秘密。同时,该法明确在越南提供高风险人工智能系统的外国提供商必须在越南设有合法注册地址。在中风险与低风险人工智能系统方面,该法以“透明度义务+必要时可解释”的管理方式为主,强调不施加不必要负担并鼓励自愿采用技术标准。

此外,该法以禁止性规定划定底线,禁止利用人工智能实施违法侵害、以深度伪造等方式系统性操纵欺骗、利用弱势群体弱点造成伤害、严重危害国家安全的虚假内容传播等行为。同时,明确禁止违法处理数据、破坏人类监督控制机制以及隐匿或篡改法定标识等行为。

(二)发展促进制度

在发展促进制度方面,该法在第一章明确了鼓励人工智能发展的政策导向,并在第三章、第四章分别围绕基础设施建设和人工智能应用等方面明确了相应的促进措施。

在基础设施建设与确保国家人工智能主权方面,该法提出,国家人工智能基础设施作为战略性基础设施,由国家统筹推进,并深化公私协作方式。同时对关键领域人工智能应用提出应当部署在国家人工智能基础设施之上的要求,以强化安全与可控性。与之配套,该法还对人工智能服务数据库的建设作出规定。此外,为提升“自主可控”的技术供给能力,该法进一步提出优先开发和掌握核心人工智能技术,支持越南语与少数民族语言大模型、知识处理、高性能训练与算力、硬件与半导体等的研发。

在人工智能应用、创新生态与人力资源方面,该法构建了包含多种方式的发展促进工具箱。一是确立《人工智能国家战略》由总理发布并至少每三年评估更新。二是通过政府采购倾斜、供需对接平台与公平透明的测试环境等方式,推进人工智能生态系统和市场发展。三是以“受控沙盒”机制实现监管与创新的动态平衡。四是设立国家人工智能发展基金,重点投向基础设施、核心技术、企业发展与人才培养等。五是在人才培养、人工智能集群与中小企业/初创企业支持等方面形成相应制度化供给

(三)伦理管理制度

该法确立了以人为中心、保持人类控制与可干预、确保公平透明与无偏见歧视、推动绿色包容的可持续人工智能等基本原则。同时,该法明确制定国家人工智能伦理框架,明确以安全可靠、尊重人权与公民权利、促进福祉与可持续发展、鼓励创新并承担社会责任等为核心原则,并规定定期审查与更新,作为后续标准规范、行业指南与鼓励政策的基础。该法对在国家管理和公共服务中应用人工智能设置更强的责任义务,要求对高风险或对人权、公平与公共利益具有显著影响的系统,应当提交系统使用的影响评估报告。

(四)监督检查与法律责任

在监督检查方面,该法明确人工智能领域监督检查的开展依据,并赋予主管机关在检查中要求相关主体提供技术档案、留痕日志、训练数据及其他必要信息的权力,同时强调信息提供须遵守国家秘密、数据与个人数据保护及知识产权规则,且检查结论与行政处罚决定依法公开。

在法律责任方面,一是明确了相应的行政、刑事、民事法律责任,规定违反该法及其他与人工智能相关法律规定的组织和个人,将根据其违法的性质、严重性和后果,被处以行政处罚或接受刑事责任审查。造成损害时,必须按照民法规定支付赔偿。二是对高风险系统的损害救济作出更具操作性的配置。即便高风险系统已按法定要求被管理、运行与使用但仍发生损害,原则上由部署方先行对受害者承担赔偿责任,之后可在当事人约定下向提供方、开发方等追偿。同时规定受害者故意过错、不可抗力或紧急避险等免责情形。三是对第三方非法入侵控制导致损害的责任承担与连带赔偿作出安排。

声明:本文来自CAICT互联网法律研究中心,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。