引言

随着ChatGPT走红,AI大模型的热度与日俱增。不到一年的时间,国内已经进入了“百模大战”,10亿参数规模以上的大模型就已经近百,20%左右是通用大模型,80%左右是垂直领域大模型[1]。各行各业都在思考和讨论如何借由AI大模型加速行业发展,为企业赋能。以北京为例,2023年北京首批发布的行业大模型典型应用案例覆盖了医疗、电力、消费、金融、建筑、交通、汽车等多个行业[2]。

汽车行业作为科技创新的主力军之一,同时叠加汽车电动化与智能化两大趋势,AI大模型“上车”成为众多车企的必选项。AI大模型正在悄然改变汽车行业。本文拟通过梳理AI大模型在汽车行业的应用场景,分析AI大模型“上车”的重点法律问题并提供相关风险防范建议。

01 AI大模型的概念和常见类别

1. 基本概念

AI算法是一组通过计算机代码形式体现的计算规则,用于处理和分析数据。基于已有数据集运行AI算法后所得到的模型数据集与AI算法共同构成了AI模型,AI模型可作为未来推理预测的基础和处理相关数据的参照。

AI大模型通常是基于海量规模数据集运行相关算法完成预训练后的产物。以GPT大模型为例,从GPT-1到GPT-3,模型的参数量从1.17亿个增长到了1750亿个,最新发布的GPT-4据悉已达到了万亿级别的参数量[3]。

2. 常见类别

(1)自然语言处理类大模型

自然语言处理(Natural Language Processing,缩写为NLP)是一种使计算机能够认知、理解、生成人类语言的技术。常见的自然语言处理类大模型包括大语言模型(Large Language Model,缩写为LLM),即包含数十亿以上参数的旨在理解和生成人类语言的大型语言模型。

ChatGPT是基于大语言模型的典型产品,一方面ChatGPT能够认知、理解人类提出的问题和要求,另一方面ChatGPT能在一定程度上帮助人类完成回答问题、规划行程、购买产品、预约服务、创作、摘要、编程等工作。

(2)计算机视觉类大模型

计算机视觉(Computer Vision,缩写为CV)是计算机和系统从图像、视频和其他视觉输入中获取有意义的信息,并根据该等信息采取行动或提供建议的技术。

MetaAI于2023年4月在官网发布了基础模型Segment Anything Model(SAM),该模型在包含超过10亿个掩码的多样化、高质量数据集(SA-1B)上进行训练,可以对图像中的各类对象进行分割,属于一种计算机视觉类大模型[4]。由于图像分割是许多任务中的基础步骤,SAM后续可能在自动驾驶、车牌识别、人脸识别等场景得到进一步应用。

(3)多模态大模型

多模态大模型指能够处理、分析文本、音频、图像、视频等多种输入类型并相应输出的大模型。相较于经过单一的文字类数据训练的自然语言类模型,多模态模型在训练阶段融合了多维度的数据,因此具备更高的通用性,可应用的场景也更多。

2021年,OpenAI发布了Contrastive Language-Image Pre-Training (CLIP)模型,该模型是一种从文字覆盖到图像的多模态模型,可以在无监督预训练之后将文本和图像对应,从而基于文本对图片进行分类,而非只能依赖于图片标签[5]。CLIP可以广泛应用于图像检索、图像生成、视觉导航等场景中。此外,OpenAI还推出了一个名为DALL-E的模型,它是在CLIP模型的基础上开发的一种生成模型,能够基于自然语言描述和/或图像生成图像,该模型也属于一种多模态大模型[6]。

02 AI大模型在汽车行业的应用场景

AI大模型目前在汽车行业的应用场景主要包括智能座舱与自动驾驶:

1. 智能座舱

越来越多的车企开始考虑在车内引入AI大模型。针对当前车载语音系统智能化、个性化、情感化、交互性不足等问题,自然语言处理类大模型可以赋予车载语音系统以智能和情感,从而使车载语音系统能够处理完整对话并可以保持对前后文的理解,能够记录用户的喜好和习惯;同时,多模态大模型可以助力融合语音、视觉、手势、文字等多种交互方式,满足用户在不同场景下的不同使用习惯,从而赋予用户良好的人车交互体验。

2. 自动驾驶

自动驾驶系统一般分为感知、决策和执行三个环节。目前AI大模型主要运用于自动驾驶的感知环节,但未来AI大模型的作用有可能延伸到自动驾驶系统的决策和执行环节。此外,AI大模型还可能会被应用于自动驾驶相关模型的预训练。

(1)感知环节

感知环节数据的收集一般通过摄像头、雷达等传感器完成。为了能够做出可靠的驾驶决策,对感知层收集到的多种数据进行充分融合并准确理解至关重要。

对此,多模态大模型有助于对传感器收集到的原始数据或从原始数据中提取的相关特征,在统一相关时间和空间后,映射到统一坐标系下进行前融合或特征融合,从而提升感知环节的精度。业内存在一种观点认为,相较于计算机视觉类大模型仅基于摄像头的纯视觉方案而言,基于摄像头和雷达的成熟的多模态大模型感知方案安全性可能更高,因为雷达为感知环节提供了安全冗余。

此外,在相关大模型的赋能下,自动驾驶车辆可在感知环节实时收集车辆周边的环境信息、理解交通规则并预测其他车辆的行为,从而可以减少甚至去除对于高精地图的依赖。大模型赋能为“脱图”提供了技术和理论上的可能性,“重感知,轻地图”可能成为行业发展的主流方向。目前不少自动驾驶厂商相继提出“脱图”时间表。

(2)端到端感知决策一体化

多模态大模型等AI大模型可能促成输入数据到输出控制仅通过一个AI大模型实现,实现“端到端”控制和感知决策一体化。端到端感知决策一体化方案的优势在于其使得自动驾驶成为一个整体,避免级联误差,更贴近人类的驾驶过程;其劣势在于该模式属于黑箱模型,出现问题时较难快速找到问题所在,需要依靠推测和实验进行调整,存在一定安全性隐忧,故目前尚未成为自动驾驶的主流方案[7]。尽管如此,目前仍有不少自动驾驶厂商在积极探索端到端感知决策一体化方案安全落地的可能性。

(3)模型预训练

在模型训练阶段,挖掘到有价值的数据后,需要对采集的数据进行标注,将未经处理的初级数据进行加工处理,转换为机器可识别的数据集,从而用于实现对模型的训练和迭代。

自动驾驶语境下的数据多为摄像头收集的图像、视频数据,对该等数据的标注涉及2D至4D标注、车道线标注、语义分割等,复杂性高、工作量大,若全部由人工标注,可能存在效率低、成本高和准确性差等问题[8]。借助计算机视觉类大模型可实现以AI自动数据标注为主,人工复核为辅的进阶模式,有助于加速数据标注工作流程并大幅降低数据标注成本。

除使用真实场景数据外,自动驾驶相关模型的训练还可能使用仿真场景数据。仿真场景数据成本低,无需标注,且可构建边缘场景(如极端天气、长尾场景等),从而弥补大模型训练数据成本高、数量不足等问题。计算机视觉类大模型、多模态大模型等大模型可助力构建高仿真场景,缩小仿真数据与真实数据之间的差异,提高场景泛化能力,并提高仿真场景的针对性[9]。

03 AI大模型“上车”时车企需要关注的主要法律问题

在AI大模型“上车”逐渐成为众多车企发展目标的同时,相应监管要求也正日益出台。相关企业(包括车企,技术研发企业、方案与零部件供应商等)需关注如何落实AI大模型“上车”相关合规要求,应对AI大模型这一新技术新应用带来的合规风险和挑战。

1. 分类分级监管

如果说数据是AI大模型的血肉,那么算法就是AI大模型的骨架。针对AI大模型的该两大核心要素,我国均提出了分类分级监管要求。

(1)数据分类分级

2021年以来,《数据安全法》与《个人信息保护法》等数据保护法规相继出台,中国确立了数据分类分级监管的基本思路。

与AI大模型“上车”带来的应用革新伴生的是相关企业收集数据的种类愈发多元化,收集数据的数量呈指数级增长,对所收集数据的分析利用更加复杂。相应的,相关企业面临的数据安全风险更高,带来的数据分类与分级工作的压力也更大。

1)智能座舱场景涉及的主要数据种类

如今,智能座舱已从触摸式中控大屏时代跃入人车交互时代。在新一代智能座舱中,通过基于多模态大模型的新一代人机交互技术与互动设计,车内人员可以仅通过语音或动作方式发送指令,甚至,可以仅通过“给一个眼神”来向智能汽车传达需求。

根据不同的人机交互技术,新一代智能座舱可能收集的数据主要可分为以下四类:

视觉反馈数据

在搭载车内人员监控系统(DMS/OMS)的智能座舱内,车机系统可以通过摄像头追踪车内人员瞥向某一屏幕的视线,随即自动亮屏或唤醒车载助手;或者通过眼动追踪与面部状态监控,识别驾驶员是否分心或者疲劳驾驶,从而适时发出提醒。

在智能座舱捕捉并分析车内人员的视线过程中,涉及收集车内人员眼睛位置、眼球反光点、眼球移动指标、视线停留时长等多种数据。

语音感知数据

通过AI语音与语义识别技术,智能座舱整体已经可以较好实现在自然环境中识别车内人员的指令,并作出正确响应。为了实现良好的语音交互效果,智能座舱需要收集车内语音,并对其进行语义分析,再根据语义分析结果对语音指令作出反馈。语音指令中可能包括家庭地址、公司地址、联系人姓名和电话、通讯录、住宿信息、行程等个人信息。智能座舱还可能收集车内人员的声纹信息,从而根据不同声纹判断声音的来源。

行为感知数据

新一代智能座舱可以通过摄像头收集车内人员的手势、面部朝向、身体位置、头部转动方向等数据,并根据该等数据分析车内人员的意图作出反馈。例如,对着车载屏幕挥手实现不同应用之间的切换。

其他常规数据

新一代智能座舱一般仍保留传统中控大屏,车内人员可通过中控大屏实现用户注册,查询信息,更改车内参数等功能,这个过程中可能涉及收集车内人员的姓名、电话、住址、住宿信息、行程等个人信息。

由此可见,智能座舱收集的车内数据中包含不少个人信息,其中还涉及声纹、面部识别特征、通讯录、住宿信息、行踪轨迹等敏感个人信息。若收集的个人信息数量较大,大规模的个人信息作为一个整体可能构成重要数据。

2)自动驾驶场景涉及的主要数据种类

自动驾驶技术的关键在于赋予车辆以“眼睛”和“大脑”,促使车辆可以像驾驶员一样收集、识别和理解车辆周边的道路、信号灯、车道线、指示牌、其他车辆、行人、其他障碍物等信息,并进行相应的决策和执行环节。

培育AI大模型这一自动驾驶“大脑”的过程中,需要集采和测试车辆收集大量数据,实际自动驾驶的过程中,亦需要通过摄像头、雷达等车辆的“眼睛”收集大量数据,可能收集的数据主要包括以下几类:

面向车外的摄像头数据

摄像头将收集车辆周边的道路、信号灯、车道线、指示牌、其他车辆、行人、其他障碍物等图像、视频格式的数据,其中可能涉及人脸信息和车牌信息。

雷达数据

激光雷达、毫米波雷达、超声波雷达等雷达可以收集车辆周围障碍物的尺寸、位置、形状及与障碍物的距离等数据。

从车辆本身获取的数据

包括车速、转向方位、转向角度、GPS位置、剩余油量等从车辆本身获取的数据。

时间与位置数据

此类数据作为附加信息,反映了以上各类数据记录的时间与地理位置。

不同于智能座舱收集的多为个人信息,用于训练自动驾驶相关算法的数据主要为车辆周围的道路状况、建筑物、车辆密度、行人数量等非个人信息,仅包括少量个人信息如人脸信息、车牌号等。

自动驾驶过程中收集的部分非个人信息可能构成重要数据,如包含人脸信息或车牌信息等的车外视频或图像数据,以及某区域的车辆流量或人员流量等经济运行数据(自动驾驶技术往往需要海量数据用于训练和迭代AI大模型,通过对海量技术的综合分析,可能掌握某区域的车辆流量或人员流量等经济运行数据)[10]。

为了更好地应对数据分类分级的合规要求,相关企业首先可以盘点车内外收集的数据资产并标记不同数据的“类别”与“级别”,在标记数据“类别”与“级别”时,可以参考对数据分类分级的相关规定和指引,如《汽车数据安全管理若干规定(试行)》以及数据分类相关国家标准和行业指南;然后,企业可以根据标记实施不同管理措施,例如对不同类别、级别的数据采取访问权限控制等措施,对于特别敏感、重要的数据,例如GPS信息、通讯录信息、人脸信息、车牌信息等,可以不上传到云端仅在车内处理或者脱敏后再上传到云端处理。

(2)算法分类分级

除了对数据分类分级监管,中国也正在推进算法分类分级监管机制。

不久前施行的《生成式人工智能服务管理暂行办法》中明确提出,将“针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引”[11]。这呼应了2021年国家网信办等九部委发布的《关于加强互联网信息服务算法综合治理的指导意见》中提出的要“坚持风险防控,推进算法分级分类安全管理,有效识别高风险类算法,实施精准治理”的要求[12]。

我国虽然尚未出台算法如何分类分级及实施监管的具体制度,但从我国目前对算法的监管思路(请见下文分析)可以看出,我国对风险相对较高的且具有舆论属性或者社会动员能力的算法采取了算法备案和安全评估等监管手段,该手段是一种对高风险类算法实施精准治理的专门措施。

参考以上监管思路,我们理解智能汽车场景下具备一定风险的算法包括可能具有影响意识形态、威胁人身安全、违背道德伦理等不利后果的算法。就智能座舱而言,AIGC类相关算法根据车内人员提示输出的回复可能具有影响舆论、意识形态的风险,这要求相关企业就智能座舱中搭载的AI大模型输出的内容进行合规风险控制。就自动驾驶而言,相关算法可能影响自动驾驶感知环节信息识别和理解的准确性,一旦感知环节识别和理解的信息不准确,可能会对车内外人员的人身安全带来严重威胁,因此,开发者们需要在开发相关AI大模型的过程中采取适当措施保证AI大模型的可靠度和安全性。此外,在紧急场景下,如在车辆面临“有轨电车难题”时,AI大模型的决策还可能会带来道德伦理方面的风险,开发者在设计自动驾驶决策相关算法时需考虑如何处理该等特殊场景。

欧洲也提出了一种算法分级监管的规则。2023年6月,欧洲议会通过了《人工智能法案》(Artificial Intelligent Act)(草案)(“AI法案草案”),其提出了一种基于风险的分级管理方法[13]。AI法案草案参考功能、用途和影响将人工智能的应用分为四个风险级别,即不可接受的风险、高风险、有限风险和低风险[14]。不同风险级别对应不同的监管要求,例如,对于高风险类人工智能,要求进行事前评估后才可投入市场[15]。AI法案草案还列举了特定领域的高风险类人工智能系统,包括道路交通、供水、供气、供热和供电关键基础设施的管理和运营等八类[16]。后续中国在制定算法分类分级监管规则或者指引时,欧洲立法经验或可成为有益的参考。

2. 算法备案与安全评估

我国目前对算法的主要监管手段包括算法备案和算法安全评估。对于具有舆论属性或者社会动员能力的推荐性算法,我国要求此类算法的互联网服务提供者、算法推荐服务提供者、深度合成服务提供者及生成式人工智能服务提供者履行算法备案手续[17],并开展安全评估[18]。此外,对于深度合成类算法,若涉及生成或者编辑人脸、人声等生物识别信息的,或者涉及生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的,深度合成服务提供者和技术支持者也应当开展安全评估[19]。

推荐性算法包括生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法。针对智能座舱场景,其使用的AIGC相关算法属于生成合成类算法,通常属于具有舆论属性或者社会动员能力的算法,因此需要完成算法备案和安全评估。而自动驾驶场景下,其使用的算法不必然“具有舆论属性或社会动员能力”,因此相关企业可能不一定需要就该等算法进行算法备案和安全评估。

对于企业如何开展算法安全评估,我国尚未出台具体细则和指引。2023年8月6日发布,并将于2024年3月1日实施的《信息安全技术 机器学习算法安全评估规范》(GB/T 42888-2023)对算法推荐服务提出了一套详细的评估方法,具有一定参考价值。该标准提出,服务提供者可以从算法主体责任、信息服务、权益保护等方面开展评估工作,并详细列出了各项评估事项下具体应开展的工作以及评估要点,例如应当查阅哪些文件、审核哪些合规义务是否完成等[20]。此外,该标准也建议了对于生成合成类、个性化推送类、排序精选类、检索过滤类、和调度决策类五类算法的评估方法[21]。

其他国家目前也正在建立算法影响评估制度。例如,2022年2月,美国提出《2022算法问责法案》(The Algorithm Accountability Act of 2022)(以下简称“美国算法问责法案”)[22],也可在一定程度提供参考价值。美国算法问责法案提出了算法影响评估制度,其规定的评估内容包括:应评估算法应用过程中的隐私风险和保护措施、用户权利保障水平、对用户可能产生的风险及应对策略等[23]。

3. 科技伦理审查

随着《科技伦理审查办法(试行)》公布,我国的科技伦理监管规则变得更加清晰。《科技伦理审查办法(试行)》主要规定了科技伦理审查的适用范围、责任主体、主要程序,以及各类主体的监督管理职责。

根据《科技伦理审查办法(试行)》,企业开展涉及AI的科学研究活动(包括智能座舱、自动驾驶相关AI大模型的研发与应用),较可能属于开展对“生命健康、生态环境、公共秩序、可持续发展等方面带来伦理风险挑战的科技活动”,从而需要开展科技伦理审查[24]。

如果企业的人工智能科技研究内容涉及科技伦理敏感领域,该企业应设立科技伦理(审查)委员会[25]。对于应用AI大模型开展自动驾驶研发活动的企业,由于自动驾驶技术本身的高度伦理敏感性,相关技术的研发企业有可能属于应当设立科技伦理(审查)委员会的义务主体。

此外,《科技伦理审查办法(试行)》还提出要建立需要开展专家复核的科技活动清单制度,对可能产生较大伦理风险挑战的新兴科技活动实施清单管理[26]。清单上的企业通过本单位科技伦理(审查)委员会的初步审查后,需由本单位报请所在地方或相关行业主管部门开展专家复核。根据目前已公布的清单,智能座舱相关AI大模型研发可能属于“具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发”,自动驾驶相关AI大模型研发可能属于“面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发”,因此可能需要开展专家复核[27]。

目前,对于不同类别的科技活动应当遵循何种审查标准,仍是有待讨论和解决的问题。一些国家和地区正尝试明确何为“符合科技伦理”的科技活动。

以自动驾驶为例,德国提出了“自动驾驶算法伦理准则二十条”(以下简称“伦理准则二十条”),旨在规定自动驾驶算法研发中应遵循的原则[28]。自动驾驶算法开发活动中的核心伦理问题之一是,是否允许量化比较生命的价值。比如多人的生命是否比一个人的生命更富有价值,或者生命的价值是否能以年龄、性别、外表等因素衡量。伦理准则二十条对这种伦理困境提出的解决方案可概况为四点:首先,人的生命优先,动物与无生命的财产可以被牺牲;第二,生命与生命之间不可衡量;第三,不得基于人群特征预先设定方案;第四,面对真正的伦理困境,应当交由人类决策。尽管伦理准则二十条的上述倡议未直接明确何为“符合科技伦理”的科技活动,但该等原则性的解决方案对于判断何为“符合科技伦理”的科技活动提供了一定框架和参考。

就目前而言,企业如果希望开展科技伦理审查,除了依据有限的法规以外,也可考虑聘请外部专家协助企业设立科技伦理(审查)委员会,制定企业内部的科技伦理审查标准。对于可能需要上报开展专家复核的较大伦理风险的科技活动,企业可考虑尽早与相关监管部门沟通,并对行业内的科技伦理审查具体标准保持关注。

4. 数据语料的有序合法流动

数据是AI大模型的核心要素之一,数据质量和数据规模很大程度决定了AI大模型的整体效率和质量。AI大模型开发企业目前使用的数据语料的主要来源有三个方面,一是点对点从第三方处购买,二是购买数据交易所内公开上架的产品,三是使用开源数据集等免费公开数据。

(1)点对点数据流动

从第三方点对点购买大量数据是获取数据语料的途径之一。然而,对于希望训练汽车行业AI大模型的开发者而言,购买训练所需数据并非易事。

如前文所述,用于迭代自动驾驶相关AI大模型的训练数据可能含有重要数据。根据《工业和信息化领域数据安全管理办法(试行)》,提供重要数据和核心数据的,应当与数据获取方签订数据安全协议明确双方的法律责任,对数据获取方数据安全保护能力进行核验,并需要采取必要的安全保护措施[29],如校验技术、密码技术、安全传输通道或者安全传输协议等措施[30]。企业获取重要数据后,也需履行作为重要数据处理者的一系列合规义务,包括履行不同维度的申报、备案义务、采取更严格的安全保障措施、制定并执行重要数据处理活动全生命周期的管控制度和流程等。

对于应用于智能座舱的AI大模型,则更需要大量个人信息用于训练模型。我国个人信息保护制度对个人信息的共享活动提出了一系列要求。例如,《个人信息保护法》要求个人信息处理者将个人信息对外提供的,应当告知个人并取得同意,还需进行个人信息保护影响评估[31]。《信息安全技术-个人信息安全规范》(GB/T 35273-2020)则明确指出,在共享或转移个人信息时,应通过合同等方式规定数据接收方的责任和义务[32]。关于数据处理协议应当具备的主要内容与注意事项,请参考我们的文章个人信息流动中的数据处理协议,你准备好了吗?

(2)数据场内交易

随着我国大力推进数据交易所的设立,越来越多企业选择将优质数据产品上架至数据交易所进行交易,其中不乏以数据集、API、数据报告、数据模型为交付形态的相关产品[33]。

对于购买方,其获取数据的过程需同时遵守法律法规规定的数据保护合规义务以及数据交易所的交易规则。对于出售方,其上架的数据产品还需通过数据交易所对数据产品的合规评估。

如果相关企业考虑将自身拥有的数据集、算法、模型等上架数据交易所,可能需要提交关于数据来源、数据授权使用目的和范围、数据处理行为等方面的说明材料以及第三方服务机构出具的数据合规评估报告。该等数据合规评估报告一般包括对交易主体经营风险、交易标的的来源合法性、可交易性和可流通性等事项的评估结论,出售方企业需对此预留时间完成相应准备。

(3)使用开源数据集

在汽车行业,使用开源数据集训练AI大模型较为普遍。目前市面上已有不少高质量的开源数据集,帮助开发者“站在巨人的肩膀上”进行研发。

但是,开源并不代表毫无限制。开源数据集往往配套数据集许可协议,旨在规范他人对数据集的利用,保护作者的权益,以及促进数据的开放共享。数据集许可协议一般约定使用者是否应当保留原作者姓名、是否允许商用、是否允许基于商业目的传播、改编或者二次创作,是否要求基于原作的新作品也使用相同的许可协议等内容。企业使用开源数据集进行AI大模型科研活动的,除了应遵守法律法规规定的合规义务外,还需留意数据集许可协议中约定的义务。

结语

AI大模型为汽车行业实现高度智能化带来了新生力量,同时也为企业带来新的合规风险敞口。现有的数据、算法、科技伦理等相关监管要求相对复杂,对企业的法律解读能力与合规实践水平提出了较高要求。在汽车行业拥抱AI大模型的时代,相关企业不仅应追求技术领先地位,同时也应提升合规经营水平,方能保持长期健康发展。

脚注:

[1] 36氪,《大模型狂奔300天》:https://36kr.com/p/2469370022778758。

[2] 澎湃新闻,《北京发布首批10个行业大模型典型应用案例》:https://m.thepaper.cn/newsDetail_forward_23646784。

[3] Matthias Bastian, GPT-4 has more than a trillion parameters - Report:https://the-decoder.com/gpt-4-has-a-trillion-parameters/。

[4] Meta AI官网:https://ai.meta.com/research/publications/segment-anything/。

[5] OpenAI官网:https://openai.com/research/clip。

[6] OpenAI官网:https://openai.com/dall-e-3。

[7] 东方证券,《AI大模型加速落地,汽车智能化迅速发展》第1.2部分,2023年6月27日。

[8] 开源证券,《智能汽车系列深度(十):自动驾驶算法篇——大模型助力,自动驾驶有望迎来奇点》第2.5.1部分,2023年6月29日。

[9] 安信证券,《AI大模型在自动驾驶中的应用》第3.1部分,2023年5月4日。

[10] 根据《汽车数据安全管理若干规定》第3条,车辆流量、人员流量等反映经济运行的数据,以及包含人脸信息或车牌信息等的车外视频或图像数据属于重要数据。

[11] 《生成式人工智能服务管理暂行办法》第十六条。

[12] 《关于加强互联网信息服务算法综合治理的指导意见》第(二)条。

[13] Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts:https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206。

[14] AI法案草案第5.2.2段。

[15] AI法案草案第5.2. 3段。

[16] AI法案草案附件III。

[17] 《互联网信息服务算法推荐管理规定》第24条;《互联网信息服务深度合成管理规定》第19条;《生成式人工智能服务管理暂行办法》第17条。

[18] 《互联网信息服务算法推荐管理规定》第27条;《互联网信息服务深度合成管理规定》第20条;《生成式人工智能服务管理暂行办法》第17条;《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》第3条;

[19] 《互联网信息服务深度合成管理规定》第15条。

[20] 《信息安全技术 机器学习算法安全评估规范》(GB/T 42888-2023)附录A。

[21] 《信息安全技术 机器学习算法安全评估规范》(GB/T 42888-2023)附录B。

[22] Algorithmic Accountability Act of 2022, H.R. 6580, 117th Cong. (2022):https://www.congress.gov/bill/117th-congress/house-bill/6580/text?r=2&s=1。

[23] 美国算法问责法案第4部分。

[24] 《科技伦理审查办法(试行)》第2条。

[25] 《科技伦理审查办法(试行)》第4条。

[26] 《科技伦理审查办法(试行)》第25条。

[27] 《科技伦理审查办法(试行)》附件(需要开展伦理审查复核的科技活动清单)。

[28] https://www.bmvi.de/SharedDocs/EN/Documents/G/ethic-commission-report.pdf?__blob=publicationFile

[29] 《工业和信息化领域数据安全管理办法(试行)》第18条。

[30] 《工业和信息化领域数据安全管理办法(试行)》第17条。

[31] 《个人信息保护法》第23、55条。

[32] 《信息安全技术-个人信息安全规范》(GB/T 35273-2020)第9.2条d)项。

[33] 参考深圳数据交易所官网,https://www.szdex.com/。

本文作者

赵新华

合伙人

公司业务部

atticus.zhao@cn.kwm.com

业务领域:公司并购、外商直接投资、公司重组、数据及隐私保护

赵新华律师拥有十多年的法律从业经验,曾为多家知名国内外企业提供法律服务,包括股权或资产收购、转让、公司重组、设立合资公司、特许经营、数据及隐私保护等,涉及的行业包括汽车、人工智能、物联网、高科技、零售、教育、现代农业、工业制造、船舶和医药等。赵新华律师对智能汽车、车联网领域的法律问题有着深入的研究,并为国内外众多客户提供并购、市场准入及合规方面的法律服务。

王哲峰

公司业务部

单文钰

公司业务部

米华林

公司业务部

感谢实习生郭思雨和卢虹羽对本文作出的贡献。

转载声明:好文共赏,如需转载,请直接在公众号后台或下方留言区留言获取授权。

封面图源:画作·林子豪

声明:本文来自金杜研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。