美国进步中心(Center for American Progress)近期发布标题为《生成式人工智能应在每个层面上负责任地开发和部署》的报告。报告讨论了生成式人工智能(AI),尤其是大型语言模型(LLMs),在带来变革性机遇的同时,也面临着重大挑战。

为了确保生成式AI技术的负责任开发和部署,需要在技术、政策和法规方面采取紧急行动,包括明确用户安全制度、提高政策执行的透明度以及规范开发者和部署者的责任等措施。

背 景

生成人工智能 (AI),特别是大型语言模型 (LLMs) 的空前增长,既带来了变革机遇,也带来了重大挑战。

生成式人工智能技术以能够生成文本、照片、音频和视频等合成内容的人工智能模型为标志,已得到迅速应用,在短短几个月内就覆盖了数亿用户。

著名的开发商,包括大型科技公司亚马逊、谷歌、Meta 和微软,以及较新的初创公司(通常拥有大型科技投资),例如 Anthropic、Inflection AI 和 OpenAI,都处于技术的前沿。这场革命,构建先进的人工智能模型,并使用这些人工智能模型提供自己的第一方人工智能服务,并通过应用程序编程接口(API)提供这些人工智能模型的第三方部署。

生成式人工智能向主流应用的扩展非常迅速,而且这种快速增长超过了强有力的安全措施的发展。生成式人工智能开发人员已经采取了一定的人工智能监管措施。

但是在执行过程中,他们在模型级别实施的一些安全措施,例如在其 AI 模型的第一方部署中添加了额外的信任和安全功能,同时第三方通过 API 进行部署的安全要求有限。

这引起了人们对人工智能潜在滥用、用户保护以及整个社会风险的极大担忧。

通过第三方API使用生成式AI存在严格的安全标准或要求的缺失,这引发了关于安全责任和潜在滥用的问题。

这种差异在生成式AI的增长和盈利机会主要根植于第三方API调用的情况下尤为显著。

相关政策与问题

2023 年 1 月,美国商务部国家标准与技术研究所发布了人工智能风险管理框架(AI RMF 1.0),这是一个自愿框架,旨在帮助人工智能开发人员评估和减轻人工智能风险。

该框架没有区分开发人员和部署人员,也没有提供任何指导,说明双方如何负责减少第一方和第三方对人工智能的使用。

2023年10月美国国家标准与技术研究院发布关于人工智能的行政命令要求 ,“为生成式人工智能开发人工智能风险管理框架(NIST AI 100-1)的配套资源”,并于2023年12月发布了关于该主题的信息请求(RFI),对第三方调用生成AI的风险管理的关注必须成为新的生成AI RMF配套资源的关键焦点。

2023 年 7 月,拜登政府获得了七位主要的生成式 AI 开发商的自愿承诺,以帮助实现 AI 技术的安全、可靠和透明的开发。虽然这是一个进步,但它缺乏一个监督和问责框架来真正确保七家签署公司的合规性,并且完全没有提到通过 API 来规范第三方调用。

当使用其人工智能框架的第三方都不需要包含任何安全功能时,很难理解公司如何做出安全、保障和信任承诺。适用于这些公司的任何执行框架还必须专门扩展到使用其 API 的第三方部署者,特别是考虑到与不受监管的第三方人工智能使用相关的危害。

2023年11月,OpenAI和Anthropic加入了名为基督城呼吁(Christchurch Call) 的国际倡议,自愿承诺采取透明、具体的措施,防止恐怖主义和暴力极端主义内容的上传和传播,包括在不影响执法和用户上诉要求的情况下,立即和永久删除这些内容。然而,在基督城呼吁中并没有提到,如果第三方人工智能服务的用户不需要具备任何安全功能,这些人工智能公司如何遵守承诺。

目前NIST AI RMF、白宫自愿承诺和基督城呼吁承诺缺乏有关监督、问责和执行的具体规定,也不涵盖第三方调用。即使公司遵守这些承诺,由于缺乏第三方调用保护,他们也无法真正遵守这些承诺。展望未来,从社交媒体失败中汲取的惨痛教训应用于自我监管至关重要,特别是在政策制定者寻求推进立法和行政行动以追究开发商责任的情况下。

按照目前的增长速度,生成式人工智能将继续迅速惠及数亿人。我们应该采取行动,以免为时已晚。该报告就开发人员如何开始平衡他们对第一方和第三方的安全承诺提出了一些想法,随后提出了行业、政府和民间社会的建议,以广泛保护生成式人工智能系统。

建 议

现有政策的执行

执行所有现有的已发布政策,并建议一种易于使用的方法来向部署人员报告不当使用情况。

建立并保留足够的内部员工来执行和维护所有政策、流程和协议,以确保用户安全。

开发人员应该有一个明确的执行机制来管理 API 访问,并应该建立一个执行机制来撤销对违反使用政策的第三方的访问权限,包括报告、调查、隐私保护文档实践、适当的数据保留和执行此操作的工具。充分地出来。

防止滥用

默认内容审核功能(例如 OpenAI 的审核端点和 Azure 的滥用监控)可供使用和操纵开发人员 LLMs 的部署者使用,并要求提交向开发人员提供关闭它们的理由。

如果部署者被批准关闭内容审核,开发人员应保留对输入和输出的访问权限,以确保负责任的系统使用,并在永久删除之前存储行业商定的时间。

数据和工具

确保开发人员和部署人员之间建立适当的数据共享机制,并发布报告之前、期间和之后的保留策略。

构建和增强工具来管理和撤销 API 访问(如果部署者违反了开发人员条款或任何其他使用策略)。

报 告

任何人在任何时间以第一方或第三方身份以任何格式使用 LLM 都应该能够向开发商和部署者报告人工智能系统的潜在违规行为,如果报告应该有清晰透明的流程并保留适当的数据。

报告应尽可能简单易操作——例如,应将其内置于 UI 中,例如 Anthropic 最近更新的 Claude 报告流程;直接将选项显示在界面上;不需要通过电子邮件发送隐藏在帮助中心文章中的地址等等。

应该有面向用户的申诉流程,并承诺及时进行人工审查申诉。

同样,应该要求部署人员具有直接从用户到开发人员的报告功能,并且开发人员应该适当地安排人员排队,以确保及时审查使用情况和开发人员策略。

公共部门的作用

除了私营部门有责任保护这些系统之外,公共部门也可以发挥至关重要的作用。欧盟的人工智能法案可以为美国政府如何制定管理开发人员和部署人员的政策提供启发。例如,它要求部署者在使用高风险人工智能系统后遵守监控、记录保存、人工监督和透明度义务。

美国国家标准与技术研究院(NIST):NIST 必须将针对生成式 AI 公司的第三方风险管理建议纳入近期行政命令中对其生成式 AI 要求的回应中,与 AI 风险管理配套框架,并作为美国人工智能安全研究所的一部分。

行政部门:行政部门应责成一个跨部门工作组,对七个白宫人工智能承诺签署方 关于第三方缓解措施的情况进行审计,并敦促签署方同意公司对第三方用户强制执行的自愿安全框架人工智能模型。

联邦贸易委员会(FTC):FTC 应开展研究以确定领先的生成式 AI 开发人员应对使用其 API 的第三方部署者提出什么样的安全要求。此外,它应该开始概述开发人员和部署人员应采取的明确步骤,以合法保护用户并确保责任不会仅仅转嫁给另一方。FTC 在这方面有一些先例,因为 Facebook 2019 年和解协议的部分原因是其平台条款执行不严,包括在剑桥分析丑闻期间。

国会:国会应阐明第一方和第三方调用之间的差距,并在立法提案中纳入缓解这些差距的方法。此外,它应该采取行动确定人工智能模型开发者和人工智能模型部署者之间适当的责任划分。双方都必须承担一定的责任以确保负责任的行为,国会必须防止双方无休止地将责任推给对方。民权律师委员会最近提出了《在线民权法案 ,其中包括开发人员和部署人员的注意义务,并要求部署人员就危害情况进行年度报告,并由开发人员进行审查。

NEWS

内容来源:

美国进步中心(Center for American Progress)

文章题目:

Generative AI Should Be Developed and Deployed Responsibly at Every Level for Everyone

链接:

https://www.americanprogress.org/article/generative-ai-should-be-developed-and-deployed-responsibly-at-every-level-for-everyone/

(本文内容系“ 稻香湖下午茶 ”公众号原创编译,转载时请务必标明来源及作者)

声明:本文来自稻香湖下午茶,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。