4月11日,美国商务部下属国家电信和信息管理局(NTIA)发布“人工智能问责政策”征求意见稿(RFC)就是否需要对ChatGPT等人工智能工具实行审查、新的人工智能模型在发布前是否应经过认证程序等问题征求意见,期限为60日。

此次征求意见稿涉及人工智能审计、安全风险评估、认证等内容,目的是建立合法、有效、合乎道德、安全可信的人工智能系统。

虽然人们已经意识到人工智能的优势,但人工智能和算法致害的事件越来越多。为此,企业应当负有义务确保其人工智能产品在上市之前足够安全;使用人工智能技术的个人和群体也有权知道它们使用的产品已经过充分审查。具体而言,NTIA正在围绕以下主题,就美国人工智能问责政策征求意见:

1、人工智能审计和风险评估需要涵盖哪些方面的数据?

推进人工智能问责制的适当目标和方法可能取决于风险级别、部门、用例以及与被检查系统相关的法律或监管要求。评估和审计是为人工智能系统特性提供保证的最常见机制。人工智能审计和风险评估共同关注的领域包括:有害偏见和歧视、有效性、数据和隐私保护、透明度和人类对人工智能系统预测或决策的可理解性。对于社交媒体、生成式人工智能模型以及搜索引擎等服务而言,审计和评估内容还可能涵盖错误信息、虚假信息、深度造假、隐私侵犯和其他相关现象

一些问责制可以使用法律标准作为基准。例如,基于性别、宗教、种族、肤色、残疾、国籍等的就业歧视标准,可作为人工智能审计以及法律合规行动的基准。部分公司开始在技术层面提供人工智能模型测试,以检测偏见和/或不同的影响。但应该认识到,对于可信人工智能的某些特性,可能很难创建普适性的标准。

2、监管机构和其他行为者如何激励和支持人工智能系统的可信性,以及建立不同形式的问责制?

可作为人工智能系统模型问责制证明材料的范围非常广泛,从具有相对统一的财务审计报表,到标准多样的环境、社会和治理(ESG)均可。考虑到可信赖人工智能系统部署环境的各不相同,在短期内,人工智能问责制很可能是多样化的。

但建立充分和有意义的问责制还存在障碍。某些机制可能需要使用敏感数据构建的数据集,这会使隐私安全面临风险。此外,没有足够多的合格人员来审核系统,或在对人工智能系统进行基准测试时审核或评估标准不充分都是问题。

人工智能价值链,包括数据源、人工智能工具以及开发人员和客户之间的关系,也可能影响问责制并使其复杂化。数据质量是一个特别重要的变量,但遇到开发人员需要根据客户提供的数据训练人工智能工具、或者客户以开发人员未预见或无意的方式使用人工智能工具时,数据质量无法保证。

为了解决这些障碍,评论员建议政策制定者和其他人可以通过以下方式加强人工智能问责制:

强制进行影响评估和审计,定义第三方审计的“独立性”,制定采购标准,利用赏金、奖品和补贴激励有效的审计和评估,为人工智能评估和审计设定数据访问权限、为人工智能保证制定共识标准,提供审计员认证、提供测试数据。

此外,征求意见稿还对不同的行业部门(例如就业或医疗保健)需要采取什么不同的方法相关问题进行征询意见。

美国商务部下属国家电信和信息管理局局长艾伦·戴维森表示,“看到这些工具即使在相对初级阶段也能做到的事情,真是令人惊讶,我们知道,我们需要设置一些护栏,以确保它们被负责任地使用。”

声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。