2024年3月13日,受美国国务院委托,格莱斯顿人工智能公司(Gladstone)发布《纵深防御:提高先进人工智能安全保障的行动计划》(Defense in Depth:An Action Plan to Increase the Safety and Security of Advanced AI)报告。该报告由来自美国、英国和加拿大200多名人工智能领域公司的专家及政府工作人员参与编写,并提出5条工作路线,旨在解决在通往通用人工智能(AGI)的道路上,先进人工智能系统武器化和失控所带来的灾难性风险。元战略编译报告重要内容,为读者探讨人工智能安全提供参考。

工作路线1

建立临时保障措施,稳定先进人工智能发展

当前人工智能的前沿发展对国家安全构成了紧迫且日益增长的风险。随着人工智能供应链各组成部分的扩散,这些风险将越来越难以控制。此外,目前人工智能的发展速度如此之快,以至于普通的决策过程可能会在所产生的政策生效时被取代。工作路线1概述了美国行政机构可能采取的行动,以便在近期(1-3年)降低人工智能的灾难性风险,同时为成功的人工智能长期保障措施创造条件,这些行动包括:

1.创建人工智能观察站(AIO),监测先进人工智能的发展,确保政府对该领域的看法是最新且可靠的;

2.为先进的人工智能系统及其开发者规定一套负责任的人工智能开发和采用(RADA)临时保障措施;

3.建立机构间人工智能安全工作组(ASTF),协调实施和监督RADA保障措施;

4.对先进人工智能的供应链实施一系列控制措施,以保持政府面对不可预测风险时的灵活性。

工作路线2

加强对先进人工智能的防备和应对能力

先进人工智能和通用人工智能的风险缓解将涉及一系列广泛的美国政府权利,然而,人们对先进人工智能领域的了解并不均衡。缓解措施需要提前规划、协调,并对风险信号有广泛的了解才能取得最大成功,这就需要大量的能力建设。工作路线2概述了美国政府可采取的具体行动,以提高其快速处理与先进人工智能和通用人工智能开发和部署有关的事件的准备程度,这些行动包括:

1.为本行动计划所列的工作路线建立机构间工作组;

2.通过教育和培训提高防备和应对能力;

3.协调制定针对先进人工智能和通用人工智能事件的“指示与警告”(I&W)框架;

4.协调制定基于情景的应急计划。

工作路线3

增加对人工智能安全技术研究和标准制定的国家投资

对人工智能能力的投资速度正在超过先进人工智能和通用人工智能风险的相应技术保障措施的发展速度。如果这种情况继续下去,先进人工智能实验室可能会发现自己无法应对自身系统带来的安全和安保挑战。除非设计出强有力的技术保障措施,并将其标准化和广泛应用,否则前沿人工智能系统的持续开发和采用可能会带来巨大风险。工作路线3概述了美国政府可采取的具体行动,以加强国内在先进人工智能安全和安保、人工智能调整和其他人工智能技术保障方面的技术能力,这些行动包括:

1.直接资助先进人工智能的安全和安保研究,包括人工智能可扩展的对齐研究;

2.为负责任的人工智能开发和采用制定、定期审查和颁布安全和安保标准。

工作路线4

通过建立人工智能监管机构和法律责任框架,正式确立负责任的人工智能开发和采用的保障措施

临时法规可能不足以应对先进人工智能的风险和挑战,一个通过详细而灵活的负责任的人工智能开发和采用(RADA)保障措施来直接应对灾难性风险的人工智能监管和责任法律框架,对于促进长期稳定和弥补现有授权中的空白至关重要。工作路线4概述了美国立法部门可采取的具体行动,为长期(4年以上)的国内人工智能安全和安保创造条件,这些行动包括:

1.创建一个前沿人工智能系统管理局(FAISA),这是一个监管机构,拥有制定规则和颁发许可证的权力,以监督人工智能的发展和部署;

2.建立刑事和民事责任制度,其中可包括界定人工智能引发伤害的责任;确定人工智能供应链各个层面的人工智能事故和武器化的罪责范围;以及界定应急权力,以应对可能造成不可逆转的国家安全损害的危险和快速发展的人工智能相关事件。

工作路线5

将人工智能保障措施写入国际法,确保人工智能供应链的安全

先进人工智能和通用人工智能的兴起有可能破坏全球安全的稳定,其方式让人想起核武器的引入。随着先进人工智能的成熟和人工智能供应链要素的不断扩散,各国可能会竞相获取资源,以主动建立先进人工智能的能力。如果不加以谨慎管理,这些竞争态势有可能引发通用人工智能军备竞赛,并增加全球和大规模杀伤性武器规模的致命事故、国家间冲突和升级的可能性。工作路线5概述了美国政府可采取的近期外交行动和长期措施,以在国际法中建立有效的人工智能保障体系,同时确保人工智能供应链的安全,这些行动包括:

1.就人工智能灾难性风险和必要的保障措施达成国内和国际共识;

2.将这些保障措施写入国际法;

3.建立国际人工智能机构(IAIA),监督和核查这些保障措施的遵守情况;

4.与盟友和合作伙伴建立人工智能供应链控制制度(ASCCR),限制先进人工智能技术的扩散。

(本文内容系“元战略”公众号原创编译,转载时请务必标明来源及作者)

内容来源:格莱斯顿人工智能公司官网

文章题目:Defense in Depth:An Action Plan to Increase the Safety and Security of Advanced AI

免责声明:部分内容整理自互联网,文章内容系作者个人观点,如有任何异议,欢迎联系我们!图片来源网络,如有侵权请联系删除。

编译 | Zoie Y. Lee

编辑 | Zoie Y. Lee

审校 | 流景

声明:本文来自元战略,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。