2024年1月18日,英国中央数字与数据办公室(CDDO)发布了英国政府生成式人工智能框架。该框架解决了公务人员和受雇于政府组织的个人如何安全可靠地使用生成式人工智能的问题。

英国政府生成式人工智能框架的十大原则

01 了解什么是生成式人工智能及其局限性

生成式人工智能是人工智能的一种特殊形式,它可以解释和生成包括文本和图像在内的高质量内容,为组织提供潜在的机会。积极学习生成式人工智能技术有助于了解该技术的应用场景,了解它如何为人类生活提供帮助以及可能带来的潜在风险。

大语言模型缺乏实践经验和情感,也没有人类生而有之的根据现实情境进行判断的意识。生成式人工智能工具对其所产出内容的准确性无法提供保证,因为这类工具通常只是为了产生高度可信和连贯的结果而设计的,这就意味着生成式人工智能确实会输出错误的结果。因此,人们需要使用技术来增加其输出的相关性和正确性,并建立适当的流程来测试它们。

02 合法、合乎道德、负责任地使用生成式人工智能

‍‍‍‍‍‍‍‍‍‍生成式人工智能带来了特殊的伦理和法律问题,使用生成式人工智能工具必须负责任且合法。生成式人工智能涉及的法律问题包括知识产权保护问题、公平问题和数据保护问题多样化和包容性的参与需要构建到项目生命周期中,以应对生成式人工智能可能带来的伦理问题。

生成式人工智能模型可以处理个人数据,所以需要保护个人数据以避免个人隐私泄露。

生成式人工智能模型在大型数据集上进行训练,这些数据集可能包含有偏见或有害的材料以及个人数据,数据集所带来的偏差将会贯穿生成式人工智能模型的整个生命周期,所以需要在所有阶段测试中努力降低偏差。

生成式人工智能不应该用来取代战略决策

生成式人工智能可能隐含一些环境问题,在决定使用生成式人工智能解决方案之前,相关组织应该了解和考虑这些问题。

人工智能系统不应损害个人和组织的合法权利,他们也不应该歧视个人或造成不公平的市场结果。

03 知道如何保证生成式人工智能工具的安全

当使用生成式人工智能工具时,相关组织需要确保数据安全保存,并且生成式人工智能工具只能访问组织完成任务所必需的部分数据。

确保在没有数据所有者知情或同意情况下,不会使用私人或敏感数据源来训练生成式人工智能模型。

生成式人工智能工具通常托管在组织安全网络之外,相关组织需明确知晓提供给生成人工智能工具的数据在哪里进行处理,并且确保不会被其他组织存储或访问。

政府数据可能包含敏感信息和个人信息,必须在任何时候都保证合法、安全和公平地处理这些信息。相关组织需要建立保障措施,并进行适当的技术控制,包括检测恶意活动的内容过滤和验证检查,以确保正确响应且不泄漏数据。

04 在适当的阶段进行有意义的人工控制

使用生成人工智能时确保有质量保证控制流程,其中包括由适当培训的合格工作人员来审查生成人工智能工具的输出,并验证生成人工智能输出的所有决策。

纳入最终用户的反馈至关重要,即引入允许最终用户报告内容并触发人工审查流程的机制

05 了解如何管理生成式人工智能的整个生命周期

了解如何选择生成式人工智能工具以及如何设置它,并利用适当的资源来支持工具的日常维护。需要知晓如何更新系统,以及如何在项目结束时安全地关闭系统

了解如何监控和减轻生成式人工智能的漂移、偏见和偏差,即需要拥有一个强大的测试和监控流程来捕获这些问题。

使用技术实践规范来建立对技术部署生命周期的清晰认识,并了解和使用国家网络安全中心的云安全原则,如果开发了一项服务则必须使用政府服务标准

06 使用合适的工具

生成式人工智能在完成许多任务上都表现得十分出色,但也有许多局限性并且使用起来可能十分昂贵

在构建生成式人工智能解决方案时,应该确保选择最合适的部署模式,并为使用案例选择最合适的生成式人工智能模型

07 开放合作

政府中有很多团队都对在工作中使用生成式人工智能工具感兴趣,现有的跨政府社区里有协作解决问题的空间。

任何对公众可见的自动回复都应该清楚地标识出来(例如“此回复是由AI聊天机器人自动编写”)。

向公众公开算法人工智能系统在哪里以及如何被用于一些官方职责(例如GOV.UK的数字博客)。

英国算法透明度记录标准(ATRS)提供了一种标准化的方式来记录有关的信息公共部门正在使用的算法工具,目的是使公众能够清楚地获取这些信息。

08 在初始阶段与商业伙伴展开合作

生成式人工智能工具是一种崭新工具,它需要来自现有商业领域的具体建议以了解一个项目实施的目的。通过接触商业伙伴可以了解如何根据商业需求使用生成式人工智能

在合作过程中,确保对负责任和合乎道德地使用生成式人工智能的期望内部开发的人工智能系统从第三方采购的人工智能系统之间是相同的。例如,采购合同可以要求供应商按照算法透明度记录标准中的规定在不同类别信息上保持透明度。

09 具备构建和使用生成式人工智能所需的技能和专业知识

理解使用生成式人工智能的技术需求,并培训工作团队具备相应的技术能力

生成式人工智能需要理解新技能,如提示工程(Prompt Engineering)。

参加有关生成式人工智能的课程学习,并积极留意该领域的发展

10 将这些原则与相关组织的政策一并适用并提供适当的保证

这些原则和框架为英国政府使用生成式人工智能工具制定了一致的方法。在确保遵循生成式人工智能使用原则的同时,也应该遵循政府组织自有的治理结构和政策

了解、监控和降低使用生成式人工智能工具可能带来的风险。在项目生命周期的早期,需要与合适的保证团队建立联系,建立清晰的文档化审查和升级流程,例如生成式人工智能审查委员会或程序化委员会。

英国政府生成式人工智能框架提供的实用建议

  • 确定使用生成式人工智能的明确目标,并确保这些目标与组织的人工智能发展路线图相一致;

  • 选择满足需求并符合生成式人工智能功能的使用案例;

  • 了解生成式人工智能的局限性,避免高风险的使用案例;

  • 了解其他政府组织正在考虑哪些使用案例,思考是否可以共享信息或重复利用其工作成果;

来源|OneTrust Dataguidance

声明:本文来自赛博研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。