2023年12月12日,英国公布了司法人员使用AI的官方指南,这份指南旨在协助司法工作人员使用人工智能,并列出了主要风险、问题以及降低风险的建议。指南强调了维护保密性和隐私的重要性,以及使用人工智能工具前必须检查其准确性。此外,还提到了人工智能工具可能存在的偏见和安全问题,司法人员需要最后对生成内容负责以及当事人或代理人可能使用了人工智能工具。最后,指南给出了人工智能潜在用途的示例和不被推荐的任务,并提醒司法人员注意可能是人工智能生成的迹象。

本公众号特提供全文翻译,详情请见下文。

人工智能司法人员使用指南

全社会对人工智能(AI)的使用在不断增加,其与法院和法庭系统的相关性也在不断增加。所有司法人员都必须意识到潜在的风险。正如指南所强调的,尤其重要的是,必须意识到这些工具的公开版本是开放性质的,因此不应在其中输入任何私人或机密信息。

在与所有司法人员协商后,一个跨司法管辖区的司法小组编制了本指南,以协助司法人员、其书记员和其他辅助人员使用人工智能。

我们要感谢所有对咨询做出回应的人,以及协助编写指南的跨司法管辖区工作组成员。

该指南是未来支持司法机构与人工智能互动的一整套拟议工作的第一步。随着技术的不断发展,将对所有工作进行审查。今后,司法小组打算考虑发布常见问题文件,为指南提供支持。将邀请法院和法庭的司法人员通过调查提交问题。这些问题将在常见问题文件中得到解答,并在司法内联网上公布。

英格兰及威尔士首席大法官:Sue Carr女爵

掌卷法官:Geoffrey Vos爵士

法庭高级庭长:Keith Lindblom爵士

民事司法司副司长:Colin Birss大法官

引言

本指南旨在协助司法工作人员使用人工智能。

其列出了使用人工智能所涉及的主要风险和问题,并提供了一些降低风险、减少问题的建议。本指南还包括人工智能潜在用途的示例。

司法机构或代表司法机构使用AI的任何行为都必须符合司法机构保护司法公正的首要义务。

本指南适用于由首席大法官和法庭高级庭长负责的所有司法官员、他们的书记员和其他司法辅助人员。

常用术语

人工智能(AI):能够执行需要人类智能才能完成的任务的计算机系统。

生成式人工智能:一种生成新内容的人工智能形式,可包括文本、图像、声音和计算机代码。某些生成式人工智能被设计用来执行操作。

生成式人工智能聊天机器人:使用生成式人工智能模拟在线人类对话的计算机程序。公开的例子有 ChatGPT、Google Bard 和 Bing Chat。

大型语言模型(LLM):LLM 是一种人工智能模型,通过大量文本进行训练,学会预测句子中的下一个最佳单词或部分单词。ChatGPT 和Bing Chat使用的是OpenAI的大型语言模型。

机器学习(ML):ML是人工智能的一个分支,它使用数据和算法来模仿人类的学习方式,逐步提高准确性。通过使用统计方法训练算法来进行分类或预测,并在数据挖掘项目中揭示关键见解。

技术辅助审查(TAR):TAR作为信息披露流程的组成部分部分,用于识别潜在相关文件的人工智能工具。在 TAR 中,机器学习系统会在律师手动识别相关文件所创建的数据上进行训练,然后该工具会使用训练得到的标准从大量的披露数据集中识别其他类似文件。

法院和法庭负责任地使用人工智能指南

1) 了解人工智能及其应用

在使用任何人工智能工具之前,确保对其功能和潜在限制有基本的了解。

以下是一些关键限制:

  • 面向公众的AI聊天机器人不提供来自权威数据库的答案。它们会根据收到的提示和基于数据使训练的算法生成新文本。这意味着人工智能聊天机器人生成的输出是模型预测的最有可能的单词组合(基于作为源信息的文档和数据)。这不一定是最准确的答案。

  • 与互联网上的任何其他信息一样,人工智能工具可能有助于查找您认为正确但手头没有的资料,但对于查找您无法验证的新信息的研究来说,这不是一种好方法。它们最好被视为是一种获得非定义性确认的方法,而不是提供直接正确的事实。

  • 您收到的任何答案的质量都取决于您如何使用相关的人工智能工具,包括您输入的提示的性质。即使使用最好的提示,所提供的信息也是可能不准确、不完整、有误导性或有偏见的。

  • 目前可用的大型语言模型似乎都是根据互联网上发布的材料训练出来的。他们对法律的“看法”往往在很大程度上基于美国法律,尽管有些大型语言模型声称能够区分美国法律和英国法律。

2) 维护保密性和隐私

不要在公共人工智能聊天机器人中输入任何尚未公开的信息。不要输入私人或保密信息。您输入到公共人工智能聊天机器人的任何信息都应被视为向全世界公布。

目前公开的人工智能聊天机器人会记住您向它们提出的每一个问题以及输入的任何其他信息。这些信息随后会被用于回复其他用户的询问。因此,您输入的任何信息都可能被公开。

如果人工智能聊天机器人中的聊天历史记录选项可用,您应该禁用该选项。目前,ChatGPT 和 Google Bard有此选项,Bing Chat 还没有。

请注意,某些人工智能平台(尤其是作为智能手机上的应用程序使用时)可能会请求用来访问您设备上信息的各种权限。在这种情况下,您应该拒绝所有此类权限。

如果意外泄露了机密或私人信息,您应当联系您的上级法官和司法办公室。如果泄露的信息中包括个人数据,则应将泄露作为数据事故进行报告。有关如何向司法办公室报告数据事故的详细信息,请访问此链接https://intranet.judiciary.uk/wp-login.php?redirect_to=%2Fpublications%2Fdata-breach-notification-form-for-the-judiciary%2F

未来可能会出现专为法院和法庭设计的人工智能工具,但在此之前,您应将所有人工智能工具视为会公开您输入其中的任何信息。

3) 确保责任和准确性

在使用或依赖人工智能工具提供的任何信息之前,必须检查其准确性。

人工智能工具提供的信息可能是不准确、不完整、具有误导性或过时的。即使它声称适用英国法律,但事实可能并非如此。

人工智能工具可能会:

  • 虚构案例、引文或引语,或引用不存在的法律、文章或法律文本

  • 提供有关法律或法律适用的错误或误导性信息

  • 产生事实性错误。

4) 注意偏见

基于大型语言模型的人工智能工具会根据它们所训练的数据集生成回复。人工智能生成的信息将不可避免地反映其训练数据中的错误和偏差。

您应始终考虑到产生偏见的可能性以及纠正偏见的必要性。参考《平等待遇标准手册》(Equal Treatment Bench Book)可能会对您有所帮助。

5) 保持安全

遵守维护您自己和法院/法庭安全的最佳做法。

使用工作设备(而非个人设备)访问人工智能工具。

使用您的工作电子邮件地址。

如果您已付费订阅人工智能平台,请使用该平台的付费服务(付费订阅通常被认为比非付费订阅更安全)。然而需要注意的是,有一些第三方公司从其他公司获得了人工智能平台的授权,这些公司在使用您的信息方面可能不太可靠,最好避免使用。

如果存在潜在的安全漏洞,请参阅上文第2)段。

6) 承担责任

司法人员对以其名义生成的材料承担个人责任。

法官一般没有义务说明为作出判决而可能进行的研究或准备工作。只要适当遵守这些准则,生成式人工智能完全有可能成为一种潜在有用的辅助工具。

如果书记员、法官助理或其他工作人员在为您工作的过程中使用人工智能工具,你应与他们讨论,确保他们适当使用此类工具并采取措施降低风险。如果使用的是Dom 1型号的笔记本电脑,还应确保此类使用已获得英国法院及审裁处事务局(HMCTS)服务经理的批准。

7) 注意法院/法庭的当事人或代理人可能使用了人工智能工具

某些类型的人工智能工具已被法律专业人士无障碍使用了相当长的时间。例如,技术辅助审查(TAR)现已成为电子文件披露方法的一部分。撇开法律不谈,人工智能的许多方面已经被普遍使用,例如在搜索引擎中自动填充问题,在社交媒体中选择要提供的内容,以及在图像识别和预测性文本中。

所有委托代理人都要对他们提交给法院的材料负责,并有专业义务确保材料的准确性和适当性。只要负责任地使用人工智能,代理人就无须提及其使用了人工智能,但这也取决于具体情况。

不过,在法律界熟悉这些新技术之前,有时可能有必要提醒个别律师他们的义务,并确认他们已经独立核实了在人工智能聊天机器人协助下生成的任何研究或案例引文的准确性。

不过,在法律界熟悉这些新技术之前,有时可能有必要提醒个别律师注意其义务,并确认他们已独立核实在人工智能聊天机器人协助下生成的任何研究或案例引文的准确性。

无律师代理的诉讼当事人现在也在使用人工智能聊天机器人。它们可能是这些诉讼当事人获得建议或帮助的唯一来源。诉讼当事人很少有能力独立核实人工智能聊天机器人提供的法律信息的准确性,也可能不知道它们容易出错。如果在准备提交材料或者其他文件时可能存在对人工智能聊天机器人的使用,则应对此展开询问,并询问对准确性进行了哪些检查(如果有的话)。下文举例说明了以这种方式生成文本的迹象。

目前人工智能工具被用来制作虚假材料,包括文本、图像和视频。法院和法庭一直需要处理涉及不同复杂程度的伪造和伪造指控。法官应当意识到这种新的可能性以及深度伪造技术带来的潜在挑战。

示例:

法院使用生成式人工智能的潜在用途和风险

有潜在使用价值的任务

  • 人工智能工具能够总结大量文本。与任何总结一样,需要注意确保总结的准确性。

  • 人工智能工具可用于撰写演讲稿,例如就演讲主题提出建议。

  • 人工智能可以完成撰写电子邮件和备忘录等行政工作。

不被推荐的任务

  • 法律研究:人工智能工具是一种糟糕的研究方式,可以发现您无法独立验证的新信息。作为一种提醒方式,人工智能工具或许可以提醒您找到您认为正确的材料。

  • 法律分析:目前的公共人工智能聊天机器人无法生成令人信服的分析或推理。

可能是人工智能生成的迹象:

  • 引用听起来不太熟悉的案例,或有不熟悉的引文(有时来自美国)

  • 当事人就相同的法律问题引用了不同的判例法体系

  • 提交的材料不符合您对该领域法律的一般理解

  • 提交的内容使用美式拼写或引用海外案例

  • 内容(至少从表面上看)似乎具有很强的说服力且写得很好,但仔细检查却存在明显的实质性错误。

编译|余欣亿

排版|强心语

审核|裴 轶

声明:本文来自数据治理与竞争法研究,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。