(AI成像)

编者按:2025年4月15日,英国首席大法官卡尔男爵夫人等司法政要联合发布了修订版的《英国司法人员使用人工智能指南》。这是继2023年12月首次发布该指南后的第一次修订,主要原因是近一年多来人工智能技术和应用发生了巨大的发展,英国法院以及欧洲、中国法院在使用人工智能方面积累了一些新的经验。此次修订保持了原有的框架,但增加了一些新的内容。现将全文编译出来,供法律同仁研究参考。(译者:徐菲繁)

译 文

《英国司法人员使用人工智能指南(2025版)》

英国首席大法官卡尔男爵夫人等发布

前 言

英国司法机构今天重新发布修订后的《英国司法人员使用人工智能指南》(以下称《指南》),旨在为司法人员提供全面的帮助和指导。 同时,2023 年 12 月发布的《指南》即予废止。

修订后的《指南》扩充了常见术语词汇表,并就信息错误、主观偏见、数据集质量和其他相关领域提供了更多详细内容。它还建议法官主动告知诉讼当事人相关要求和风险,当事人也对自己向法院提交的人工智能生成的信息负责,就像他们要对其他各种证据负责一样。

《指南》还提到了微软为司法人员提供的私人人工智能工具“副驾聊天”( Copilot Chat)。Copilot Chat 是微软应用程序套件的一部分,已经在所有司法技术设备上配备,并会常规更新。只要司法办公人员登录其电子司法账户(e-Judiciary),他们输入 Copilot 的数据就会是安全和保密的。英国司法学院还专门制作了一份关于 Copilot 聊天工具的合用指南。

使用人工智能在法院和法庭系统中变得越来越方便,相关性也越来越高。这更加突显了一项原则,即司法机构或代表司法机构使用人工智能时,必须遵守司法“清正廉明”这一首要义务。

本《指南》适用于首席大法官和裁判所高级庭长负责的所有司法官员、书记官、司法助理、法律顾问、法律官员和其他辅助人员。

本《指南》中的所有内容均适用于 “Copilot Chat ”。

英格兰和威尔士首席大法官   卡尔男爵夫人

高等法院主事官   杰弗里-沃斯爵士

裁判所高级庭长   基思-林德布洛姆爵士

民事司法副主事官   科林-伯斯大法官

2025年4月15日

目 录

一、导言

二、常用术语

三、法院和裁判所负责任地使用人工智能指南

四、“副驾聊天”系统

五、实例:生成式人工智能在法院和裁判所中的用途和风险

一、导 言

本《指南》旨在协助司法人员使用人工智能(AI)。 它修改并取代了 2023 年 12 月发布的指南。

《指南》列举了与使用人工智能相关的主要风险和问题,提出了实现风险最小化的一些建议。《指南》还包含了人工智能应用于司法工作的示例。

司法机构或代表司法机构的组织对人工智能的任何使用都必须符合保护司法廉正的首要义务。

本指南还介绍了一种个人人工智能工具,即微软的 “Copilot Chat”。该工具目前可通过电子司法系统在司法人员的设备上使用。

本《指南》适用于首席大法官和裁判所高级庭长负责的所有司法官员、书记官、司法助理、法律顾问、法律官员和其他辅助人员。本《指引》已经在网上发布,以提高司法的透明度、公开性和公信力。

二、常用术语

算法(Algorithm)用于执行计算和数据分析等任务的指令集,通常需要使用计算机或其他智能设备才能完成。

对齐(Alignment)人工智能系统与组织目标或道德原则保持一致的各种机制,例如与 “去偏差 ”有关的机制。

人工智能(AI):能够执行通常需要人类智能才能完成的任务的计算机系统。

人工智能代理(AI Agent):是指利用人工智能感知环境、处理信息并根据输入的信息采取行动从而实现目标的软件程序。

人工智能提示(AI Prompt):是指外界给予人工智能系统的输入或指令,以产生特定的反应或结果。通常情况下,提示采取 文本形式,但目前许多聊天机器人也接受语音提示。

生成式人工智能(Generative AI):是指可以生成新内容的人工智能工具,生成的内容包括文本、图像、声音和计算机代码。有些生成式人工智能工具的设计就是为了采取行动。

生成式人工智能聊天机器人(Generative AI Chatbot):是指使用生成式人工智能模拟线上人类对话的计算机程序。目前公开应用的例子有 ChatGPT、Google Bard 和 Meta AI等。

幻觉(Hallucination):所谓人工智能幻觉,是指人工智能模型生成的错误或误导性结果。这些错误可能由多种因素造成,包括训练数据不足、模型的统计属性错误、模型的假设不正确,用于训练模型的数据存在偏差等。

大型语言模型(LLM):大型语言模型(LLM)是一种人工智能模型,它通过在大量文本中进行训练,学会预测句子中的下一个最佳匹配单词或部分单词。ChatGPT 和Bing Chat(必应聊天)使用的就是 OpenAI 大型语言模型。

机器学习(ML):它是人工智能的一个分支,它使用数据和算法来模拟人类的学习方式,并逐步提高准确性。通过使用统计方法对算法进行训练后,这些算法可以学会分类或预测,并在数据挖掘项目中找出关键性的见解。

自然语言处理(Natural Language Processing):对计算机系统进行编程,以理解并生成人类语言和文本。用算法从句子和段落的结构中寻找语言模式,并通过词语、上下文和段落结构的共同作用来形成某种意思。具体的应用形式包括“语音文本转换器”、文本综述在线工具、聊天机器人、语音识别和文字翻译等。

负责任人工智能(Responsible AI):设计、开发和部署人工智能时遵循一定的价值观,如值得信赖、合乎道德、公开透明、可解释、公平公正、稳健有力、保护隐私等。

技术辅助审查 (TAR):作为披露流程的一部分,TAR 是用以识别文件相关性的人工智能工具。 在这里,运用机器学习系统在人类律师人工识别的相关文件所创建的数据上进行训练,然后该工具使用所学到的标准,从大批披露数据集中识别类似的文件。

三、法院和裁判所负责任地使用人工智能指南

(一)了解人工智能及其应用

在使用任何人工智能工具之前,你须确保对其功能、潜在局限性有基本了解。

重要的局限性包括:

(1)公共人工智能聊天机器人并非从权威数据库中生成答案。它们只会根据收到的提示和训练过的数据,使用某种“算法”生成新的文本。这意味着人工智能聊天机器人所生成的内容只能是模型预测的最有可能的单词组合(以源信息的文档和数据为基础),但不一定是最准确的答案。

(2)与互联网上的其他所有信息一样,人工智能工具可能有助于查找你认为正确但手头没有的资料。但对于查找你无法验证对错的新信息来说,人工智能工具并不是一种好的方法。因此,你最好只是把这种工具当作一种获得非定义性确认的方法,而不能依赖这些工具即刻为你提供正确的事实。

(3)你获取的任何答案的质量将取决于你如何使用相对应的人工智能工具,包括你输入的提示性质和基础数据集的质量。这些数据集可能包括错误信息(无论是有意还是无意的错误)、选择性数据或不是最新的数据。 即使你给出了最佳的提示,但所提供的信息仍然可能是不准确、不完整、误导或者是有偏见的。

(4)目前可用的大语言模型都是根据互联网上发布的资料训练出来的。它们的“法律观点”在很大程度上以美国法律为基础,尽管有些人声称这些模型能够区分美国法律和英国法律。

(二)保护秘密和隐私

不要在公共人工智能聊天机器人中输入任何尚未公开的信息。不要输入私人信息或机密信息。你为公共人工智能聊天机器人输入的任何信息都应被视为你同意向全世界公布该信息。

目前的人工智能聊天机器人会记住你向它们提出的每一个问题,并记得你输入的所有其他信息。这些信息可能会被用来回应其他用户的询问。因此,你输入的任何信息都可能被公开。

如果公共人工智能聊天机器人系统中有“禁用聊天记录”的选项,你应当勾选此项,以防止你的数据被用于大数据训练,勾选该选项的30天后,你的对话将被永久删除。目前,ChatGPT 和 Google Bard 都设有这个选项,但其他聊天机器人没有设定。不过,即使关闭了历史记录选项,你也最好假设所输入的数据会被公开。

需要注意的是,某些人工智能平台在智能手机上作为应用软件使用时,它可能要求你开放各种权限,从而使其能够访问你设备上的信息。在这种情况下,你应当拒绝所有此类要求。

如果无意中泄露了机密或私人信息,你应当联系法院和司法办公室。如果披露的信息包括个人数据,则应将此事作为数据事故进行报告。有关报告程序等详细信息可参见司法机构内网。

你应当确信一点,即所有公共人工智能工具都可能公开你输入其中的任何内容。

(三)确保可说明性和准确性

在使用人工智能工具或依靠人工智能工具提供任何信息时,必须事先检查其准确性。

人工智能工具提供的信息可能不准确、不完整、误导或陈旧。即使它宣称可以体现英国的法律,但可能并非如此。

人工智能工具可能会存在以下情况:

(1)虚构案例、引文或引语,或引用不存在的立法、文章或法律文本;

(2)提供不正确或误导性的法律信息或法律适用方法;

(3)出现事实错误。

(四)警惕偏见

基于大语言模型的人工智能工具会根据训练数据集生成各种回应性的信息。人工智能生成的这种信息将不可避免地反映其训练数据中的错误和偏差。同时,这些错误和偏差可以通过一些“对齐”策略的运行而得到缓解。

你始终都应当考虑纠正错误的可能性和必要性。可以参考英国司法学院编写的《平等待遇司法手册》以实现这一目的。

(五)维护安全

吸收那些维护司法人员自身安全和法院与裁判所安全的经验做法。请使用工作设备(而非私人设备)访问人工智能工具。使用你的工作电子邮件地址。

如果你已付费购买了某种人工智能平台,请继续使用,因为付费平台通常比不付费的更安全。但需要注意的是,有一些第三方公司从其他公司获得了人工智能平台的使用许可,而它们在如何使用你的信息方面并没有那么可靠。所以,最好不要选择使用这些第三方公司的平台。

如果存在潜在的安全漏洞,请参阅前述“保护秘密和隐私”一节。

(六)承担责任

一般说来,法官没有义务说明为作出判决而进行的研究或准备工作。只要认真遵守这些准则,我们就没有理由反对把生成式人工智能作为一种有用的辅助工具。

如果书记员、司法助理、法务官/顾问或其他工作人员在为你工作的过程中使用人工智能工具,你应与他们就相关问题进行讨论,以确保他们使用此类工具的行为没有失当,并采取了措施降低任何风险。如果使用 Dom 1 笔记本电脑,还应确保已经获得了 HMCTS 服务管理员的批准。

(七)注意诉讼参与人可能使用过人工智能工具的情况

某些类型的人工智能工具已使用了相当长的时间,法律专业人士得益于此。例如,TAR 现已成为电子证据开示方法之一。目前,人工智能已经在法律和其他多个领域普遍使用。例如,在搜索引擎中自动填写问题,在社交媒体中选择要提供的内容,以及图像识别、预测输入法等。

所有代理律师都要对他们提交给法庭或裁判所的材料负责,并确保材料的准确性和适当性。只要负责任地使用了人工智能,代理律师便没有理由非要提及使用人工智能之事,不过这也要取决于具体的情况。

不过,在法律界熟悉这些新技术之前,在某些情况下可能有必要提醒个别律师他们应该承担的义务,并确认他们是否已经独立地核实了在人工智能聊天机器人协助下生成的研究成果、案例索引的准确性。

无律师代理的诉讼当事人现在也开始使用人工智能聊天机器人。它们可能是一些诉讼当事人获得建议或帮助的唯一来源。这些诉讼当事人几乎没有能力独立验证人工智能聊天机器人提供的法律信息,也可能并不知道人工智能容易出错。如果你看出当事人可能使用了人工智能来准备诉讼材料,则应询问相关情况,搞清楚当事人对“准确性”作了哪些检查(如果有的话),并告知诉讼当事人他们要对提交给法院或裁判所的内容负责。后文的举例说明了这种文本制作方式。

目前,人工智能工具已经被用来伪造诉讼材料,包括文本、图像和视频。法院和裁判所不得不一直都在处理涉及不同复杂程度的伪造问题,处理对伪造的指控。法官应当充分意识到这一新的可能性,清醒地认识深度伪造技术带来的潜在挑战。

四、Copilot Chat——司法官员设备上的安全人工智能工具

微软的 “Copilot Chat ”是一款私人人工智能工具,现在可通过电子司法系统(E-Judiciary)在司法官员的设备上使用。本文件中的所有指南均适用于 Copilot Chat。

Copilot Chat 可通过 Edge 浏览器或 Microsoft 365 Copilot 应用程序访问。该工具提供企业数据保护,并在 Microsoft 365 的隐私和安全框架内运行。当你登录到E-Judiciary账户时,你提交到 “Copilot Chat ”的数据是安全的,不会被公开。

你必须登录E-Judiciary,以确保你在 “Copilot聊天 ”中输入的任何数据都是安全的。你可以通过检查屏幕右上角的绿色盾牌图标来确认你的会话是否安全,如下图所示:

Copilot Chat 的 IT 支持指南可在英国司法学院学习(Judicial College Learning)网站上获取。

、实例: 生成式人工智能在法院和裁判所中的实际用途和潜在风险

(一)可以做的事

(1)人工智能工具可以处理大量文本并形成综述、总结。法官应当注意确保文件摘要的准确性;

(2)人工智能工具可用于撰写演讲稿,例如对演讲内容提出建议;

(3)人工智能可以处理行政任务,包括撰写、提炼、排序电子邮件,记录和摘编会议内容,撰写备忘录等。

(二)不宜做的事

(1)法律研究:在检索无法独立验证的新信息方面,使用人工智能工具并不是一种好的方式,但可以作为提示你认识正确材料的辅助方法;

(2)法律分析:目前的公共人工智能尚不能提供令人信服的分析或推理。

(三)判断作品可能由人工智能制作的迹象

(1)引用的案例听起来不太熟悉或有不熟悉的引文(有时来自美国);

(2)当事人就相同的法律问题引用了不同的判例法;

(3)提交的材料不符合你对该领域法律问题的一般理解;

(4)提交的材料使用美式拼写或引用海外案例;

(5)内容(至少从表面表达上来看)似乎具有很强的说服力而且写得很好,但仔细观察却有明显的重大错误。

“译林”栏目由徐菲繁律师主持。如对“译林”栏目有任何想法、意见或建议,欢迎大家留言。

声明:本文来自世其律师事务所,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。