文 | 北京航空航天大学法学院教授、博士研究生导师 裴炜;北京航空航天大学法学院 张晨
随着算法技术的赋能作用日益凸显,刑事司法机关积极引入算法技术集群,助推刑事诉讼向数智化方向转型升级。由于刑事司法直接牵涉公共安全、基本权利、程序正义等核心议题,在该领域构建负责任的算法,能最大限度降低算法应用的潜在风险,具有重要意义。值得注意的是,不同场景的算法应用的原理、路径、效果都存在差别,算法治理的逻辑起点和思路亦呈现实质性差异。基于此,有必要结合刑事司法场景的特点,设计兼具科学化、体系化、专门化的算法治理方案。本文由此出发,聚焦刑事司法这一特定领域,深入分析算法应用的特殊要求,尝试构建算法治理的具体路径,旨在满足刑事司法复杂多元价值的平衡需求,充分发挥算法对刑事司法的赋能作用。
一、刑事司法中算法应用的主要场景
当前,算法在刑事司法领域的应用已呈现出体系化扩展趋势,覆盖司法行政支持、执法辅助与司法决策等多个环节。为厘清不同算法应用对制度结构与权利配置的影响,从功能维度出发,大致可将刑事司法中的算法应用划分为司法行政、侦查取证、司法决策三种主要场景。
(一)基础支持类算法应用
基础支持类算法主要承担行政性事务处理职能,服务于刑事诉讼程序的外围流程,如文书自动生成、案卡自动填录、卷宗电子化管理、使用自然语言识别技术准备法庭记录、使用聊天机器人提供法律咨询等。根据欧洲司法效率委员会(CEPEJ)2025年的《第一版人工智能咨询委员会基于网络司法与人工智能资源中心所涉信息的司法领域人工智能应用报告》[1st AIAB Report on the Use of Artificial Intelligence (AI) in the Judiciary Based on the Information Contained in the Resource Centre on Cyberjustice and AI],引入基础支持类算法应用已经成为司法机构实现数字化转型的重点。在其统计工具中,有半数以上的应用属于此类。此类场景的算法应用并不直接涉及刑事诉讼的核心功能,但在保障刑事诉讼的顺利进行中发挥了基础性的业务支持作用,例如,可以推动刑事司法的“无纸化”办公,优化工作流程,减轻工作负担,极大地节省了人力和时间成本。在实践中,此类应用常常被集成于办案系统,作为通用模型嵌入各刑事司法机关的工作流程。
(二)执法支持类算法应用
刑事司法中的执法支持类算法应用与侦查环节密切相关,主要涉及以下类型的功能:一是人脸识别,不仅可以用于在个案中识别犯罪嫌疑人、被害人、失踪人员、身份不明的尸体,还可以被集成到公共摄像头,实现实时监控。二是数据分析,特别是针对海量涉案数据,人工智能算法可以实现对潜在证据材料的快速识别和精准定位。例如,荷兰国家法庭科学研究所(NFI)开发的汉斯肯(HANSKEN)系统可以在司法取证环节实现对大规模数字材料的高效检索和处理,从而帮助执法人员精准地提取到关键证据。三是生成式技术支撑线索获取。例如,荷兰儿童权利组织人类的地球(Terre des hommes)制作的名为“甜心”(Sweetie)的聊天机器人,可以模拟幼女形象在网络上与潜在的儿童性剥削人员互动,同时收集他们的身份信息并协助执法机关打击儿童性剥削行为。四是智能辅助审讯。例如,我国连信数字研发的无感审讯智能体,能够实时分析审讯对象的面部微表情等细节,辅助侦查人员调整讯问策略,并在事后自动生成审讯报告与犯罪嫌疑人心理画像综合分析报告。
(三)决策支持类算法应用
刑事司法中的决策支持类算法应用以支持但不替代人工判断为基本定位,其核心功能在于提供风险评估、预测警务、证据审查与量刑辅助等决策建议。风险评估类算法通过量化个体特征之间的关联,生成风险评分并划分相应的等级,为后续执法和司法决策提供依据,例如,美国法院使用的“替代制裁的惩教罪犯管理分析”(COMPAS)、英国警方使用的“危害评估风险工具”(HART)等。预测警务类算法通过分析海量数据识别犯罪模式形成预测结果并用于指导警力部署资源分布,例如,北京怀柔警方运行的“犯罪数据分析和趋势预测系统”、荷兰警方实施的“犯罪预测系统”(CAS)、英国警方开发的“国家数据分析解决方案”(NDAS)。就证据审查和量刑辅助而言,相关技术开发主要关注对证据的审查和校验功能,以此构建可信智能量刑模型和可解释类案推送模型。值得注意的是,深圳市中级人民法院自主研发了全国首个司法审判垂直领域大模型人工智能辅助审判系统。该系统目前虽然主要应用于民商事领域,但其功能已经覆盖民事、行政、刑事三大诉讼全流程,且后续有望实现进一步赋能刑事司法。
二、刑事司法中算法应用的特殊要求
刑事司法作为国家治理体系中最具强制力的制度之一,对算法技术的接纳与治理并非一般性的技术整合问题,而是在根本上关系国家权力运作的边界划定、基本权利的充分保障和司法程序的正当性维系,因而承载极为严苛的制度前提与价值约束。例如,欧盟在制定《人工智能法》(Artificial Intelligence Act)时,将司法场景视为人工智能应用的高风险领域。在通用算法治理原则不断明确的同时,刑事司法的制度特殊性决定了其算法治理路径需进行差异化设计。
首先,刑事司法活动具有强权利干预性。刑事司法的主要目标在于打击犯罪与维护秩序,而该目标的达成往往以对个人基本权利的重大限制为代价,包括但不限于人身自由、通信隐私、财产权利乃至生命权。算法一旦嵌入侦查、起诉、审判与执行等关键环节,就会对证据形成、程序展开与裁判结果产生极为深远的影响。这要求算法部署必须接受实质性的边界审查与比例性控制,确保不会因技术便利而扩大国家权力的干预范围。需要注意的是,基于刑事诉讼所形成的独特制度环境,刑事被追诉人的个人利益在内涵上更加丰富,其“正当程序权利集”具有防御性权利与能动性权利的双重属性,构成了算法治理底线的核心内容。
其次,刑事司法制度内嵌强正当程序机制。正当程序不仅是形式上的规范流程,还是实现程序正义与实质公正的制度路径。国际非政府组织公正审判(Fair Trials)于2024年发布的《欧盟刑事司法系统人工智能应用监管》(Regulating Artificial Intelligence for Use in Criminal Justice Systems in the EU)特别强调,在刑事司法中应用人工智能系统极有可能损害公正审判权,应当对其施加强有力的监督。任何影响侦查取证、证据审查、案件判断的算法应用,都必须接受刑事正当程序的检验,确保控辩结构中的各方人员均能公平地获取算法的相关信息,并保障司法正当程序关于知情、参与、监督、救济等的底线要求。这既涉及算法是否具有可解释性,也关系辩方是否享有实质性对抗能力。
再次,刑事司法具有极低的容错率。刑事判决的严厉性与不可逆性决定了该领域对错误制度的容忍度极低。一旦算法模型因训练偏差、变量失衡或输入误差导致判断不准确,极易造成程序性冤错或实体性不公,修复代价远高于行政或民事系统。英国律师协会(the Law Society of England and Wales)2019年的报告《刑事司法系统的算法》(Algorithms in the Criminal Justice System)指出,在审视技术影响时,司法系统是一个极为敏感的领域。因此,算法在刑事场域的部署必须遵循最小侵害和最大审慎的原则,确保每一次技术介入都经过严密的动态验证与独立评估。此外,需要关注算法逻辑与司法逻辑的区别,例如,自动化决策系统的本质是依托相关性而输出概率结果。这与建立在因果关系上的司法决策存在差异,也就意味着依据前者成立的判断,在具体刑事案件中可能成为误判的基础。
最后,刑事司法高度依赖社会公信力支撑。与社会公共治理中的多数领域不同,刑事司法是国家治理正当性与制度权威的象征性平台,司法过程是否公开、判断是否透明、裁决是否可理解,是其公信力建构的基础。算法的“黑箱性”“歧视性”与“不可解释性”若未经妥善治理,极易侵蚀公众对司法制度的信任基础,进而危及国家法治体系的稳定性与一致性。同时,司法公信力并非与技术层面的“算法可信”完全一致,即使算法设计和应用符合技术可信的标准,也仍然需要转化和融入司法公信力的评价体系。《欧盟刑事司法系统人工智能应用监管》指出,刑事司法中算法可解释性的关键衡量标准是辩护权能否得到有效行使。
综上,刑事司法中算法治理存在以权利保障为核心的底线要求,而权利内容的独特性以及权利存在的边界凸显了刑事司法的独特价值追求。对此,国际层面已经出现了针对刑事司法领域的算法治理框架。例如,国际刑警组织(Interpol)和联合国区域间犯罪和司法研究所(UNICRI)于2024年联合发布的《负责任的人工智能创新原则》(Principles of Responsible AI Innovation),确立了用于指导和评估执法领域人工智能应用的五项核心原则,包括合法性、危害最小化、人类自主性、公平性和良好治理。又如,加拿大皇家骑警(RCMP)2024年发布《透明度蓝图:运营技术概览》(Transparency Blueprint: Snapshot of Operational Technologies),明确了负责任使用算法技术应当遵循的原则,包括可追责性、透明度、隐私权、特定性、准确性、培训、影响、限制、安全性和评估。
从刑事司法对算法应用的特殊要求出发,可以进一步推导出该领域算法治理的底线。一是在刑事司法中设计、开发和使用算法必须遵守刑事诉讼法律规范以及其他相关法律规范。算法应用不能掩盖刑事司法中权力运行的本质过程,算法驱动的权力对公民基本权利进行限制时必须存在正当性依据。二是应用于刑事司法特定领域的算法,在设计要求上可能会区别于其他领域。如果算法的设计和部署无法满足权利保障要求,那么该算法不应被准入刑事司法领域。三是应当构建起严格的审核、监督和问责机制,确保算法应用满足以权利保障为核心的底线要求。四是考虑到控辩双方的地位不平等,应当为受影响的当事人提供更多保障,特别强调,权力机关应当积极履职,并为权利主体积极行权创造条件。
三、刑事司法中算法治理的具体路径
刑事司法面临的不仅是算法嵌入所引发的权力重构与责任转移,还是制度内部稳定性与正当性在数字化背景下的再组织。司法场景算法治理的本质不仅是技术本身的筛选与部署,还是需要在制度层面确保二者的融合成为可被审查、可被规制、可被修正的公共权力运作工具。这种制度化治理需要贯通前端授权、中端控制和末端纠偏,实现算法治理从分散性技术规范向系统性司法规制的转型,既应回应权力边界、程序正义与社会信任的核心张力,也需体现制度在数字转型背景下的适应能力与动态调节机制。整体而言,刑事司法中的算法治理路径应体现其体系性、嵌入性与可执行性,围绕适用边界、性能评估、问责机制与权利救济等四个方面进行系统建构。
首先,应当划定刑事司法领域算法适用的制度边界。一方面,算法部署必须以明确的法律授权为前提,确保其不越权替代司法机关的裁量权与判断职责。另一方面,由于算法应用过程中必然涉及对数据信息的存储和处理,因而数据保护相关法律规范也构成了算法应用的边界要素。可以看到,当前《刑事诉讼法》对新兴数字权益的适应性尚显不足,相关制度设计仍多依赖传统物理空间逻辑,亟待通过制度更新将数字权利纳入公民基本权利体系,对刑事诉讼行为在虚拟空间的合法性边界作出重构。算法应用牵涉法律制度的复杂性意味着需要建构层级化的制度边界,适应不同场景算法规制的需求。例如,在前述的三种主要场景,相较于基础支持和执法支持,决策支持的算法应用无疑应当受到最严格的审查和规制。同时,应建立负面清单机制,特别是对自动化决策型、高度黑箱化的算法技术,应设定禁止准入的底线规则。例如,欧盟《人工智能法》第二章和第三章分别列举了“禁止的人工智能实践”和“高风险人工智能实践”,包含风险评估和预测警务等在刑事司法领域的应用。类似的,加拿大多伦多警察服务委员会(Toronto Police Service Board)根据2022年发布的《人工智能技术的使用》(Use of Artificial Intelligence Technology),依据风险等级对投入使用的人工智能应用进行分类,确立了对应的人工智能应用清单。
其次,应当完善覆盖算法全生命周期的评估机制。一方面,应当明确刑事司法中算法应用的设计要求。我国已经发布了《人工智能深度学习算法评估》(GB/T 45225-2025)这一国家标准,但是它并不完全契合刑事司法算法应用的特殊要求,后者在考量正确性、可解释性、鲁棒性、安全性等性能之外,还需要将非歧视、人权影响等因素纳入考察范围。考虑到算法应用在效果上的拓展性,以及刑事司法活动涉及权利的重要性,刑事司法中算法应用的技术标准应当满足最高要求。另一方面,应当在刑事司法中部署算法前实施更严格的算法审查,确保审查结果可以被独立审计,除非算法审查达到标准,否则不应部署相关算法应用。考虑到事前的算法评估具有局限性,应当同步构建算法性能的后续追踪与监测机制。在算法正式投入使用后,还应当定期追踪和监测算法的性能效果,确保在算法性能无法满足既定标准时及时停用算法。例如,上文提到的加拿大皇家骑警授权国家技术准入项目(NTOP)对其识别、评估和追踪运行技术使用情况进行集中管理,同时加强监管。又如,荷兰政府创建了国家算法系统登记册(Algorithm Register),将政府组织使用的算法信息予以公示,并允许研究人员和社会公众了解算法的工作原理、部署流程和使用情况,构建来自外部的监督机制。
再次,应当构建明确的责任划分与追责机制。保障人类对算法进行控制和监督的权力,并在此基础上建立问责机制。一是应当对刑事司法人员进行技术培训,确保其知悉算法的技术原理和可能存在的风险点,避免对算法系统的过度依赖。根据加拿大司法委员会(CJC)2024年发布的《加拿大法院使用人工智能的指南》(Guidelines for the Use of Artificial Intelligence in Canadian Courts),如果法官不曾接受技术培训或者了解与技术交互有关的最佳实践,那么他就不应在司法过程中使用人工智能系统。二是刑事司法人员应当对算法的输出结果进行审查,并且具有对是否采用算法输出结果的选择权。例如,2022年发布的《最高人民法院关于规范和加强人工智能司法应用的意见》第5条明确了“辅助审判原则”,强调用户的自主决策权以及如何使用人工智能系统的选择权。同时,对于影响重大的决策,算法的输出结果不应成为支撑决策的唯一依据。例如,美国纽约市警察局(NYPD)2020年《针对面部识别技术的巡逻指南》(Patrol Guide:Facial Recognition Technology)强调,人脸识别匹配结果不应独立构成逮捕或获得搜查令的合理依据,但将自动生物比对和人类分析相结合的结果,可以作为警方继续调查的线索。三是应当明确权利侵犯后果的责任承担机制。有必要区分算法的设计、评估和应用主体,明确不同主体对造成当事人权利损害的责任分配机制。在此基础上,还应当强调算法的可审计与可追溯性。特别是,刑事司法人员在使用算法输出结果作为决策的支持依据时,应当以书面形式说明算法输出结果的影响因素。这将作为后续审查的材料,也是确认刑事司法人员是否需要承担责任的重要依据。
最后,应当建构起以权利保障为导向的救济机制。这一点与刑事司法的特殊要求密切相关,也是该场景算法治理效能的关键评价指标。算法治理不能仅依赖前端控制,更要为个体提供可行的权利主张与申诉路径。刑事诉讼措施相对人应享有对算法介入的知情权、质疑权与技术解释权。据此,国家机关应当承担起告知与风险释明的义务。对于技术性复杂事项,还应当允许刑事诉讼措施相对人借助具备专业知识的辅助主体对其进行审查,确保弱势一方在数字语境仍具备实质性对抗能力。一方面,从保障刑事诉讼措施相对人知情权的角度出发,刑事司法机关对于是否以及如何应用算法,原则上应当将相关情况告知刑事诉讼措施相对人特别是被追诉人。这是确保刑事被追诉人行使其他权利、向算法的输出结果提出疑问的前提。另一方面,当算法应用对刑事诉讼措施相对人的基本权利产生不利影响时,刑事司法机关作为算法使用者应当履行必要的释明义务,尽可能以易于理解的方式,对算法具体决策进行解释。在这一过程中,商业秘密等要素原则上不应构成规避算法解释义务的理由。对于比较复杂的技术原理,刑事诉讼措施相对人可以依托具备专业知识的人获得专业方面的帮助,从而实现全面的权利保障。
四、结语
刑事司法中算法技术的嵌入已从技术试验阶段迈向制度体系的深度融合,其治理也不再局限于功能风险的识别与控制,而是逐步成为一个系统性的命题。面对刑事司法制度所承载的高度强制性、程序严密性、公信力依赖与容错极限,任何算法治理方案都必须超越形式化的技术规制逻辑,转向内嵌于权利保障与正义结构的制度性构建。在此过程中,负责任的刑事司法算法治理应从明确适用边界、强化性能评估、确立责任结构与建构权利救济机制四个维度展开系统性回应,并将算法治理定位为法治现代化的重要内容而非外部附加工具。刑事司法算法治理的根本目的不在于排拒技术,而在于通过制度约束与程序保障,形成适应技术持续演进的制度动态调整能力,在整合既有资源的基础上,使技术服务于公正价值与法治原则。【本文系中国法学会2025年度部级法学研究重点课题“数字化背景下刑事诉讼涉外法治发展路径研究”[项目号:CLS(2025)B12]的阶段性研究成果】
(本文刊登于《中国信息安全》杂志2025年第12期)
声明:本文来自中国信息安全,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。