一、人工智能方兴未艾的运用

在Alphago战胜围棋高手李世石、柯洁之后,人工智能进一步成为当下热议的话题。正如我们所看到的那样,人工智能在人类社会活动的很多领域已开始得到较多运用,诸多互联网企业和国家对之也是高度关注。在此背景下,中外学界开始讨论、探索人工智能在法律领域中的运用问题。

据BBC报道,一种名叫Case Cruncher Alpha的法律人工智能“机器律师”与伦敦的100名律师就“基于数百个PPI(付款保护保险)错误销售案例事实来判断索赔与否”的法律问题展开比赛,结果“机器律师”法律AI以86.6%的准确率领先于律师的66.3%。弗吉利亚理工大学发现分析中心的学者通过数据驱动结构的机器学习分析了美国最高法院以往做出的裁判,并以此预测未来的判决。其AI通过对裁判文本的仔细分析,计算每个在裁判中出现的与争点相关的语词,并权衡其在争点中的权重,进而透视每个大法官对争点关注的强弱程度,再结合大法官的投票行为,挖掘文字表述的实际意义。最终,AI不仅能够更好地发现不同大法官的裁判立场与观点,预测其未来投票趋势,还可以更清楚地表明谁是裁判决策中的摇摆者与妥协者,甚至大法官们在哪些问题上更容易妥协也一清二楚。基于此,AI可以预测最高法院未来的裁判,其准确率达到了79.46%。此外,美国芝加哥的伊利诺理工大学与南德克萨斯法学院利用1791至2015年的美国最高法院数据库,合作开发了一种算法,该算法再现了从1816年到2015年美国最高法院法官的28000项决定和240000次投票,正确率分别达到70.2%和71.9%,这高于法学家们66%的预测准确率。Lex Machina公司在知识产权法律领域也通过人工智能预测裁判结果。有国外学者甚至认为,人工智能在预测案件判决结果上已经超越了人类专家。

上述事例显示,在域外,随着人工智能与大数据时代的到来,法学家与其他领域的人士已开始探讨如何将人工智能运用于法律裁判领域,但这其实并不新鲜,计算机甫一普及,美国法学界就开始讨论法律推理与思维是否可被机器所取代的问题。20世纪70年代,Anthony D.Amato提出,人类法官是否以及应该被机器法官所取代,以消除法律的不确定性。但这一设想是否正确以及可行在美国学术界一直争论不休,有时还被上升至哲学层面讨论。如J.C Smith指出,“电脑可以/应该更换法官”的见解是基于笛卡尔的“灵体二元论”和“莱布尼茨的谬误”,二者犯了智力可以独立于人体而存在和所有的人类思想都可以通过一种通用的语言来表达的错误。

值得注意的是,目前法律界对人工智能的运用已不再局限于对裁判的预测,在其他领域也能看见其活跃的身影。汤森路透公司已将IBM的认知计算系统——Watson系统用于法学学术研究,Ross Intelligence亦将IBM Watson的Q&A技术运用到破产法律的研究中,通过对法律文件的学习,其能自行识别出法律信息的重要程度,从而提高了律师案例检索的效率。在一般的法律服务与活动领域,人工智能更是显示出了自身的巨大优势。在民事法律领域,很多公司已开始运用人工智能审查合同,如摩根大通开发出的商业贷款合同审查系统几秒钟就能完成曾经需要用36万小时才能完成的信贷审查工作。在刑事法律领域,人工智能主要运用于一般的警务活动、羁押必要性审查以及量刑后假释等活动中。在警务活动方面,加州圣克鲁斯大数据创新企业Predpol所研发的犯罪预测软件,能够通过对犯罪历史数据的分析,逐个小时计算出哪里最可能发生犯罪活动。从理论上来说,警方只需经常在这些地区进行巡逻就可以提前阻止犯罪,圣克鲁斯、洛杉矶和亚特兰大等使用该软件的城市都降低了犯罪率。在保释与假释决定中,美国一些州法庭使用算法来确定被告的“风险程度”:从这个人会再次犯罪的可能性,到被告会如期出庭的可能性等各个因素,进而决定是否对其保释或假释。此外,法律人工智能还被用于法庭量刑,如美国的一些州正在使用“风险评估工具”(Correctional Offender Management Profiling for Alternative Sanctions, or COMPAS)来确定刑期。这种“风险评估工具”是在参考了数十年的量刑案例后所设计的一种算法,该算法结合了十几个参数,进而转化为被告在一定时期内重新犯罪的可能性。现在,“法官正使用这些法律人工智能量刑系统帮助他们作出量刑决定,尽管法官仍保有其自由裁量权,但这种法律人工智能系统对实际量刑决策的影响正在扩大”。

面对法律人工智能的迅猛发展与广泛运用,域外理论界出现了两种明显存在分野的观点。部分学者对法律人工智能的使用前景持相对乐观的态度,认为法律人工智能在当下与未来将获得更广泛的使用,但这取决于算法的进一步优化、计算机硬件的进一步提升以及更为物美价廉的法律人工智能服务的出现。还有部分学者则没有这么乐观,反而在他们看来,由于目前能够获取的数据可能并不可靠、算法标准模糊且未达到公开透明程度,盲目信任法律人工智能会产生如隐性歧视等新问题、新冲突。近日,一起由美国威斯康星州法院使用COMPAS系统智能量刑的案件裁判结果在美国社会引发了激烈的讨论,其中的算法歧视问题引人深思。在威斯康星州诉卢米斯一案(Wisconsin v.Loomis)中,被告埃里克·卢米斯(Eric Loomis)因偷窃枪击者抛弃的汽车而被警察误当作枪击者予以逮捕,鉴于其存在偷盗和拒捕行为,卢米斯最终被判有罪并服刑6年,这是因为COMPAS系统通过对卢米斯回答的一系列问题的测算,将其危险等级认定为“高风险”。卢米斯提起上诉,但威斯康星州最高法院支持了下级法院的裁决,认为COMPAS系统的算法具有中立性和客观性。2017年6月,美国联邦最高法院拒绝受理卢米斯的申诉要求,实际上维持了威斯康星州法院支持原判决有效的裁决。

那么,在中国,法律人工智能又呈现出何种景象,社会各界对其前景抱以怎样的希冀呢?

从理论界来看,法律人工智能受到了广泛关注,并展开了初步研究与讨论,其大致可分为以下几类:一是关注人工智能作为新兴工具对既有法学理论所带来的问题与挑战。《法律科学》在2017年第5期集中刊发的五篇与法律人工智能相关的问题所讨论的主题,就是这种研究路向的典型代表。值得注意的是,郑戈还展望了人工智能与法律的未来,认为“‘现代’法律体系能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,这是今天的法律人所必须面对的紧迫问题”。二是分析人工智能运用中所产生的信息公开和透明化问题。例如,胡凌对法律(主权权力)是否以及如何介入人工智能算法的运作,特别是在广泛影响大众利益的情形中,如何设计信息披露等监管机制、干预某类代码化规则的系统性歧视等展开了讨论。三是讨论人工智能在法律领域的运用,尤其是有关中国智慧法院建设的问题。例如,吴习彧认为,人工智能难以胜任知识覆盖面大、技术含量高的司法工作,更可行的做法应是一种人机结合的司法裁判智能化辅助系统。何帆则认为,现在谈机器人法官是无稽之谈,法官“需要的智慧和智能,第一要务还是辅助和服务法官办案,而不是替代司法裁决、淘汰办案法官。”此外,还有学者从司法权特点的角度反思了智慧法院的建设,认为“工具理性对司法意义的消解,智慧管理对司法自主的削弱,智慧应用对司法平等的分化以及服务外包对司法公信的威胁,是智慧法院存在的法理困境”。

概括而言,理论界有关法律人工智能的研究虽然热闹,但仍处于开拓阶段,尚缺乏对法律人工智能运用现状与未来的深刻把握与思考,至于所提出的关于法律人工智能如何运用的建议,也只是方向性的。

相较于理论界,实务界对法律人工智能可能有着更多的期待,并采取很多实际行动。

在政策层面,国务院发布于2017 年7月《新一代人工智能发展规划》,确立了我国新一代人工智能发展“三步走”战略目标,力争到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心;最高人民法院与最高人民检察院提出了“智慧法院”与“智慧检务”建设的行动规划;公安部与司法部也有类似大数据与信息化建设的指南。因应于此,地方司法机关尤其法院的人工智能与“智慧法院”建设方兴未艾,北京、上海、浙江、江苏、广东、贵州等均推出了名称不同的人工智能法律工具,如北京法院的“睿法官”智能研判系统、上海法院的“206”刑事案件智能辅助办案系统,苏州法院还形成了“智慧审判苏州模式”。纵观当前实践,法院系统在“智慧法院”建设中所使用的人工智能主要有以下几种形式:

一是信息的电子化、数据化,即通过技术手段,将语音、纸质化卷宗文字等非电子化信息转换为可复制、可转换的电子数据,从而减轻司法机关的工作负担,为进一步应用打下基础。

例如,最高人民法院、上海高院、广州中院、苏州中院等超过100家法院就应用了科大讯飞公司所研发的智慧法院庭审系统。又如,最高人民法院委托苏州中院研发的庭审语音识别系统,可以将语音自动转化为文字,并能自动区分庭审发言对象及发言内容,法官、当事人和其他参与人均能实时看见转录文字。在系统试用中,语音识别正确率已达到90%以上,书记员只需进行少量修改即可实现庭审的完整记录。经对比测试,庭审时间平均缩短20%~30%,复杂庭审时间缩短超过50%,庭审笔录的完整度达到100%。

二是办案辅助系统的智能化,即指通过智能化手段,实现裁判文书中如“当事人信息”、“诉讼请求”等固定格式内容的一键生成,缩短起草文书时间,辅助法官提高办案质效。

例如河北高院历时近一年组织研发了“智慧审判支持”系统,帮助法官对电子卷宗进行文档化编辑,并按法律要素实现结构化管理,自动引用、排列、归纳和分析全要素案件数据,辅助法官完成文书的撰写。在河北194个法院,有6961名法官应用,截至2017年5月31日,共处理案件11.1万件,辅助生成78.4万份文书。

三是实体裁判的预测与监督。

预测指的是人工智能系统对海量裁判文书进行情节特征的自动提取和判决结果的智能学习,建立具体案件裁判模型,根据法官点选的关键词或提供的事实、情节,自动统计、实时展示同类案件裁判情况,预测正在审理案件的实体裁判,同时推送更为精准的相似案例,供法官参考。北京法院的“睿法官”系统便是依托北京三级法院统一的审判信息资源库,运用大数据与云计算充分挖掘分析数据资源,并依托法律规则库和语义分析模型,在法官办案过程中自动推送案情分析、法律条款、相似案例、判决参考等信息,为法官判案提供统一、全面的审理规范和办案指引。所谓监督,是指对于“同判度”较高的类案,基于预测性判断,对法官制作的裁判文书判决结果与之发生的重大偏离,系统自动预警,从而防止裁判尺度出现重大偏离。如苏州法院的人工智能系统不仅能够统计类案的裁判模式与结果,还能对当下案件根据历史裁判模型模拟裁判,如果法官制作的裁判文书判决结果与之发生重大偏离,系统予以自动预警,方便院庭长行使审判监督管理职权。

四是建立统一的、电子化的证据标准,即通过法律大数据总结案件办理经验,并将其内嵌于公检法三机关的数据化办案系统中,用以规范公、检、法机关与人员的司法行为。

例如,上海公检法机关从统一证据标准、制定证据规则、构建证据模型入手构建的刑事案件智能辅助办案系统。由于类似办案系统的目的在于规范司法行为,似乎还不能算是完全的法律人工智能。

二、法律人工智能的现实困境

面对人工智能的迅猛发展,很多人都认为它在法律领域有着广阔的应用前景,并将成为一种可以起到决定性作用的重要手段。但在笔者看来,法律人工智能在中国未来可期的中短期内只可能是一种有限的辅助办案手段,难以应用于核心的司法工作——裁判。笔者的这一判断可以从以下三个方面论析:第一,法律领域并不拥有优质且海量的法律数据资源;第二,法律界并未形成合适且高效的大数据算法;第三,缺乏优秀、适格的法律与计算机人才。

1、匮乏且低质的法律数据

毫无疑义,人工智能兴起的重要原因在于大数据爆炸式的增长,这为人工智能的发展提供了必须的“燃料”。其实,一切人工智能都必须基于充分的大数据,有数据方有人工智能。同理,法律领域中的人工智能无论基于何种算法,其基础都是有大量数据尤其是大量优质数据的投喂。那么,我们当下法律数据的质与量如何呢?笔者的基本判断是,我们处于数据严重匮乏的状态,且可能在中短期内依然如此。这也就意味着法律人工智能在我国可能缺乏必要的数据基础。

1.法律数据不充分

在棋类世界,Alphago及其后代虐遍围棋、国际象棋与日本将棋的人类高手,但却并未听闻Alphago打败中国象棋高手。原因何在?一方面,Alphago能够获得成功,很大程度上归功于其拥有一个存储了十几万份公开的人类6至9段职业棋手对弈棋谱的数据库,它实际上包括了人类迄今为止几乎所有质量上乘的棋谱,涵括了围棋世界几乎所有的历史与奥妙,悟懂便可参透,这大大方便了Alphago从中模仿人类常见的落子方式。另一方面,中国象棋只有残局棋谱,未有全局棋谱,Alphago不能获取充分的信息和数据。这个例子正反都能说明,基于充分数据的充分信息是人工智能有用武之地的基本前提。然而,中国目前并不存在这样的数据条件。如所周知,当下作为人工智能开发基础的法律数据基本来源于中国裁判文书网上的裁判文书,但上网的裁判文书数量可能只有审结案件50%,也就是说,还有大约一半的裁判文书并未上网。另外,裁判文书事实上只记载了裁判结论,而反映裁判过程的决策信息并未体现在裁判文书中。这意味着基于裁判文书的人工智能获取的信息其实较为有限,也许最多十中有一。显然,依赖这些有限的裁判文书及其所记载的更有限的信息提炼普遍的裁判模式,是相当危险的。

目前,部分法院开始建设并未对外公开自己的裁判文书全数据库。较之全国性的裁判文书网,其数据更接近于全样本、全数据,据此似乎可以构建仅适用于自己的法律人工智能。但问题在于,这些数据库只是最近几年开始建设,并没有囊括所有案件的裁判文书。也就是说,所谓的裁判文书全数据库其实也仅只是一种当下的数据。在只有当下数据而没有历史数据,只有近期数据而没有长期数据的情况下,即便基于官方全数据也很难以充分发现和总结规律性的决策模式,更无法展开有效的信息分析与建模。

需要着重指出的是,除了对外公布的法律裁判文书,法律决策过程中的关键行为如形成决策的内部讨论往往是高度非文字化、非数据化的。无论是中国、大陆法系国家的法律决策组织如合议庭、审委会的讨论、决策过程,还是英美法系国家的法官、陪审团审判的内部讨论、裁判过程,基本上都是非公开或无记录甚至不允许记录与公开。这使得我们对法律决策过程中的博弈过程、裁判目的、考虑条件、心证形成等这些影响决策最为关键的因素缺乏普遍、充分的记载与掌握。不仅如此,中国司法决策运行赖以存在的程序过程信息也不充分。一方面,“庭审笔录不是一种公开的法律证明文书”,其亦未实现充分的数据化;另一方面,大量的程序过程如警察的侦查过程、检察院的起诉过程、法院庭审前后的过程也没有公开的、正式或非正式的文字记录,更遑论在此基础之上的数据化了。因此,所谓的特别是中国的法律人工智能应用可能是不存在的。

总之,法律数据不充分是中国目前突出的现象。虽然我们一直强调司法公开,但也仅限于庭审过程与裁判结果的公开,对包括审前程序、决策讨论、法官心证过程的公开是极为有限的。同时,法律信息也是未充分记录甚至是非记录化的。由于影响司法公开与法律信息记录的制度性因素与结构性条件将会长期存在,因而法律领域尤其是司法领域的数据信息在很长的时间内都将呈现有限性、片段化的特征。因此,所谓的法律人工智能只可能是在数据存在系统性缺失的条件下展开。这必然影响到法律人工智能基于充分性和高质性的大数据提炼出准确法律决策模式的可能性,从而也就难以据此建立起普遍适用且精确有效的法律人工智能模式。只有当法官的行为模式与决策信息被充分获得并数据化时,法律人工智能或许才会迎来灿烂曙光,否则在信息不充分的条件下,我们无法期待法律人工智能为我们稳定地提供一个真实、全面而非残缺、虚假的司法决策与行为的全息图景模式。

2.法律数据不真实

法律人工智能所掌握的公开信息是否真实决定了其得出的结论是否可靠,正所谓“rubbish in, rubbish out”。如果投喂给法律人工智能的数据信息存在真实性问题,我们就很难对法律人工智能抱以太高的期望。遗憾的是,目前中国法律领域的信息存在着突出的“表象性”特征,即信息是公开的,但却在某种程度上并不一定是真实的。

就司法领域而言,这种“表象性”是指,外界所能掌握的信息是用以证明法律决策正确而按照一定标准制造出来的信息,其可能无法充分、真实地反映法院、法官在决策时所真正采用的“实质信息”。

因此,我们需要认识到纸面上形式真实的法律信息与实践中实质真实的法律信息之间的鸿沟,进而认识到法律人工智能也无法归纳人类裁判的真实理由、普遍标准。或许可以通过人类以知识图谱的贴标签方式来尝试解决上述难题。总之,在法律数据信息不够真实的条件下,人工智能所分析得出的结论、发现的裁判模式有可能是虚假的。而要想寻求真实的数据、信息与模式,没有人类的帮助将很难完成。这又牵扯到了下一个问题:法律数据的客观性。

3.法律数据不客观

尽管我们期望法律是客观的,能够代表社会公平正义,但由于法律主体的利益与主张的差异性,法律往往只能代表“大多数”人所认可的行为标准与模式。从本质上来说,法律在某种程度上是一种意识形态。这也就意味着任何司法裁判似乎都难做到绝对的客观。正是在这一意义上,弗兰克指出,“所谓实际发生的世俗化其实是经历了两次反应后的结果,第一次是经由证人的反应,第二次是经由那些必须‘认定’事实的人的反映。初审法官或陪审员对证词的反应充满这主观色彩。所以,认为初审法院‘认定’的事实是主观的一点也不过分。”

在中国,这主要体现在“同案不同判”上。很多时候,不同层级、不同区域甚至同一法院的不同法官对于同一法律问题往往有着不同的看法与见解。在一些所谓的“疑难”案件中,更是如此。这不仅需要精细的法律推理与法律解释,更牵扯到法律背后法官的主观意志与价值判断。很多时候,裁判结果的做出不仅是法律技术的体现,更是法律观念、社会价值的映照。因此,法律适用具有主体性、主观性与变迁性,我们很难获得一个完全没有任何意识形态与价值判断的客观化的法律信息数据,“自动售货机”式的裁判古今中外皆难以达致。从这一点来看,如何让人工智能理解当下的社会共识,理解时代共识下的观念差异并预判这一差异未来的可能变化是摆在所有法律人工智能面前的大难题。更为重要的是,由于裁判者众多且彼此在很多方面存在差异,法律人工智能如果不加区分的话,会提炼出何种裁判模式及其适用范围,这也是大问题。如同alphago主要收集与分析顶级围棋高手的棋谱而非所有棋谱,是否收集、如何收集、归纳、建模千千万万的各种裁判信息,也值得深思。似乎我们应当以一流法官的一流裁判为参数来展开此项工作,但目前却并未如此。

总之,面对着法律信息这一掺杂着主体性、主观性、特殊性的意识形态混合体,要想通过人工智能发现规律、提炼标准、形成模式,进而预测未来判决,是一项极具挑战性与困难性的工作。

4.法律数据结构化不足

数据为人工智能所识别的重要前提是数据具备结构化特征。对于外人或者机器而言,识别自然语言已属不易,识别法律专业术语更是难上加难。尽管法律裁判文书对法律要素如法律主体、案件事实、法律适用等做了明确规定,但进一步细化到法律语词方面,却并未作出统一规定,也不可能作出这样的规定。以丧葬费为例,在起诉状中“丧葬”可能被称为“安葬”、“殡葬”,“停尸”的其他表达有“拉尸”、“抬尸”、“存尸”、“运尸”、“收尸”,“保存尸体”的同义词有“冷冻尸体”、“冷藏尸体”等。如此种种非结构化的数据表述为机器的学习造成了极大的障碍。当面对法律这种非客观存在物时,人工智能领域的主流方法无监督学习效果不甚理想,必须通过人工方式对法律数据进行筛选、清洗与分类。因此,当下的法律人工智能严重依赖人类事先构建的知识图谱。这意味着,如果没有人类为数据“打标签”,机器无法主动进行学习。这与我们熟悉的围棋领域的Alphago Zero式的无监督学习截然不同。然而,由于法律文书并无定法,其实践表达千奇百怪,种类繁多,这就为“打标签”制造了巨大的困难。相应的,法律人工智能也就面临着法律数据非结构化的障碍。或许当务之急是实现法律数据的结构化,让法律人在文书写作中尽可能使用统一的术语,方便机器识别、学习,然而,这又谈何容易呢?

2、隐秘且低效的算法

毫无疑义,在拥有“燃料”的同时,人工智能还需要强劲的“引擎”——算法作为重要支撑。在人工智能领域“监督学习”仍是主流方法的情况下,采用何种算法,由谁来执行算法完成重要标注“标签”的任务,是决定法律人工智能成败的重要环节。算法的要害在于正确认识、提炼、总结法律决策的规律,并据此归纳人类法律决策的模型尤其是成功模型,并用于预测未来裁判,为当下裁判提供参考。人工智能依赖机器学习展开分析预测,其与以回归分析为中心的统计方法不完全一致。机器学习不是分析假设,而是分析、训练数据,通过使用算法,确定连接输入数据与输出结果的“最佳”假设。机器学习本质上是通过对训练数据——输入到算法中的例子(可能是从历史记录中提取出来的)的计算,从中学到潜在的预测关系。但是,尽管机器学习由算法驱动,但没有人的参与、输入和假设,机器学习是不会发生的。

在人工智能领域,算法主要可分为符号学派、联结学派、进化学派、贝叶斯学派与类推学派五种主要类型。需要指出的是,人工智能的发展是这五种派别各领风骚、起起伏伏的过程,然而每种派别的算法均与人工智能画上等号。数十年以来,人工智能领域属于联结学派的深度学习算法获得了重大突破,世人熟知的Alphago正是在结合了深度学习与强化学习后一鸣惊人。因此,许多人误以为深度学习就是人工智能,这显然存在误解。每种算法派别针对的数据领域、数据特点各不相同,在一个领域获得突破的算法不见得就能适用于其他领域。

在中国的法律人工智能界,算法处于一种“云山雾罩”的状态,我们不清楚法院和法律科技公司到底采用了何种算法以及该算法的实际效果如何。很多时候,我们只能获取极为有限的信息。其中,或者对算法的描述语焉不详,或者过高评价,算法究竟是什么以及效果怎样,我们难以得知。这其中当然有可理解的客观原因:一方面,出于对公司核心技术成果——算法的保密需要。在竞争激烈的市场条件下,任何法律科技公司都不会对外大肆宣扬其算法的主要内容,更不可能在公开的出版物上详细介绍其算法的运作方式。另一方面,出于宣传的需要。在商业利益的驱动下,法律科技公司往往将最先进的算法名词搬上自己的宣传手册,而无论其是否真正使用过。另外,还值得注意的是,使用这些法律人工智能产品的用户往往也不关注其背后的算法为何,更无动力去学习与研究,他们在乎的只是系统好不好用,能不能提高办案效率。当然,鉴于这些用户大多是法律专业出身,他们也无能力去研究那些复杂的代码与程式。这其实也在一定程度上使得法律科技公司更易宣传其算法的先进性。

根据笔者的观察与访谈,在中国法律人工智能界特别是预测裁判方面,知识图谱+深度学习是话语层面的主流算法,几乎每家法律科技公司宣称使用了“最先进”的“神经网络深度学习”算法。但在实践中,知识图谱而非深度学习可能才是法律界运用人工智能的主流做法。所谓知识图谱(Mapping Knowledge Domain)是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。具体来说,知识图谱是用可视化的图谱形象地把复杂的知识领域通过数据挖掘、信息处理、知识计量和图形绘制而显示出来。

从实践来看,很多法律人和法律科技公司都在似懂非懂地使用知识图谱的话语来构建法律人工智能,并将其作为主流算法,即通过知识图谱实现知识的可视化,描摹出案件的主要构成要件和证据构成。然而,他们可能并未注意到,知识图谱对数据、模型的颗粒化程度要求较高,模型越精细,数据越详细,知识图谱的效果才越好。以酒驾类案件为例,尽管此类案件案由简单,数量庞大,但在知识图谱上的颗粒化程度仍然极高,需要考虑的因素也相当多。如果忽略了这一点,以颗粒化程度低的知识图谱进行案件结果预测,仍然无法获得期望的效果。正是因为如此,实践中法律人工智能预测裁判的效果不佳,正确率较低。这不仅表明目前流行的算法存在某种技术上的缺陷,也说明算法本身的效率不高。

事实上,目前较为常见的关于法院的大数据分析报告,都是对特定种类案件中的某些较易区分的因素,如当事人地域、性别、年龄、是否构成犯罪、涉案金额大小、刑期长短、民事案件中哪方胜诉等内容进行标注与分析,从而得出一些较为基础、简单的结论,如民事案件中何种状况的当事人更易胜诉、刑事案件中量刑的区间、犯罪金额大小对出入罪的影响等。结合裁判文书的文本内容仔细、深入地挖掘、分析、标注信息,并构建模型、发现趋势的大数据分析乃至真正意义上的法律人工智能并不多见。之所以如此,除了前述所说的法律数据方面的原因之外,更为重要的原因在于我们目前并未形成一套高效、成熟的算法,甚至对于算法本身都还缺乏准确、恰当的理解。在这样的情况下,我们很难对法律人工智能的前景保持乐观的态度。

在理想状态下,法律人工智能或许是一种类推学派中的知识图谱与联结学派中的深度学习相结合的机器学习方法,知识图谱与深度学习结合的算法意味着需要将法律分解为一个个小的逻辑模型,方便机器识别的同时通过专业人员给各个数据打上标签而为深度学习提供训练数据集。从本质而言,这仍是一种监督学习算法,打标签费时费力,成本非常高。即使不考虑这一点,深度学习算法仍然不能完美地适用于法律领域的任何场合,因为深度学习是一个端到端(end to end)的过程。这意味着,机器学习对与错、是与非界限十分明晰,唯有如此,机器通过学习大量带有明确标签的数据内容,自动总结、形成模型,以预测未来结果。机器需要充分挖掘法律文本,仔细分析文本中有法律意义的话语,将之标签化并在此基础上分析、建模。然而,单纯以案件结果的胜诉、败诉作为数据内容标签,可能无法充分反映法官的裁判思路与案件事实。很多时候,一个关键案件事实的不同会使案件的裁判结果迥然不同。因此,简单地以裁判文书的裁判结果为数据内容“喂养”深度学习,获得的可能只是一个无法充分反映司法裁判决策的模型。此外,深度学习算法还存在非透明性与不可解释性的缺陷。正是因为如此,人们常常将其形容成一个“黑箱”,即只能获知机器给出的答案,却无法了解答案得出的过程。然而,司法裁判的过程不仅仅是给出结论的过程,更是以一系列合乎逻辑的声明或通过引用相关的法源得出结论的过程,只有结果无法“服众”。就此而言,深度学习算法的“黑箱性”可能天然地与法律决策的“透明性”要求相冲突。这一切都告诉我们,如何通过机器学习算法发现或者充分发现裁判规律是一个漫长而未知的过程,中国法律人工智能还有很长的路要走。

3、薄弱的人才

法律人工智能的发展,不仅取决于法律数据与具体算法,还要求有既懂技术又知晓法律的复合型人才作为支撑。从中国目前的情况来看,法律人工智能的人才培养与储备状况都难以为其发展提供充分的人力资源支持,甚至在未来很长一段时间内,法律人工智能的发展都可能受制于人才的匮乏。这就意味着,在法律领域使用人工智能,也许在相当长的一段时间内,我们不可能也不应该像对Alphago那样抱以巨大希望与信心。

1.法律界对人工智能技术的疏离

首先,法律界对数据统计与分析技术的陌生。在传统意义上文科培养模式下训练出来的法律人更习惯从定性而非定量的视角看待法律问题。即使在近年实证研究逐渐兴起的背景下,定量研究仍然为数不多。少数实证研究也多采用描述性的统计方法,即通过百分比、增长率、图形描述等方法浅显地阐释客观世界,而缺乏如相关、回归、聚类等推断型统计方法。之所以如此,一个很重要同时也很现实的原因就是我们的研究者自身对数据统计与分析的技术并不了解,更谈不上熟练运用。这一局限在大数据时代将被无限放大。大数据时代,数据量无法用传统意义上的百、千、万来指称,而是要用GB、TB等表述容量大小的标准来形容,转换成传统数字,或许是亿、千亿、万亿。面对如此海量的数据,别说法律人,即使是数据专家,亦有无从下喙之感。以e租宝与钱宝案为例,案件中涉及的数据量早已超越了人工能够处理的极限,必须依赖机器分析方能办案。遗憾的是,法律人并不精通大数据,在面对海量数据时,时常要倚仗BAT等企业的数据专家才能找到自己需要的证据。

其次,法律界对大数据算法几乎完全外行。在“小数据”时代,法律人运用统计式“算法”,或称法律实证研究,或许尚可应付。但面对海量、巨大的数据流,这种“算法”已经不可能准确把握法律现象与司法运行规律,而是需要更为精细与技术化的算法。然而,现实是我们的法律人对于是否以及如何应用算法来处理法律大数据,整体上属于外行,更遑论建构出成功的算法模型,甚至没有真正大规模地实际使用算法来构建裁判模式。

最后,法律界对人工智能缺乏客观的认识。在人工智能迅速勃发的背景下,越来越多的法律人开始关注人工智能,也勤于学习、研究相关知识、技术,但目前仍缺乏对法律人工智能的客观认知。部分法律人甚至不关心人工智能,在与人工智能领域的专家对话时,或将人工智能所能做的预测与人类的推理划上等号,或认为人工智能将会彻底颠覆人类社会,人类会成为机器人的奴隶。这些脱离人工智能界的幻想常常贻笑大方,让人工智能领域的专家在惊骇之余丧失了进一步对话的兴趣与勇气。

2.人工智能界对法律行业重视不够

首先,人工智能界对法律行业的感知不深。许多程序员尽管在编码技术上极为高超,但限于之前从未接触过法律行业,因此对法律人所提出的产品要求无法理解。这使得很多法律人工智能产品无法达到法律人所设想的预期,实际产生的作用较为有限,目前,法律人工智能的发展表面上轰轰烈烈,但真正了解、掌握人工智能技术、机器学习算法的人才其实寥寥可数,有些甚至并未投身于法律人工智能这一专业领域。

其次,人工智能界的投入有限。目前,很多法律科技公司虽然非常重视法律人工智能的开发,并确实投入相当的资源,但相对于其他领域人工智能的开发,这些投入其实并不可观。这不论与谷歌(Google)旗下DeepMind公司研制“阿尔法狗”围棋人工智能的投入去比,还是与BAT等企业研发一般的人工智能产品相比,都相差甚远。事实上,目前中国热衷于法律人工智能的研究与运用的公司,其规模、人才与资金都较为有限,远远不如大科技公司。

即或有大科技公司如科大讯飞介入,其核心技术也是通用型语音技术,而非专门针对法律开发人工智能。实际上,讯飞的语音技术在当下的审判实践中也未获得普遍运用,原因之一就是科大讯飞所投入的人力与资源还不够充分,未能将通用的语音技术转换、发展为专用的法律语音技术,特别是尚未能解决复杂法庭审判中多方互动及争论的情景难题,当庭化语音运用中的最后一公里技术障碍没有打通。

再次,人工智能界过于看重眼前收益。目前的人工智能技术主要集中于金融、汽车、互联网等高收益、高薪酬的领域。这和国外情况也较为类似。彭博社在2017年12月发文称,人工智能将占领华尔街99%的投资机构;在汽车业,特斯拉吸引了大量的人工智能人才。许多从高校毕业的人工智能人才,被BAT等互联网企业的高薪酬所吸引,投身其中。相较这些高收益的行业,法律行业略显寒酸,吸引力明显不足,从而也难以招揽高技术人才。这一局面或许短期内都无法改变。

显然,人才问题构成了法律人工智能成长与运用的最大现实障碍与瓶颈。既然我们既没有人工,又没有好人工,又怎么会生产出好的“人工智能”呢?特别是,当机器学习者被要求对新知数据进行分类时,分类设计必然会引入一些归纳偏见,即机器学习者在“清洗”数据,设计何种假设及验证的问题上会存在不可避免的偏差。如果是法律领域的专业人士进行或指导计算机行业的专业人才完成上述工作或许可以将偏差降至最低,但如果没有法律专业人士参与其间,偏差可能将无法被控制在一个可接受的范围内。

恰恰在此关键问题上,法律界似乎并未做好充分投入“法律人工”的准备,人工智能界尤其是科技企业界也没有做好这方面的准备。必须看到,我们缺少“人工”收集、选择法律数据的大样本甚至是全样本;我们更缺少“好”的“人工”筛选优秀的裁判文书,分析正确的裁判推理、裁判结果,并在此之上思考判断、正确归纳相应的裁判模式。或许只有当法律人与技术人紧密结合,相互理解,充分获知对方的需求与期待并实际解决法律与技术运用中的实践难题时,法律人工智能才能在法律界大展拳脚。

三、中国应该如何运用法律人工智能

不管我们接受还是不接受,在大数据时代,法律行业已经受到冲击并正在发生改变。正如维克托所言;“法律大数据以一种前所未有的方式,通过对海量法律数据进行分析,对法律问题进行预判,获得巨大价值的产品和服务,或得出新的认知、深刻的观点和主张。”

这必然改变传统法律行业的工作方式与竞争形态,并进而引发法律思维与研究方法的革命性变革。当大数据进一步结合自然语言分析能力、机器学习技术之后,所谓的法律人工智能呼之欲出。从某种意义上讲,传统手工作业式的法律行业走向现代的机器化作业似乎不可避免,法律作业方式的工业革命已经正在展开,并逐步向纵深延展。在此背景下,法律人工智能在中国的前景如何呢?中国又应该如何迎接法律人工智能时代的到来呢?

1、法律人工智能在中国的运用具有长期性与艰巨性

我们处在一个“巨头齐聚、资本介入、民众法律意识不断提高的时代”,“大数据”与“互联网+”的结合使得各路人马与多种资本纷纷进入法律行业。一时间法律大数据、法律人工智能成为炙手可热的话题,各种冠以类似名称的法律产品也充斥着市场,甚至部分产品已经进入了法律服务领域和司法裁判活动之中。在笔者看来,这些热闹的现象并不表明中国已经进入了法律人工智能时代,更不意味着市场已经有了成熟的法律人工智能产品。恰恰相反,法律人工智能在中国的运用将是一个长期的过程,并将面临艰巨的挑战。这是由如下因素所决定的。

其一,社会是否接受“机器人法官”。必须指出,法律决策本质上属于一种人类专家决策,这与依数据而决策迥然不同,规律各异。法律经验经由开放的辩论与经年的累积而达至,并以当事人与社会可接受的方式表述。然而,人工智能是一种由机器(尽管人在其中操控)分析数据,基于数据关联性而构建的“另类”的客观化、科学化的决策模式。很多时候,机器归纳的裁判模式可能连操控主体也难以理解,就如人类时常无法理解“阿尔法狗”的围棋招式一样。在法律专家系统与数据分析系统所得出的结果不一致时,人类是否选择相信机器,这是一个大问题。如果人类选择不相信,那么期待中的“阿尔法法官”不会降临。实际上,在中国司法的公信力较低、法官可能会被怀疑时,“机器人法官”会什么样?很难想象算法低效且不透明的机器裁判会更受拥戴。所以,在中国,法律人工智能在长时间内可能只是一种辅助性、参考性的工具,为法官、检察官、律师等法律人提供行动参考。

其二,人类法官优秀经验的归纳尚待时日,更不要说超越了。整体上,目前没有充分成熟的算法与相对成功的机器裁判与预测模式。尚处于萌芽阶段的法律人工智能是一个长期且极为耗费资源、需要更多既懂法律又懂人工智能的双面人才加入的领域与行业。法律人工智能仍属一种统计型、经验型、材料准备型、文字模板型的弱人工智能,低效且适用范围窄。如果说类似“阿尔法狗”的强人工智能是以模仿人、超越人为目标,并已在诸如象棋、围棋、电子游戏、无人驾驶等领域实现了超越人类目标的话,法律人工智能更像嗷嗷待哺的婴儿,期盼着优秀数据、优秀人工的加入与投喂。特别要指出,由于法律人工智能在算法上采取了知识图谱的半监督学习方式,这种方式的显著特点即是“有多少人工方有多少智能”,只有在前期通过法律专家对法律规范以及法律案例的归纳、总结,将其转换为结点—边—节点的表示知识和事实的陈述语句,方能实现某一法律要素式审判的突破。且不说法律专家对特别类型法律知识的审判要素与知识图谱的总结是否正确,仅在处理、应对法律领域在法律知识上越来越精细化划分的趋势,就需要大量的资源。可以说,数据化的法律规范、案例与相关知识正处于爆炸式的增长态势。这种工作量用“浩如烟海”来形容一点也不为过,每一点法律知识图谱的构建完成、每一步法律人工智能的前进都需要付出难以想象的艰辛。

值得注意的是,目前市场上的绝大多数甚至可以说几乎所有人工智能产品的开发者都未能很好地解决如何表示法律、总结法律、阐释法律的难题。并且,在机器学习的对象、所被喂养的数据上,也没有解决数据质量不佳的问题。现有的学习对象既不是质量优秀的判决书,也不是全部的法律判决书;既不是全样本,也不是部分样本中的优秀样本;既不代表法律数据的全体水平,也不代表法律数据中的高水平。就此而言,在当下技术开发者对人类法官经验的选择尚无力区分时,我们无法判别何为优秀的裁判文书、何为优秀的裁判标准。在裁判文书水平尚属良莠不齐的今天,我们还无法自信地说机器学习的裁判文书都是优秀的文书,我们也无法期待在此基础上形成的裁判模型必然得出准确的结论。

需要指出,尽管人工智能被誉为新时期的“电”与“蒸汽机”,能够为旧产业提供新动力、新思路,但人工智能这一工具并非轻易能够为旧有行业的人们所掌握与使用。由于法律专家对人工智能技术掌握不够,因此并不清楚如何用技术上合适的方式来表达、显示法律,甚至法律专家本身也没有充分地基于法律数据和裁判文书等信息来把握、认识法律的现状和规律性的裁判因素。从这个角度而言,“多人工就多智能,少人工就少智能,没人工就没智能,优秀人工就有优秀智能,垃圾人工就有垃圾智能”确实已成为法律人工智能能否有效运用的基本操作方式,甚至有了优秀人工也未必就有优秀智能。然而,目前各界似乎并未意识到法律人工智能开发的长期性与艰巨性。在已有甚至未有的法律人工智能层出不穷的当下,我们甚至担心这种一哄而上向钱看的法律人工智能浪潮会“欲速而不达”,反使真正的法律人工智能产品运用前景受到破坏。

中国需要法律人工智能,更需要优秀的法律人工智能,而这一产品需要时间、资本、人力、尤其是优秀的、既擅长人工智能技术(计算机科学、统计学)又精通法律知识的双栖人才的长时间、专注的投入与坚持,绝非一朝一夕可就。

2、明确法律人工智能可以运用的领域与条件

对于人工智能而言,像“法律人那样思考”已经不再是一种愿景,更不是一种奢望。确实,只要有足够的数据量,再加上深度的机器学习与超强的自然语言学习能力,法律人工智能就可以高效地处理各种复杂的法律事务,甚至能够得出与优秀法律人一样的判断。尽管如此,但在笔者看来,这并不表明法律人工智能就能不分领域与场合适用于所有法律事务,法律人工智同样存在适用范围的限制。

其一,法律人工智能应定位于做辅助法律人决策的助手与“参谋”角色。这既是由人类(包括法律人与公众)对法律职业的认知所决定,也是由人工智能自身的不足所决定。从根本上讲,人工智能尚未在法律的核心领域显示其高于人类的能力。因此,它适宜作为法官裁判的助手而非完全替代法官。从提高工作效率的角度,未来更多应将其运用于处理技术性、辅助性的工作,如法庭记录、材料搜索与推送,裁判文书的制作等。但即使如此,也不要低估法律人工智能做好辅助性事务工作的难度,如语言转换。

其二,法律人工智能可以多用于私主体。在法律事务中,法律人工智能的适用与否由公民个人、公司或其律师决定更为适宜,如当事人借助法律人工智能选择律师,律所主任进行律所管理、律师起草与审查合同、律师借助法律人工智能预测案件结果等。之所以强调法律人工智能的使用决定应由私主体做出,首先是因为法律事务结果的好坏影响当事人,因此必须充分保障其意思自治。一旦由公权力决定是否使用法律人工智能,如果出现争议或与人工智能预期不符,很可能会引发进一步冲突。其次,公权力的行使要求一定透明性,而法律人工智能的算法却具有相当的“黑箱性”,其或者因为深度学习算法的运用而无法言明计算的过程与内容,或者由于算法商业机密与知识产权的考虑而不对外公开,这天然地与公权力行使的透明性与规则的公开性相悖。

其三,法律人工智能应多适用于非裁判性事务。法律人工智能应更多用于诸如合同的审查、起草等非诉事务,较少用于预测裁判等诉讼事务。这是因为,相对非诉讼事务而言,诉讼是一个开放的过程,信息众多繁杂且真假难辨,在这样的场景中,呈现于法庭之上的案件事实只是真实客观事实的一角,法官需要通过残缺的信息做出判断、决策。同时,法官的判决结果还会受到多方面的影响,有时甚至是社会性、情感性因素的影响。因此,在这种开放而非封闭的裁判场合下,信息时时流动且变化,这是一种信息非充分条件下的博弈,不同于围棋这种信息充分、公开的充分博弈。不久前,人类选手在信息不充分的星际争霸游戏中以四比零的比分横扫人工智能的事例,也从侧面证明信息不充分的场合可能并不适合人工智能“施展拳脚”。

其四,在法律人工智能预测或辅助裁判方面,应该注意以下几点。首先,法律人工智能应适用于简单、明确的案件。如同阿法狗适用于围棋这样规则清楚、边界明确、信息充分的场域,却至今未能击败信息不完全条件下人机互动的电脑游戏高手一样,法律人工智能的运用领域应当是信息客观性强、事实清楚、证据客观真实的简单案件,而对复杂、模糊案件的裁判仍需倚重法官们的专业智慧。具体而言,在民事案件中,像保险类纠纷、网络支付纠纷、网上金融交易纠纷、小额借贷纠纷、劳动争议纠纷、交通事故纠纷、婚姻继承纠纷等这些案情相对简单、证据较为客观的纠纷,人工智能有着较好的运用前景;在刑事案件领域,盗窃、抢劫、酒驾等简单的案件较为适合适用人工智能,职务犯罪,杀人、故意伤害等恶性案件由于需要对证据进行更为仔细的甄别,再加上每个案件都有其特殊性,因此对人工智能的适用需要谨慎;在行政案件领域,法律人工智能可以适用于案件事实清楚、争议不大、可以适用简易程序审理的行政诉讼类案件,如应当以不属于行政诉讼受案范围、不具有原告主体资格、超过法定起诉期限以及不符合其他受理条件等理由裁定驳回起诉的案件。其次,适用于民商事应多于刑事、行政案件。比较而言,法律人工智能可能更适合民商事法律纠纷的处理。这是因为民商事案件的信息资源更为丰富、充分、准确与真实,尤其是在在诉讼两造的激烈对抗下,法律信息往往可以得到充分披露与展现,而相对而言,刑事以及行政诉讼呈现“弱对抗”甚至“无对抗”的状态,从而使得法律信息的充分性无法保障,真实性也存疑。

3、需要在法律人工智能开发的技术层面推进改革

如前所述,中国目前人工智能的开发与运用在技术层面还存在不少问题,尤其是算法和人才的问题可能构成了法律人工智能在中国成长与运用的最大现实障碍与瓶颈。有鉴于此,在中国推进法律人工智能,除了要明确上述两个认知层面的问题之外,还需要在技术层面采取有针对性的完善措施。

第一,算法的改进。对于算法问题,首先要考虑的问题是提高算法的准确性与科学性,探索契合中国法律实践的算法。对于任何人工智能而言,算法都处于异常关键的位置,法律人工智能同样如此。一方面,应注意算法的准确性。如果在实践中贸然使用准确性欠佳的算法,我们最终很有可能只是发现一个“未拟合”即不正确的决策模型。这样的人工智能毫无意义,反而还会干扰正常的司法决策。另一方面,我们还需要注意算法的科学性。有时候,准确性并不意味着一切,太过准确甚至是一种变相的错误,即我们还会发现一个“过拟合”的司法决策模型。也就是说,我们通过机器学习发现的司法规律可能比法律专家所熟悉的规则更为复杂,它们将包含不同的元素,它们的相关性可能不会立即显现出来。其次,注意算法使用的透明性。从当前所使用的主流算法看,深度学习无法做到算法的透明性。因为即使公布深度学习的所有代码与程式,也无法预知算法如何以及为何得出相应的结果,因此,未来需要在对现有算法进一步开源的基础上,探索与使用更为契合中国实践需要的新的算法。此外,算法的透明还需要从基础数据做起,即从对法律裁判文书中简单要素的标注向疑难、复杂要素的标注迈进。最后,注意算法的歧视性。算法带有歧视性,这已是不争的事实,比如有犯罪前科的主体在算法预测量刑时会陷入更为不利的境地。“对过去有偏见的数据进行未经仔细考虑的算法系统本来就有可能重新创造甚至加剧过去决策过程中出现的歧视。”因此,应当注意和算法中可能存在的偏见及其潜在危害。这就要求我们认识到人工智能得出的判断可能存在错误,需要人的理性判断与解读。

第二,人才的培养与融合。从某种意义上讲,法律人与技术人的结合程度决定法律人工智能的运用深度。但正如前文所指出的那样,我们目前既没有“人工”,更没有好“人工”,又怎么会生产出好的“人工智能”呢?特别是当机器学习者被要求对新知数据进行分类时,分类设计必然会引入一些归纳偏见,即机器学习者在“清洗”数据时,设计何种假设及验证都不可避免地存在偏差。如果由法律专业人士进行或指导计算机专业人才完成上述工作,或许可以将偏差降至最低,但如果没有法律专业人士参与其间,偏差可能将无法被控制在一个可接受的范围内。恰恰是在此关键问题上,无论是目前的法律界还是人工智能界,都没有做好充分投入的准备。因此,未来我们不仅要从法律人工智能的角度系统培养相关的专门人才,还要推动法律人士与技术人士在知识结构上的深度融合。或许只有当法律人与技术人紧密结合,相互理解,充分获知对方的需求与期待并实际解决法律与技术运用中的实践难题时,才是法律人工智能在法律界大展拳脚的时刻。

【声明】本文已省去注释,原文见 https://www.pkulaw.com/qikan/f1570343fa2e8caf5bf90b25804c8314bdfb.html

声明:本文来自北大法宝,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。