【全文】
人工智能在法律方面已经有了很大的发展,例如现在已经出现的法律推理系统、法律建模,还有人工智能法律援助、智慧司法,法律的人工智能化服务等等,就目前而言我们还不能去评判这些东西的好坏,它还正处于一个探索阶段仍然还有极大的发展和改进的空间。目前国内外学者对于人工智能与法律的关系已经进行了很多的研究,由于法律工作的内容之繁杂及涉及法律法规、案例的复杂多样,许多学者和专家提出把人工智能的概念引入司法审判中旨在依靠人工智能来提高法律活动的效率,甚至是让人工智能来代替法官的审判作用,但是不得不承认的是法律案件的处理具有的复杂性以及人工智能所不具备的情感是对这一设想的一个巨大的挑战,在这个过程中存在很多的漏洞即为算法伦理上的欠缺对法律的公正性及法律从业人员的职业伦理产生一定的影响,这里以法官为例。写这篇文章的初衷就是为了探究这种人工智能的审判能不能代替法官在司法审判中的作用,主要是辨析一下这种形式对于法官的中立裁决原则的冲击。在这里需要明确的一点是本文所谈的人工智能与法律指的是法律的人工智能化而不是人工智能的法律化。
人工智能审判指的是在计算机系统中录入法院已有的判决文书以及各种法律条文,来建立一个智能分析和自动推理的审判模型,然后将案件的经过输入这个系统中来得出对案件的处理结果。
“算法伦理是以算法后果的不可预测性和算法的价值负荷为其理论前提,以尊重性、安全性、预防性、透明性和友好性为其基本准则;以培养设计主体的道德想象力和遵循价值敏感性设计思维为其实现进路”。[1]
算法是为了解决特定问题的一系列操作步骤,算法是“有限、抽象、有效并且符合规律的复合控制结构, 在一定的规则条件下完成特定的目的”[2]。其具有有限性、确定性、可执行性等基本特性。如果说某一种算法是合理的, 那么它必须满足以上的基本特性。伦理是人们在社会生活中应该遵守的道德规范或原则,这些道德规范或原则是“明确或限制行为秩序的行为指令, 这种指令涉及道德正义, 也就是说是区别于法律规范的道德规定性”[3]。
算法偏见是指在没有恶意的程序设计中,却带着设计者和开发人员的偏见,或因采用带有偏见的数据而导致程序结果出现偏见(BIBO即Bias In, Bias Out)[4]。也就是说算法偏见是在算法或者是程序产生的时候就存在的,它产生的根本原因在于开发者也就是人类有意或者是无意的主观因素,这种因素在以后的整个算法的运行过程中会产生或多或少的影响,但是这些影响很难被开发者以外的人看出来,换句话说这种偏见是内在的、隐藏性的。
由于法官职业的特殊性质,法官在审判活动中应当保持中立,不偏不倚,维护司法公正的形象和要求。只有裁判中立,以控、辩、裁为基础的现代诉讼制度才能得以存续和运行良好。因此无论是在刑事诉讼还是民事诉讼,还是在行政诉讼中,法官中立裁决原则都是一项基本的诉讼要求。[5]
国外的人工智能的发展开始的是比较早的,在1958年Lucien最早提出法律科学的信息化处理,也就是建立法律文献或案例自动检索模型和法官裁量模型,但是这在当时并不被接纳。[6]直到1970年Buchanan发表了《关于人工智能和法律推理若干问题的考察》,[7]标志着人工智能与法律作为研究分支的诞生。到了1977年Thorne用逻辑推理的方式分析公司税务法建立了TAXMAN系统,1981年Waterman等设计开发了产品责任的民事裁量模型,2008年Riesen以受害人的特点为视角,用网络分析美国刑事案件,提高自动分析效率。各国开发了不少专家系统或裁量模型,如:HYPO, CATO, IBP, CABARET, GREBE, SCAL等系统,有的系统具有连续性和继承性,有的已经用于司法实践中。
到了现在,国外很多国家已经具备了比较完备的人工智能司法网络体系,尤其是对大数据的运用很成功。
2017年7月20日,国务院正式印发《新一代人工智能发展规划》 ,重点描述了AI+传统行业的展望和规划。其中在建设安全便捷的智能社会中推进社会治理智能化提到了智慧法庭这一问题,这是我国人工智能在法律方面的应用被国家重视的一大表现。“智慧法庭是集审判、人员、数据应用、司法公开和动态监控于一体的智慧法庭数据平台,促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化”。[8]
2016年1月29日,最高人民法院信息化建设工作领导小组举行的第一次全体会议中周强首次提出了“智慧法院”,同年3月13日周强在十二届全国人民代表大会第四次会议第三次全体大会中报告时提出继续深化司法公开,加快建设智慧法院。直到2018年4月最高人民法院发布的《智慧法院建设评价报告(2017年)》显示智慧法院建设指数达到90,标志着全国智慧法院已初步形成。[9]
院近几年来的发展过程中,取得了一定的成效,智慧法院大数据生态圈正在构建它促进了人民法院各项工作向着服务群众便捷化、审判执行高效化、审判管理科学化、司法公开常态化方向发展,是加快推进审判体系和审判能力现代化的必然选择。但是仍然存在着很多的问题需要去解决,例如:研发者与使用者不统一、各地发展不均衡、复合型人才缺乏、意识观念滞后等等,这些问题都是目前需要加大力度来解决的问题。
算法偏见通常不是以一种单一的方式出现的,有着各种各样的类型[10]。包括交互偏见、潜意识偏见、选择偏见、数据驱动偏见和确认偏见,偏见同样会出现在司法实践领域中。
1、“交互偏见”是指用户由于自己与算法的交互方式而使得算法产生的偏见。当机器人在被设置向外界学习时无法辨别什么是好的、坏的,只能在提供给他们的数据的基础上做决定。
2、“潜意识偏见”是指算法错误的把观念同种族和性别联系起来。例如,在搜索某一位法官是人工智能会把男性法官的图像呈现给一名女性。
3、“选择偏见”是指用来训练算法的数据倾向性的被用来表示一个群体或者是分组,从而使该算法对这些群体有力,代价就是牺牲另外一个群体的利益。例如,在智慧法院的各项事务办理中如果人工智能被训练成对有前科的人的业务办理稍后考虑,那么那些曾经犯过错误的人就会受到不公平的对待。
4、“数据驱动的偏见”是指用来训练算法的原始数据就已经存在偏见了。如果数据一开始就被输入错误,那么这个人工智能是没有办法来识别这些数据的错误的,它们只是按照最开始设定的模式来运作。例如,在法条数据库中如果因为对于刑法方面更加重视就会在这方面输入的法条更多,在处理分析各类案件时就会往刑法的方向倾斜。
这是最棘手的问题,因为在法庭上软件的设计者并不是使用者,从事软件开发设计的人在一开始的时候就会带着个人主义的色彩开发软件或者是设计程序。例如种族歧视、性别歧视、年龄歧视等倾向。不得不承认机器就是代表人类来执行任务,并不是所谓的不带有任何感情色彩的完全中立的。特别是在司法系统中如果让有些人乘虚而入的话势必会造成司法体系的混乱。
这种人工智能的处理方式其实是不够透明不够公开的,它的主要依据是大数据背景下程序的运行,对于这些数据的运行过程并不是我们可以通过直观的方式看到的,不够中立不够直观就不能说它是中立的公正的。
就算我们可以把现的法条以及已经发生的典型案例都输入到系统中也不可能在审判的时候直接就可以得出一个中立的结论,因为数据本身就是在不断更新的,也是存在缺陷的,机器并没有办法识别这些数据的好坏,在算法过程中数据只是简单地拼凑在一起,在复杂的案件面前不具备分析的能力。
通过以上两点不难看出,人工智能的算法伦理是欠缺的。虽然对于这些系统和机器来说它并不是直接带有个人主义的色彩,但是间接而言它都是人类意志的体现,最终还是回归到了人的决策上来,而且这种伦理的缺失是带有扩大效应的,它相对于法官个人伦理缺失而言其影响范围以及扩展速度无法估计。
法官应该对当事人保持中立。中立并不意味着法官对当事人所处的的困境麻木不仁,也不意味着对民主、分权、司法独立或者人权漠不关心,而是意味着不偏不倚和公平。[11]也意味着当事人对法官道德的信任,以及相信法官唯一的目的和追求就是维护法治,而不是其自己的权利和威望,法官看重的是当事人向法官提出的主张,而不是提出主张的当事人的地位是否重要。在法官眼里任何人都是平等的。所以在裁量的时候法官才能做到中立。
从以上涉及到的人工智能中存在的一系列的算法偏见来看,它并不是中立的、公正的,如果完全的把人工智能运用到司法审判当中来目前来说还不是一个明智的选择。两者之间存在着很多冲突的地方,具体的表现为如下几点。
(一)人工智能实质遵循的条文至上与法官的中立裁量规则相悖
条文虚无与条文至上都是我国司法审判中的两个极端,人工智能走的就是其中一个极端,它只能根据法律条文来判断案件,而一味的死守条文是法官在进行审判时候的一个大忌。当前不少法官一直有强烈的法条偏好,将法律依据等同于法条依据,找不到法条依据就认为没有法律依据。[12]在找不到法条时就不知道该怎么判,或者说做出错误的判决,他们就不知道还有其他依据可循或者是说不敢采用其他的依据,甚至是不知道是否应当受案,受案后又该怎样去处理。对于一些法条没有明文规定的但是有需要保护的权利,只能想方设法将其归附与某种毫不沾边的既存权利之中。
这种倾向是对法官的一种禁锢,使得一些原本应该被正大光明的保护的案件变得好像是无法可依,拐弯抹角的去保护受害者的利益。从这一方面可以延伸到法官的禁止法官拒绝裁判原则,这是对法官的职业素养以及个人能力的一种要求,避免一些法官因为条文偏向而无法对案件做出判决,使当事人原本应该得到保护的利益不能得到保护。另外一种情况就是案件无法处理往更高一级法院移交会造成高级人民法院的压力增大,有更大的探索和研究的空间,而基层法院的法官越是畏首畏尾,越是办不了实事,能力也不可能有什么提高。
人工智能系统在一定程度上是弱化了法官的职能及作用,在这种情况下法官是不具备裁量的能力的,更谈不上中立的裁量,因此说与法官的中立裁量规则相悖。
(二)人工智能是单向的缺少法官与当事人之间的相互交流与信任
法官裁量公正的一个重要的基础及动力就是当事人对法官的充分信任。当今社会打官司已经成为了一种很常见的公民维权的形式,因为基于对法官或者说是对法律的信任他们把自己的利益交付到法官的手中,法官也是基于这样一种使命和责任感来坚守自己的职业伦理底线,进而促进司法公正以及社会的稳定与发展。
而人工智能只能作为一种工具,通过各种程序运算将一个冰冷的答案摆出来,看似还是不偏不倚,不掺杂任何的私人感情。公平总是相对而言的,就是对于双方来说都是可以接受,人工智能的这种审判制度是一种单方面的裁量,甚至可以说是独裁。面对审判结果,当事人可以提出质疑,但是面对这种质疑法官可以给出合理的解释,人工智能却无能为力。从本质上来说是不可能解决问题的。
法官是为了法律而存在的,被赋予了公正的形象,作为这样一个特殊的群体,他必须具备独特的职业素养。庭审具有确保程序公正、实体公正、形式公正与法官形象公正、引导社会公众遵纪守法、教育社会公众规范自己的言行、体现社会主流价值观、维护社会有序发展等作用。[13]审判中的技巧就是实现公正做出中立裁量的一个重要要求。在法庭之上律师、检察官以及当事人都各执一词,律师要维护当事人的利益,难免会对案件进行自己的加工修饰,甚至是可能隐瞒一些真实的情况,双方对峙,作为一个裁判者法官必须有自己的处理技巧,站稳自己的立场,做出最正确的判断。法官的法庭审理技巧主要有以下几个方面。
当事人在诉讼过程中的各种心理状况及心理品质总是会通过语言表达、表情显现、态度宣泄、文字材料等形式反映出来,这是法官观察、分析、了解当事人心理的客观因素。[14]这需要法官在庭审过程中要用心,首先是观察当事人的面部表情,从中探寻其心理轨迹,也可以直视当事人的眼睛,观察他的目光是否飘忽躲闪,还是心存畏惧、试图隐瞒真相;其次,观察当事人的行为表现和手势,他的一举一动都是内心真实想法的流露、心理支配的结果;最后就是要观察当事人的语言反应,他说话的语调的高低及说话速度的快慢都有不同的含义。
法庭上法官是整个审判的调控者,他必须按照正确的程序来维持法庭秩序同时得出最后的满意的结果。正确的指挥、适度的控制、庭审时的语言、最后的小结,预防突发事故的出现,事故出现后的处理,最后进行宣判等等都是至关重要的,任何一个环节出错都会影响整个审判。
相对而言,人工智能完全不具备这些技能,这样一来对于那些复杂的案件,它无法处理,或者是无法做出正确的处理。
在发展的过程中问题和矛盾的出现是必然的也是不可缺少的,要解决这些矛盾就要从根源入手,通过其产生的原因来解决问题。但是司法领域内的人工智能和日常生活中的不一样,它更加具有权威性和普遍性,不允许出现任何的一点偏差。
消除编程人员的自我偏见是最为重要的一点。这些偏见是最早被植入到程序当中来的也是最不容易被消除的,要消除这些偏见就要对这些编程人员进行专门的培训和培养,提高他们的道德素养。首先从人员的选拔上就要开始注意,对他们进行心理测试,分析他们的性格特点和倾向,了解其家庭背景以及人生阅历,保证其拥有正确的价值观。其次就是对这些人员进行专业的培训,提高他们的职业素养以及职业技能,一支强大的团队是实现高效有序的工作的基础,只有这样他们才能很好的处理好程序运行过程中的各种突发状况及时采取挽救措施。
法庭审判所涉及到的数据是相当多的,各种成文法条、复杂的案例,任何的一点点缺陷或者是错误都会对整个的审判造成极大的影响,这就要求在数据的录入过程中始终保持着严谨的态度
在未来的更长的时间里,增加人工智能对数据的处理能力,使其对数据的处理不仅仅是简单的筛选或者是加减,而是能够形成一套更加复杂的体系,将逻辑体系也融入其中,对案件的分析更加深入和准确。
法官的中立裁量规则在司法体系中的地位越来越高,《中华人民共和国法官职业道德基本准则》第十三条中规定“法官要自觉遵守司法回避制度,审理案件保持中立公正的立场,平等对待当事人和其他诉讼参与人,不偏袒或歧视任何一方当事人不私自单独会见当事人及其代理人辩护人”。[15]这是第一次以法律文件的方式把法官的中立原则规定为法官的职业道德准则。在每一次的庭审中法官应当保持良好的居中裁判形象。法官不能够代表任何一方当事人的利益要保持居中裁判在民事和行政诉讼中是十分明显并且被公众普遍认同的。在刑事诉讼中,法官虽然代表国家依法来惩治罪犯,但是法官不能代表国家行使追诉职能,也不代表国家为被告人进行辩护。法官在庭审中保持居中裁判形象,首先,法官要保证控辩双方享有平等的诉讼权利。其次,法官的言行、表情要始终保持中立的形象。第三,法官要始终以中立者的身份发表对证据、案件事实、法律适用及调解方案等的看法。[16]
随着社会的快速发展,刑事、民事以及行政案件的空前增加给司法人员带来了前所未有的压力,这些案件的复杂性、以及社会大众对于法律的尊重和法官的信任都极大的增加了司法事务的处理难度。为了缓解这种局面,“人工智能审判”理念出现,许多法律专业人士以及外界人士想要凭借人工智能对数据的强大的处理和计算能力,将大量的法条和案例输入到数据库中然后通过设定的程序来迅速地对案件做出处理。而且主观的认为这种处理不受法官的个人偏见的影响,将机器和程序认为是最客观的工具,忽略了机器的研发者是人,机器始终代表人的意志,机器的行为实质上是人的行为的另外一种表现形式。从更加深入的层面来看人工智能审判是不透明的,数据的运算不可能像法官在法庭上审判一样的公开,程序开发者、运行者的个人偏见以算法偏见的形式体现出来。实际上人工智能是不中立的。
值得说明的是,不能因为人工智能的缺陷就完全的否认它,其发展空间是巨大的,在它能够解决这一系列的问题之后将会是司法领域的一个重大的进步。现在我们需要考虑的是在人工智能发展的漫长的时间里如何解决现有的法庭审判中的出现的问题,使整个的司法审判能够高效有序地进行,同时又保证其公正性合理性;如何提高法官的职业素养,在保证质量的前提下来考虑效率。
就目前我国对人工智能的研究水平,还不能将其很好地运用到法庭审判中,它违背了法官的中立裁量规则,只能作为一种辅助工具来使用。期待着在未来的研究中对这一问题投入更多的关注和研究,真正的实现法律的价值,使整个的法律体系更加的完备。
【注释】
[1] 郭林生,东南大学人文学院,《论算法伦理》华中科技大学学报 (社会科学版) 2018,32(02),40-45
[2] Robin Hill. “what an algorithm is”, Philosophy & Technology, 2015, 29 (1):35-59
[3] Piiotr Machura. “Moral norms, moral ideals and supererogation”, Folia Philosophica, 2013, 29:127-159
[4] 尹丹丹,《算法伦理与法律公正》,2019,6,15
[5] 许身健,《法律职业伦理》,北京大学出版社,2014年版,2017年5月第三次印刷,第140页
[6] 张妮,杨遂全,蒲亦飞,《国外人工智能与法律研究进展述评》,《法律方法》期刊 2014年 2(第16卷)458页
[7] See Buchanan & Headrick, Some Speculation About Artificial Intelligence and Legal Reasoning, stanford Law Review (1970).pp.1-5
[8]《新一代人工智能发展规划》,2019,6,21,14:29
[11]孔祥俊,《司法理念与裁判方法》,法律出版社,2005年11月第一版,第4页
[12] 孔祥俊,《司法理念与裁判方法》,法律出版社,2005年11月第一版,第23页
[13] 乔宪志等主编,《法官素养与能力培训读本》,法律出版社 2003年版,第19-20页
[14] 杨凯,《裁判的艺术》,法律出版社,2005年版,第89页
[15] 《中华人民共和国法官职业道德基本准则》,(法发【2010】53号)第十三条
[16] 尹洪茂,《论法官中立》,中国法院网,2003-06-09 16:05:37
【参考文献】
{1} 顾沈明:《计算机基础(第三版)》[M],清华大学出版社2014年版。
{2} 郭林生,东南大学人文学院,《论算法伦理》[N]华中科技大学学报 (社会科学版) 2018年,32(02),40-45
{3}尹丹丹,《算法伦理与法律公正》 [M],2019,6,15
{4} 许身健,《法律职业伦理》[M],北京大学出版社,2014年版,2017年5月第三次印刷,第140页
{5} 张妮,杨遂全,蒲亦飞,《国外人工智能与法律研究进展述评》[J],《法律方法》期刊 2014年 2(第16卷)458页
{6}孔祥俊,《司法理念与裁判方法》[M],法律出版社,2005年11月第一版,第4页
{7} 孔祥俊,《司法理念与裁判方法》[M],法律出版社,2005年11月第一版,第23页
{8}乔宪志等主编,《法官素养与能力培训读本》[M],法律出版社 2003年版,第19-20页
{9} 杨凯,《裁判的艺术》[M],法律出版社,2005年版,第89页
{10}《中华人民共和国法官职业道德基本准则》[Z],(法发【2010】53号)第十三条
{11} 尹洪茂,《论法官中立》[Z],中国法院网,2003-06-09 16:05:37
{12}潘福仁,《审判机制的构建与完善》[M],上海交通大学出版社,2009年6月第一次印刷
{13}虞伟华,《裁判如何形成》[M] ,中国法制出版社,2017年3月第一版
{14} Robin Hill. “what an algorithm is”, Philosophy & Technology, 2015, 29 (1):35-59
{15} Piiotr Machura. “Moral norms, moral ideals and supererogation”, Folia Philosophica, 2013, 29:127-159
{16}See Buchanan & Headrick, Some Speculation About Artificial Intelligence and Legal Reasoning, stanford Law Review (1970).pp.1-5
{17}《新一代人工智能发展规划》,2019,6,21,14:29