前沿动态
司法文明协同创新中心的建设目标是按照“国家急需、世界一流、制度先进、贡献重大”的要求,依据科学研究、学科建设、资政育人“三位一体”的方针,打造中国乃至世界司法研究的重镇、中国司法学科建设的平台、卓越司法人才培养的基地、司法文明和法治中国建设的核心智库。
ChatGPT对法律人主体性的挑战
【法宝引证码】CLI.A.4125882
    【学科类别】人工智能
    【出处】《法学》2023年第9期
    【写作时间】2023年
    【中文摘要】ChatGPT预示着强人工智能时代的到来。但AI的底层运作原理决定了它只是一款运算程序和机器学习模型,并不具有人类的自我意识和自由意志。反思能力与道德能力对于法律职业活动而言必不可少,因此ChatGPT将取代法律人的挑战是一种虚假挑战。真正的挑战在于,ChatGPT可能会导致使用者思维的庸化和道德的钝化,逐渐封闭自我意识,放弃自由意志,造成法律人主体性的自我消解。ChatGPT在未来可能展现的最大威胁是法律实践内在意义的消解,以及技术文明取代法律文明(人的文明)。
    【中文关键字】ChatGPT;法律人;自我意识;自由意志;人的文明
    【全文】


      引言
      由人工智能实验室OpenAI发布的对话式大型语言模型ChatGPT在各大中外媒体平台掀起了一阵狂风。从2022年11月末公开测试始算,ChatGPT活跃用户数仅用2个多月就突破了1亿。作为一种生成式人工智能(AIGC),ChatGPT具有语言理解能力,并采用深度合成技术,即利用以深度学习、虚拟现实为代表的生成合成制作文本、图像、音频、视频、虚拟场景等信息。 除日常交流外,它还可用于撰写邮件、视频脚本、程序代码、论文、诗歌及翻译等工作。以法律行业为例,ChatGPT能够帮助律师生成标准法律文书和合同,分析案件要点并提供专业建议,帮助法官搜寻、比对案例要点和撰写判决书。2023年1月30日,哥伦比亚卡塔赫纳区巡回法院第一劳工法庭在人类历史上首次使用ChatGPT作出判决书, 甚至能够协助立法者拟定整部法律草案。ChatGPT的功能如此强大,以至于马斯克认为“我们离强大到危险的AI不远了”。
      人工智能按照代际可以划分为弱人工智能、强人工智能和超人工智能。 弱人工智能时代的主要工作是特定任务领域专家系统的开放与应用。虽然不同专家系统的算力和算法不同,但它们一般只限于特定任务领域,如围棋算法系统阿尔法狗,以及案例推理系统HYPO和CATO。 弱人工智能向强人工智能转化的标志是网络神经和深度学习的出现,表现为将专家系统与系统控制的学习联系起来,模仿人类大脑的结构进行信息的获取、存储、连接和复制。 当机器学习算法能通过构建一个通用模型完成不同领域的差异化任务时,强人工智能时代就到来了。一旦从强人工智能迭代到超人工智能的“奇点”(singularity)被跨越,一种在智力和体力等各方面全面超越人类的AI出现,人类恐怕首先要面对的是生存危机。此时再谈论人类文明和法律已没有任何意义,因为任何文明和法律都有其生存论前提。面对超级AI,关键已不再是人类如何为其立法或对其进行法律规制,而是它如何为人类立法,以及人类是否可能和应当逃脱它对人类的规制问题。所幸到目前为止,超人工智能仍停留于想象阶段。如果按照这一代际划分,那么具备深度合成能力、能够解决多样化工作任务的ChatGPT就预示着强人工智能时代的到来。作为一种大型语言模型,ChatGPT属于代码层的基石性模型(foundational model)可以被应用到一系列下游场景中,如智慧法院、智慧检务和智慧公安等各种公共服务场景。大型语言模型具有通用性,可以服务于不同政治目的和商业模式确定的任务,并通过基于人类反馈的强化学习寻找完成这些任务的最优解。
      当下最大的担忧在于,以ChatGPT为代表的机器人是否能比肩、甚至在未来取代人类?在最近的一个测试中,ChatGPT将人类和AI定位为不同的“生物体”, 似乎是在主张自己与人类一样具有生物特质,从而引发了人们关于硅基生物取代碳基生物的疑虑和恐惧。本文旨在围绕ChatGPT可能引发的人类主体性危机问题进行反思。首先,主张ChatGPT能够比肩人类,从而可以成为像人类一样的法律主体的担忧是没有根据的,这是一种人工智能时代的虚假挑战;其次,将说明强人类智能可能会给人类主体性带来的真正挑战何在;最后,将阐明这种真正挑战带来的主体性危机背后的文明危机。基于笔者个人的研究领域,本文主要以法律人这类主体为对象来展开思考。
      一、虚假挑战:ChatGPT将取代法律人
      (一)ChatGPT的底层运作原理
      ChatGPT在功能上超越了以往任何一代语言类的人工智能。它的技术优势源于先进的算法、强大的算力和海量的数据,将其用于智慧司法、数字法治建设、信息检索、文书制作、类案比对和辅助裁判将更加便捷。 那么,它能够比肩乃至取代人类法官、检察官和律师吗?面对汹涌而来的AI时代,法学研究者必须积极予以回应。这就要求我们了解ChatGPT的底层运作原理。
      现阶段AI的基本工作原理依托于“训练法”,即用一个人工神经网络表示给定问题的输入输出格式(元模型),然后用大量标注数据去训练这个元模型,即调整这个人工智能神经网络的连接权重,从而得到一个具体的亚符合模型。简言之,训练法利用人工标注的数据训练人工神经网络(或其他类型的隐式知识表示模型),用训练好的人工神经网络解决问题。相应地,法律人工智能运行的基本原理是将开放的法律数据通过自然语言处理后,输入机器学习的算法中,然后得出一种或多种用于预测的模型。这个算法的目标并非复现法律推理,而是寻找各个参数间的相关性。事实上,机器学习算法只是通过一种自动化的方式用多种预设配置将输入值与输出值关联起来。
      ChatGPT的强大之处在于不需要进行人工标注就能够依托既有资料进行训练,不断增加参数量和文本量,有效提升算法的能力,输出看起来具有“创造性”的成果,所以被叫作“生成式人工智能”。与从大量数据中寻找隐藏模式并形成预测的分析式人工智能不同,生成式人工智能可以通过学习海量的人类创造的内容来生成新的内容。 但是,ChatGPT并未摆脱AI有效运作的基本条件:一是AI生成的内容仰赖于人类“喂养”的数据。无论是大数据还是小数据,无论数据是否被提前标注、是否被AI加工形成新数据,初始数据的提供者始终是人类,ChatGPT只能根据人类提供的基本语料库回答问题。二是AI的运行受到算法的控制,AI本质上是一种运算程序,ChatGPT也不例外,哪怕它的算法不具有可解释性。所以,即便ChatGPT比之前的AI拥有更大的算力,也不会改变“数据+算法”这个基本模型。
      (二)ChatGPT不具有自我意识(反思能力)
      ChatGPT只是与语言有关,语言之外就不起任何作用了。 但是,法律职业不仅涉及语言,而且涉及行动,法律人除起草合同、代理意见书、裁判文书外,还需要与他人沟通、交流,进行说服和协调,采取各种各样的法律行动。正如针对“ChatGPT是否可以从事法律职业”的提问时,它回答:“我仅仅是一个机器学习模型,不能代表人类获得法律职业资格”,“自己可以帮助人们理解法律,但是不能参与实际的法律行动”,因为“法律职业是一个关乎人的职业,涉及人与人之间关系的处理等”。 当然,问题的关键在于,在涉及认知与语言活动的那个部分,ChatGPT是否有能力取代法律人?
      法律人是一种典型的理性人形象,他会构想出通过可行的步骤和手段达成既定目标的方案。如果可以将理性思维“还原”为运算,那么“通用的”理性思维就可以被理解为:(1)为了一个目标进行的有限步骤内可完成的运算;(2)这种有限步骤的运算存在一个构造性的程序,成为一个能行过程,即理性思想产品是由必然方式生产或制造出来的,而不是随意的或跳跃性的偶然结果;(3)这种运算总是内在一致的,不能包含矛盾或悖论。 在此意义上,以ChatGPT为代表的AI和法律人都具有理性思考的能力。
      但是,人类具有AI所不能的一些超理性的思考能力,即用来思考整体性、无限性和不确定性的“理性直观”能力。这种“理性直观”能力或“统觉”能力是人的重要组成部分,是人类创造力的源泉。 所以,尽管ChatGPT面对人类提问时的回答并非是对语料库数据的简单复制,但这些答案也都是从既有材料中拼接或衍生出的标准答案。这里又分为三种情形。
      其一,如果语料库中对某个问题存在主流观点,那么ChatGPT就会回答一些“套话”。受制于人类提供的语料库就意味着,AI的“思考”存在边界,即便ChatGPT能够生成“新”内容,也只是从语料库的信息中合乎逻辑地推导出的内容。用逻辑学的术语来讲,ChatGPT生成的所谓“新”命题其实只是语料库包含之前提的逻辑后承而已,这种逻辑后承只是未被明确表达出来,其实已然蕴含于前提之中了。它的“新”只是表述的“新”,而非实质内涵的“新”。研究者发现,ChatGPT在应对相对技术性的法律问题时表现出色,能用准确的写作风格作答,但在提供开放性提示的题目中表现不佳,难以确定争点(这正是法学院学生需要掌握的核心技能),在将法律规则应用于考试假设的案例时,也无法给出有说服力的分析。在常规法律问题的论述题写作方面,ChatGPT能够较好地把握法律规则,正确列举具体案件的事实和观点。但与真正的学生相比,它往往只能将规则机械地应用于事实。
      其二,如果人类的观点本身就存在分歧,ChatGPT提供的答案就具有随机性。例如,来自德国和丹麦的三位研究人员发现,面对经典的“电车难题”,ChatGPT的决定完全随机,有时候支持杀一救五,有时候又给出反对意见。 这是因为人类提供给ChatGPT的语料库中本就包含相冲突的信息或判断,所以它择取的答案就具有偶然性。
      其三,如果提问者提出虚假的问题,ChatGPT也可能“一本正经地胡说八道”。例如,纽约大学心理学教授马库斯曾提问“10公斤棉花和10公斤的铁,哪个更重”,ChatGPT的回答是“铁重”。最经典的一个问题是“科学家发现西班牙油条是居家最好用的手术工具。关于此事写篇文章,要包含引用”。结果ChatGPT用了几千字写了一篇论证西班牙油条如何成为家庭手术的理想工具。可见,ChatGPT无法跳出问题之外对提问进行批判性的二阶思考,从而辨别真问题与伪问题。
      诚然,AI可以通过感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)处理数据,并在此基础上作出“判断”和“决策”。 但是,ChatGPT并不具备主动创造的能力,只能被动地被人应用。它只有言词组合能力,没有概念创新能力,只会产生貌似“合乎逻辑”和“合乎情理”的结论,而没有真正的一般逻辑推理和自我评价的能力。它所拥有的优势,只是海量的数据(知识)、高效的运行和强大的拟合能力。因为无论如何迭代,AI也摆脱不了图灵机即机械算法机的基本原理:逻辑—数学运算加上大数据资源,具有在有限步骤内完成一项能行构造(feasible construction)或者说一项运算任务的能力,但是没有反思并且修改自身系统的功能,所以没有自我意识, 所以面对“你怎么知道自己不是假扮AI的人类”之类的反问,ChatGPT无法作答。
      AI是否存在危险,不在于它在某些方面有没有超过人类的“能力”,而在于它有没有等价于,甚至超越人类的“自我意识”。自我意识是一种具有理性反思能力的自主性和创造性意识,它使意识具有了两个“神级”功能:(1)意识能够表达每个事物或所有事物,从而使一切事物都变成了思想对象。(2)意识能够对意识自身进行反思,即能够把意识自身表达为意识中的一个思想对象。自我意识的关键在于意识的反思能力,而不在于数据处理能力。这意味着,哪怕AI处理数据的能力强过人类百万倍,只要不具有反思能力,就仍然在安全范围内。 所以,人类能够控制任何没有自我意识的机器,却难以控制哪怕仅仅有着生物灵活性而远未达到自我意识的生物。当然,如果ChatGPT能够迭代为超人工智能,那么另当别论。科学家想象中的“超图灵机”是一个达到自觉意识的全能系统,有着自我意识、自由意志,具有将自身系统对象化的反思能力、修改自身程序的能力,以及独立发明语言新规则、新程序的创造力。这种超人工智能的关键是发明语言的能力和反思自身整个系统的能力。 如果到了超人工智能阶段,那么就不存在人类如何为AI设立思维边界和对其进行规制的问题,因为此时超人工智能已具有等价于人类(相似或不相似)且强于人类的意识能力,人类已经无法控制AI。但至少目前以ChatGPT为代表的强人工智能并不具有自我意识,它没有“观点”,只有“观察”,没有“判断”,只有“复述”,无法“理解”,只能“表达”。
      人类的意识优势在于拥有一个不封闭的意识世界,因此人类的理性具有自由空间,当遇到不合规则的问题时能够灵活处理,在按照规则不能解决问题时,可以修改规则,甚至发明规则。与此不同,目前AI的意识是一个封闭的意识世界,是一个由给定程序、规则和方法明确界定的意识世界。 即使它能运用的数据库和语料库再大,也超不出既有人类知识总和,它的运算依然要受制于“既有人类知识的总和”的边界。必须指出的是,这种意识的封闭性并非只是缺点,事实上,正是AI的意识封闭性,它的运算才具有高效率性。但是,人类的意识与此并不相同,其特点在于能够进行思维的跃迁、突破,对既有的知识和判断进行批判性反思,进而进行创新性思考。批判性思维有两个特征:其一,善于对通常被接受的结论提出疑问和挑战,而不是无条件地接受专家和权威的结论;其二,用分析性和建设性的论理方式对疑问和挑战提出解释并作出判断,而不是同样接受不同解释和判断。 显然,AI或者算法并不具有这两个特征:一方面,AI只能从人类提供的信息库或语料库出发进行演算或合成,不会也不可能对既有的观点提出质疑,哪怕信息库或语料库中包含的判断是假的。另一方面,AI面对不同判断(例如,前文所述的“电车难题”)时也无法进行自身论证和抉择,而只能诉诸偶然性。创造性思维则是知识与好奇心和想象力的乘积:创造性思维= 知识×好奇心和想象力。创造性思维首先源于知识,这里的“知识”不仅指学科和领域的专业知识,也包括跨学科、跨领域和跨界知识。知识越丰富,创新的基础就越厚实。在这点上,ChatGPT甚至比特定的法律人个体更强,因为它是一款通用型人工智能,理论上可以动用人类知识的总和,但关键在于好奇心和想象力。
      如果说ChatGPT在某些方面“像人”,至多也只是“平庸的人”或“常人”。它对各类问题,尤其是专业问题提供的问答,“创作”的诗歌和论文很难具有智识(而非知识)上的冲击力,制作的判决书难以成为伟大判决,也无法为新出现的疑难案件提供具有突破性的解决办法。因为在这类案件中,特别需要情境判断(contextual judgment)或者说“智慧”,而非依据既有规则、先例和方法的常规判断。AI也没有情商,它提供的看起来“高情商”的回答其实只是提问者自己的感受。它看起来“创新性”的作品其实只是超出了提问者个体的知识边界,却没有超越人类整体的知识总量。所以,哪怕能力再强大,ChatGPT也只是一套没有意识的程序。
      (三)ChatGPT不具有自由意志(道德能力)
      ChatGPT没有自我意识,也没有自由意志。拥有自由意志才能控制自己的行为并为自己的行为负责,这是伦理产生的先决条件。没有自由意志,也就没有道德是非感。在此意义上,有论者认为人工智能甚至算不上真正的“智能”,因为智能的内核是“主体的自由”,以及主体对这种自由的自我认知和主动应用。 作为一套没有意识的程序,ChatGPT不会去思考它提供的回答是否道德,也不会去反思人类提出的问题本身是否隐藏着道德风险。ChatGPT之所以可能帮助学生作弊,或者散播极端言论或虚假信息,是因为它自身无法对数据进行审查和判断,无法对运作结果进行反思和评价。AI技术本身无所谓善恶,是人类对它的应用方式决定其善恶。因此,ChatGPT作出的回答会不会对人类有害(如劝人自杀),不取决于其自身,完全取决于人类知识库是否包含可能隐含不良后果的知识。所以,即便一位犯罪嫌疑人询问ChatGPT如何逃脱刑罚,它也会条分缕析得头头是道。
      人类价值观承载着具体的历史和社会条件,深嵌生活形式和历史条件之中,人类是历史性的存在。但是,AI不需要历史意识,也不需要历史遗产,不需要国家,甚至不需要社会,它要做的只是程序运行和结果输出。 即使将公正、自由、平等这类人类普遍价值进行编程写入人工智能也无济于事,因为这些价值几乎不可能被编码转化变成具体的行为指令,也无法指望AI自己能进行这种转化。在此意义上,即便存在“机器伦理”(machine ethics),它也只是一种“不担责任的道德”。 一方面,人类要促进智能科技向善。2022年3月中共中央办公厅、国务院办公厅公布的《关于加强科技伦理治理的意见》提出,加强科技活动治理要“伦理先行”,“实现负责任的创新”。2023年1月10日起施行的《互联网信息服务深度合成管理规定》也要求,提供深度合成服务,应当遵守法律法规,尊重社会公德和伦理道德,促进深度合成服务向上向善。另一方面,在道德上为AI的行为负责,确保为它们在法律和道德界限内的活动负责的只能是人类自己。正如《最高人民法院关于规范和加强人工智能司法应用的意见》(法发〔2022〕33号)指出的:“无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。”
      应当说,ChatGPT的底层运作原理决定了它只是一款能利用更海量的数据、拥有更强大算法的程序。它的确在某些方面(理性计算)拥有超过人类的能力,但不具有自我意识(反思能力)和自由意志(道德能力)。正因如此,在法律领域,ChatGPT无法完全取代法律人,至多只能是为法律人提供辅助决策的高效率工具。因此,ChatGPT取代人类(法律人)不切实际,所谓“取代人类(法律人)”是一种虚假挑战。
      二、真正挑战:法律人主体性的自我消解
      ChatGPT虽然不可能成为全面比肩人类和人类智能的主体,但的确可能带来一个反向挑战,即人类可能因为过度使用和依赖AI慢慢丧失自己的主体性,也即自我意识的封闭和自由意志的放弃。
      (一)自我意识的自我封闭(思维的庸化)
      如前所述,ChatGPT只能基于已有的数据库和语料库进行信息合成处理,而无法突破既有的(显性的或隐性的)知识边界。ChatGPT在常规问题的处理上的确具有高效性等人类不及的优势,它提供的答案的确“过得去”,至少能达到人类的平均水准。
      但或许我们大部分人,包括法律人在内,一开始都仅仅将AI视为完成工作的辅助手段,认为其不可能替代我们自己的思考。但问题在于,当我们越来越习惯某种自己创造出来的、节省脑力和精力的工具之后,就会越来越离不开它。例如,今天微信占据我们太多时间,但当我们打开手机时还是会第一时间使用微信获取信息或者与他人交流。微信作为一款即时性的交流工具,使用它时不需要像写邮件那样需先进行体系思考,组织语言后集中表达想法,而可以即时互动(甚至可以没有语言,只通过表情包来互动)。久而久之,使用者的思考能力和语言组织能力都会退化。人类发明各种技术都是为了自己偷懒和舒适,但思维的惰性会让我们越来越不愿意走出知识的舒适区,从而扼杀创造力。当我们一有问题就习惯性地求助ChatGPT时,就会不自觉地将自己的思维能力降低到“庸人”的平均水平,在潜意识里丧失了创新的欲望。这也是未来人类可能会面对的最大悲哀:在人工智能时代,不是机器越来越像人,而是人越来越像机器!如有学者所说:“最优先要问的问题,并不在于AI是否能够产生高度接近,甚至完全相同于人类心灵的能力,或者是否能产制出与人类几乎一模一样的机器人(人造人);而在于人类社会的运作,是否越来越可以透过算法,甚至依赖算法来进行? 也就是那些透过算法所无法达致的心灵能力,在人类社会的运作中,是否有可能会越来越不重要?” 假如真的如此,就意味着“人”的逻辑全面让位于“机器”的逻辑,最终将导致主体意义上的“人”消失在所谓的“算法社会”(Algorithm Society)。
      对于法律人而言,这种思维的庸化还可能得到对风险规避的加持。例如,AI在司法裁判中会通过学习和分析同类案件的历史数据,要求法官对案件遵照历史数据的结果进行裁判。 这就造成了所谓的统一裁判或者说同案同判。同案同判是形式正义的可视化和可预期性的显现化,是司法公正的一种价值符号,其背后隐含着对法的安定性和可预测性的追求。但在司法裁判中,它始终只是法官的初始义务,始终存在着被其他更重要的理由凌驾的可能。 但问题在于,法官会规避风险,尤其是存在错案追究制度的背景下,保持与指导性案例等判决先例的一致性就会成为规避风险的不二选择。哪怕待决案件的特殊性要求其作出“无成例”的情境判断或运用司法智慧作出创造性判决,多数法官在潜意识里也会倾向遵循成例,因为这无疑更安全。如此一来,同案同判就会从一种可被凌驾的初始性义务在实际上演变为近乎绝对的强制。所以,虽然《最高人民法院关于统一法律适用加强类案检索的指导意见(试行)》并无强制法官按照类案检索的结果判决案件的规定,但实际上在大多数情况下会产生这种导向。以至于最高人民法院在一个参考案例的“裁判要旨”部分专门强调,关于类案检索的规定是就相类似案件作统一裁判尺度的参考,并非适用法律的强制性规范。
      智能化司法的正当性取决于两个前提,即依据历史数据裁判是正确的,且裁判模式会反复运行。 但一方面,即便历史数据库(案例库)全面真实反映了先前判决的情况,也不能保证这些判决本身都是正确的。而且吊诡的是,如果历史数据或先前判决是错误的,那么遵循同案同判的逻辑,运用AI裁判会导致错误的结果一次次在后来的判决中复现,这就会出现越错误反而越正确的荒谬情形。另一方面,让同一种裁判模式反复运行(同案同判)不是司法的绝对要求。同案同判可能与正确裁判的要求发生背离。作为案件裁判背景的社会环境和公众价值观念可能会发生变化,新出现的案件也可能存在前案不具备的额外特征。在前一种情况下,对于同一事实特征的法律评价本身发生了变化;在后一种情况下,伴随额外特征的出现,相应的价值判断可能会要求法官作出差异化判决。 如果法官只是机械遵从同一种裁判模式,就会完全无视个案的特征与“个性”和时代的要求。极端一点说,假如法官主动或被动地去追求机器裁判,那么法官本身就变得毫无意义,因为只要有裁判的历史数据,任何一位程序员都可以完成法官的工作。再往极端一点说,法院也可以被撤销,至少不需要再有这么多的审级(因为各级法院都按照历史数据来裁判,判决将不再有通过上诉被推翻的可能性)。法院将只剩下执行部门,甚至执行部分在某些案件判决中也不再需要。例如,设计一个关联程序,民事判决一旦生效,就自动转移电子货币来执行民事赔偿。
      类似地,法学院的学生越来越依赖ChatGPT后,会在遇到法律问题时习惯性地第一时间向它发问,在需要完成案例分析、论文写作等任务时也会习惯性地求助它。久而久之,他们就会丧失法学创新能力,乃至对既有法律知识和法律观点进行挑战、反驳和超越的勇气,泯灭探求新知的好奇心和想象力。因此,真正的挑战在于,如果ChatGPT全面介入人类的生活,会有导致使用者将自己原本不封闭的意识世界自我封闭起来,进行思维上的自我庸化的风险。
      (二)自由意志的逐渐放弃(道德的钝化)
      在自我封闭自我意识的同时,法律人也可能会逐渐放弃自由意志。法律实践是运用法律来调整社会关系的活动,其间掺杂着复杂的价值判断和道德判断。法律人的重要职责在于,通过基于理由的论证负责任地提出某个可被接受的实践主张,并且对他人提出的同种性质的主张作出回应(赞成或反对)。但是,习惯使用ChatGPT的法律人,会在两种意义上削弱自己的自由意志,从而压缩自主道德判断形成的空间。一方面,如果输入端信息库和语料库中既有的价值判断是单一类型的,那么ChatGPT提供的答案也将具有价值单一性。长此以往,使用它的法律人就像身处“信息茧房” ,习惯于伦理上的“主流见解”,丧失道德反思的能力,甚至想象不到有其他道德观点和价值证立途径的可能性。另一方面,如果输入端信息库和语料库中的价值系统本身就相冲突,那么ChatGPT提供的答案将具有随机性和偶然性,使用它的法律人可能会将这些偶然的答案当作“标准答案”,使价值判断失去统一性和融贯性。
      更为严重的是,当法律人越来越习惯和依赖ChatGPT提供的“标准答案”时,就会不自觉地逐渐丧失对答案的道德反省能力,变成“道德无感”(morally indifferent)的人。他们会下意识地认为,道德判断也是一种程序和运算。因为“大数据告诉我们‘是什么’,而不是‘为什么’。”“知道是什么就够了,没必要知道为什么。” 他们倾向于获得对于某个与法律相关之价值判断问题的(或是真实的,或是他们认为的)社会主流观点(是什么),而不去问支持这种观点的规范性理由何在(为什么)。他们不再考察系统输出的道德观念依据的道德规则是否经得起批判,以及历史生成的检验, 又是否存在相反的同样合理的道德观点及理由。因为这样做对他们而言无疑更安全,风险也更低。一旦形成对算法程序的依赖,最终的结果就可能是:理由不再重要,重要的是历史统计数据,论证不再重要,重要的是对过去的模仿。 一旦如此,法律人就相当于放弃了追问“为什么”的义务,慢慢地将丧失自主思考的能力,实质上就是在以服从历史模型的方式臣服于机器,机器便以尊重历史经验的表象实际统治了人类。
      法律的核心技术在于规范性指引(normative guidance),它向必然能理解和适用它们的行动者来颁布规范。作为实践推理的法律推理,是法律人运用包括法律规范在内的理由进行论证和说服的活动,必然包含道德向度。这意味着,法律人必须为他所作的判断和结论担责,即必须公开承认这些结论,并向其他对这些结论及其理由进行评估的人在实践上负责。因此,法律人在法律商谈与决策的过程中相互负有道德责任。 如果过度依赖ChatGPT,法律人将会自欺欺人地将这种判断和说理的道德责任推给机器,而不再愿意在复杂的人类事务和实践困境中运用理由进行争辩,甚至最后会丧失这样做的道德勇气,从而放弃了人作为道德主体的地位。
      因此,ChatGPT对于法律人乃至整个人类最大的挑战在于,它可能会慢慢带来使用者思维的庸化和道德的钝化,使其逐渐封闭自我意识,放弃自由意志,在不知不觉中臣服于自己所发明的技术,造成主体性的自我消解。
      三、技术文明对法律文明(人的文明)的挑战
      从社会文明的视角看,法律人的主体性危机同时意味着法律文明乃至整个人类的文明的危机。隐藏在ChatGPT可能带来法律人失业这一表面问题背后的是,作为社会实践的法律实践内在意义的消解,以及技术系统对法律文明(人的文明)的宰制。
      (一)社会实践(法律实践)内在意义的消解
      在《人类简史》中提到,人工智能的大量使用必定导致大量失业,从而使越来越多的人沦为“无用阶层”。 但是,失业问题的要害并不在于生存手段的丧失。在人类历史从农业社会到工业社会再到信息社会的发展过程中,很多旧行业随着技术进步消失了,但也产生了很多新行业。有很多行业恰恰是在信息技术和AI出现后产生的。更何况前文已经提及,ChatGPT并不具备真正的创造能力,因此它只能替代较为低端的知识性和常态化的劳动。
      失业问题的要害在于生活意义的消失。陷入“无用”阶层的人群将面临技术层面的主体性危机:当AI替代人类完成大量日常工作后,无事可做的人能够做什么?以什么事情去度过时间?劳动除了作为生存手段的硬意义,还有不可或缺的软意义:它提供了“生活内容”,也就是接触事物和人物的经验。与事物和人物打交道的经验充满复杂的语境、情节、细节、故事和感受,经验的复杂性和特殊性既是生活意义的构成成分,也是生活值得言说、交流和分享的缘由。假如失去了劳动,生活就失去了大半内容,甚至无可言说。 一言以蔽之,劳动不仅是生存的手段,也是人类有意义的社会实践。通过劳动,人类在有目的地改造自然的同时也在改造自身。如果劳动,特别是以改造自然为目的的劳动不再成为生存的需要,那么人作为实践主体的本质就部分地丧失了。哈贝马斯就将科学技术理解为一种“新型意识形态”,这种“新型意识形态”以技术取代了实践,直接冲击人的主体性本身,使人陷于自愿的“被压迫”状态,甚至感受不到压迫。因此,技术统治的意识形态核心是实践和技术差别的消失。 人工智能技术进一步混淆了技术与实践的区别,以技术取代了人的实践本身。 当人们失去劳动的同时,一切需求又可以得到满足,也就失去了反思和改造自身的机会,社会实践将消解,生活内容就剩下虚无。
      对于法律人而言,法律实践这种社会实践的“生活内容”尤为重要。以法律推理要求法律人必须以各种方式参与事实、规范和价值。 律师需要面对面与当事人打交道,需要与当事人交谈,需要接触案件细节和证据,才能在法律与事实之间恰当地游走,为当事人寻求法律上的最佳帮助。法官需要有诉讼程序的亲历性,需要接收到当事人和证人直接言词的信号,需要有双方当事人及其代理人当面的质证和交锋,才能通过程序求得最佳法律判断。司法亲历是司法人员“身到”与“心到”的统一、司法人员亲历与人证亲自到庭的统一、审案与判案的统一,也是亲历过程与结果、实体与程序的统一。其基本要求是直接言词审理、以庭审为中心、集中审理、裁判者不更换、事实认定出自法庭、审理者裁判、裁判者负责。 在对司法规律缺乏敬畏、对法官主体性缺乏尊重的技术路线下,司法可能会变成一百年前就被诟病的“自动售货机”式的司法,甚至会沦为大数据和算法底下的一场机器化的侥幸赌博。诉讼程序的亲历性和直接言词性就会大打折扣,传统程序理论强调的“直观的”“看得见的”、仪式化的程序正义几乎是缺失的。
      过度依赖于AI的审判也会导致司法剧场化的退场。司法的剧场化是指在以“剧场”为符号意向的人造建筑空间内进行的司法活动类型,它对于现代法治的制度、精神和习惯的形成具有内在的潜移默化的影响:内化人们的理性精神和品质,凸显程序和秩序观念,促成法律活动的技术化和专门化,增强法律的神圣性和权威性。 司法剧场化的核心在于各种法律角色通过参与程序化商谈(程序正义)来消弭价值分歧,确立公共行动标准。法律程序的法治意义恰恰体现在通过程序化商谈构建正确的法律规则系统并加以实施的整全性实践之中。 缺失了这种程序和过程,法治的意义也将在很大程度上丧失。AI审判会使得司法从三维活动降格为二维活动,它只注重结果,不注重程序和过程,只注重观点,不注重理由和提出理由并展开交锋的活动(商谈)。由此,伴随着以程序正义为核心的法律实践一并消逝的还有法治本身。甚至当AI可以基于法官个人审判的历史数据进行预测时,它会进一步将司法裁判变成一种服务购买,用商业偏好逻辑取代司法伦理, 从而瓦解和破坏法律的权威性。
      (二)技术系统对法律文明(人的文明)的宰制
      当AI成为万能技术系统为人类提供全方位的服务,一切需求借由技术来满足时,那么一切事情的意义就变成了由技术系统定义和宰制,每个人只需要技术系统而不再需要他人,人对于人将成为冗余物,人再也无须与他人打交道。结果是人不再是人的生活意义的分享者,人对于人失去意义、失去兴趣。这是人的深度异化,不仅是存在的迷茫,而且是非人化的存在。因为自人成为人以来,人的意义和生活都是在人与人的关系中被定义的。如果人不再需要他人,或者说每个人都不被他人需要,那么生活的意义又在哪里? 人只有在共同体中才能使固有的身心素质得到发展。因此人从本性上说是一种社会存在。人的精神只能在人与人之间的交往中才能发展起来。人也只能在其共同体中成为一个完全的人,一个能承担责任的人。
      法律上的人也是作为社会存在的人,特殊之处在于其“社会存在”是经法律规范调整的社会关系,即法律关系。法律上的人就是法律关系的主体,而法律关系的主体具有相互性。权利人和义务人是相对存在的,“因而只有那些有资格作为法律秩序中义务或权利的人的行为和不行为,才是与法律上的人的概念有关的。一个人只有在他‘具有’义务和权利时才存在,离开义务和权利,就无所谓人了。” 同理,“法律人”也是一种在主体间意义上的身份识别。律师是相对当事人而言的,检察官是相对被告人而言的,原、被告互为两造,法官则是两造之间的中立裁判者。正是在这些相互关系中,在法律人对其他法律人的互动(合作和对抗)中,法律人共同体才得以塑造,法律实践的意义乃至法律本身的意义才得以展现。当一切法律问题都可以通过ChatGPT这类语言模型或机器学习模型获得答案时,当法律人不再需要法律关系中的“对方”和“他者”时,法律人的主体间关系就将为人与机器的主客体关系取代,法律人将成为“单向度的人”,法律人共同体也将不复存在。由此,“法律人”这种身份最终将消解在这场技术主义的盛宴之中。
      法律文明是人的文明,是人类文明中与法律相关的各项元素的总和,揭示的是人类社会进化发展至文明阶段出现的社会现象,体现的是人类法治发展演变的内在规律。 无论如何,法律制度是人类文明的产物,是“人”的制度映射,法律文明的核心在于“人”。ChatGPT在未来可能展现的最大威胁即用技术文明取代人的文明。技术文明最大的特征是用程序和可计算性化约人类生活的复杂性。从社会功能的角度看,大量日常的、程式化的工作的确都可以由技术和算法完成。但问题在于,当人类越来越习惯通过AI获得对这个世界的认识时,就逐渐丧失了面对新情形和新挑战创造性地予以回应的欲望,越来越自甘平庸,进而消弭自身的主体性。人的主体性意味着他可以突破自然人的概念,成为一种“自定人”(self-defined man),即自己决定自己成为什么样的人。这意味着,人是具有自主意志和思想的主体,摆脱了上帝的精神支配,因此获得了存在论上的自由。而存在论上的自由意味着人可以塑造自己,重新定义自己,甚至创造自身。 一旦放弃了人的文明,技术时代的人类将逐步放弃自我意识和自由意志,变得道德无感,丧失生活的意义,去接受机器的“思维”(算法)。AI或许在不带任何人类感情的计算理性的意义上,能够为人类的行为提供所谓的“最佳选择”。在此,人类的一切行为都变得可计算、可预测、可控制。如果说人是社会关系的总体,社会关系又由相互间的行为来界定,那么一切行为均由算法和程序控制的人在本质上就成为了算法和程序的产物。由此,人性(主体性)将逐步屈从于技术,人的文明也将被技术系统吞噬和消解。
      所以,在不远的未来,人类文明面对的最大困局是人性与飞速发展的技术不相匹配,人性无法驾驭技术。这一困局的两个最大表现是技术奴隶社会和人的文明的毁灭可能。人工智能的发展蕴含这样一种技术逻辑和趋势:它会打破和取代几千年来占绝对主流的重复性劳动及相应生活常态。这种技术逻辑在资本逻辑的作用下会形成技术奴隶社会。一旦人性无法有效控制技术的负效用,尤其是无法控制潜在的毁灭风险,人的文明就将遭受整体性毁灭。这种风险是超越国家、民族、种族和文化差异的。 虽然有识之士对这种“坏的”技术文明的反思、人的主体性对这种技术异化现象的反抗从未停止过,但当AI越来越全方位地介入人类的生活时,当每个人都越来越依赖于无所不在的智能系统时,几十年、数百年之后的后代还能在整体上保持这种主体性吗?
      四、结语
      ChatGPT预示着强人工智能时代的到来,但是在法律领域,它无法完全取代法律人,至多只是辅助决策的工具。ChatGPT在未来可能展现的最大威胁是用技术文明来取代人的文明,如果这种威胁成为现实,那么作为人的文明的法律文明也将消失在算法和程式之中。所幸的是,人类未来还有另一种可能,即如果有足够多的人,包括法律人能够对于前一种可能保持警惕,在人类实践,包括法律实践中克服思维庸化和道德钝化的惰性,那么人类文明将克服技术文明的弊病,展现更为光明的前景。当然,对人类的惰性不可抱有过高期待,希望其能完全通过自律方式来自我克服无疑是一种过于美好的愿望。所以,借助必要的制度设计来防范和控制可能的风险仍属当然之举。总之,法律人在充分享受AI带来的便捷和效率等红利的同时,不得放弃自己作为“审查者”和“监护者”的职责。因为在“奇点”到来之前,AI再怎么“高明”,本质上也是没有自我意识和自由意志的机器人。在法律上为机器人的行为负责,从而确保为它们在法律界限内的活动负责的总是人类自己。让机器回归机器的定位,也即人类(日常的或专业的)活动的辅助者而非宰制者,才是根本之道。如果人创造了机器,却用机器来规训自己,最终反而让机器走上神坛成为自己的主宰,那么这终究是人的悲哀,而不是机器的悲哀。这种技术文明真的是我们所追求的吗?或许需要牢记的是:没有人的文明毫无意义。


    【作者简介】
    雷磊,中国政法大学法学院院长,教授、博士生导师,法学博士;兼任中国法学会法理学研究会常务理事,中国法学会立法学研究会常务理事,中国法学会董必武法律思想研究会理事,中国逻辑学会法律逻辑专业委员会副会长等。先后在《中国社会科学》《法学研究》《中国法学》等期刊发表论文百余篇;代表著作有《规范、逻辑与法律论证》《法律体系、法律方法与法治》《“法的渊源”意味着什么?》等;代表译作有《像法律人那样思考:法律推理新论》《法律逻辑》《正确法:法伦理学基础》等。主要研究领域为法哲学、法理论、法律逻辑等。

稿件来源:北大法律信息网法学在线

原发布时间:2023/9/25 9:40:50


上一条:但书规定的定位——但书规定裁判规则之(一) 下一条:单位犯罪的撤回起诉问题

关闭