AI,辅助审判的技术风险及规训策略

【www.zhangdahai.com--其他范文】

刘 蓓 张雅楠

(长春工业大学,吉林 长春 130000)

近年来,各国法院普遍面临诉讼激增、案多人少的难题。运用AI辅助审判能够减轻法官非审判性工作的负担,因此各国纷纷着手构建AI辅助审判的“智慧型法院”。

在我国,适用AI辅助审判的态度较为积极。例如,北京“睿法官”系统是为执行最高院信息化战略部署而研发的。该系统通过大数据和AI相融合冲破了传统庭审方式,实现了智能化庭审的华丽转型,“睿法官”实现了总结争议焦点、类案推送、生成裁判文书的智能化,对于案情复杂、争议较大的案件还能辅助法官校对案件事实,提取裁量因素进行审判研判,统一裁判尺度。然而,该系统存在数据孤岛、弱AI的低智等弊端。此外,上海为完成“推进以审判为中心的诉讼制度改革软件”的部署,研发出“上海刑事案件智能辅助办案系统”(简称“206系统”)。该系统既能审查逮捕条件、评估社会危险性、进行类案推送,也能自动生成裁判文书、实现电子卷宗转移,亦能够辅助司法工作人员检查证据收集是否合法、分析并判断在案证据能否互相印证及证据之间是否存在矛盾、证据链是否为闭合证据链等。在深化智慧法院建设的背景下,我国各地具有辅助审判功能的AI系统逐渐涌现,如河北法院“智审1.0”系统、智慧审判苏州模式等。

在国外,也有丰富的AI辅助审判的实践模板。首先,美国积极探索AI辅助审判,以COMPAS系统为例,法官办案时会用该系统评估涉诉人羁押的必要性、社会危险性及再犯危险性,但该系统引起了公众的质疑和批判,原因如下:第一,COMPAS 所作的风险评估是根据群体数据得出的结果,而非针对涉诉人的个人特征得到的结论,有损涉诉人的个别化量刑的权利;
第二,在评估涉诉人社会危险性时,不恰当地考虑了涉诉人性别、种族等因素。此外美国也将PACER系统、CM/ECF系统应用于辅助审判上。其次,2016年英国发布了一款可以智能识别案情并对案件裁判结果进行预测的系统,通过对584起案件进行预测发现,该系统预测准确率高达79%。最后,日本在2004年将“在线监控程序系统”应用于民事诉讼中;
在2009年将“审判员量刑检索系统”应用于刑事诉讼中,该系统能为法官提供案件定罪量刑参考,推进类案类判的现实兑现,法官还可运用“KRP”系统检索法律法规;
在2017年日本指出接下来重点要实现由“弱人工智能向强人工智能”转化。欧洲很多国家都安装了ERP案件管理系统等。

AI辅助审判将最大化发挥提高办案效率、优化司法资源配置的优势,通过统一证据标准和裁判尺度,提升裁判精准度和司法公信力,有助于将办案工作的事后监督转变为全过程实时、自动监督,避免出现因私人问题产生办案随意性,能够预防司法腐败的问题。然而,AI在辅助裁判中仍存在诸多技术难题,包括大数据技术、算法技术及弱人工智能技术的负面风险。

2.1 大数据技术风险

2.1.1 司法数据数量不敷

首先,裁判数据的专有云、开放云、涉密云是我国开发AI辅助审判系统的主要数据来源,该数据结构会导致各层级法院数据库的参差。例如各层级法院在“涉密司法数据库”上就存在较大数据权限错落问题;
再如各层级法院数据库的规模和质量与法院级别关联,区法院数据库中仅包含该区案件的“最大化”司法数据,省法院数据库中则囊括全省范围内案件的“最大化”司法数据,此处的“最大化”指司法数据除了包括裁判文书,还包括其他司法过程性文件,如电子卷宗中的副卷内容[审理报告、合议庭(评议)笔录、审委会讨论记录、其他不公开的文件]等。以区级法院为例,其对省内其他地区的全数据和省外的全数据处于片面运用状态,这使得对影响裁判结果的法官评议、法律选择和价值博弈等关键性数据记载的缺失。各层级法院中只有全国最高法院的数据库内容比较接近于全数据状态。因此,各法院基于自身专有数据库进行数据分析、建模会诱发裁判偏狭的可能性,基于有限的专有司法数据无法归纳出具有普遍性的类案类判结果。其次,最高法院的公报案例及各法院内部的办案指导大多未上传至数据库,亦会造成司法数据不全面、不充分问题。

2.1.2 司法数据失真

司法数据失真是指司法信息虽是公开,但公开信息是依照司法机关管理目标“精细加工”出来的,并非公众掌握的司法实践中真实、充分的数据[1]。因此,公布信息与真实信息之间可能存在异步问题,这种差异将导致AI无法学习到法官的真实推理方式与过程,造成数据“垃圾进、垃圾出”的境况。因此,在司法数据失真的羸弱地基上,AI难以建立起科学、稳定的裁判“理想国”。

2.1.3 司法数据“孤岛”

在“两高一部”的激励下司法数据受到公检法系统的高度重视,公检法系统都建立起各自的司法数据库。由于相关政策的缺失及三机关协作机制的不完善,尚未构建一个兼容性高且数据全面的系统。现有的“政法协作平台”中,公检法系统之间的司法数据并非悉数,“数据孤岛”困境对我国信息化司法产生羁绊,不利于提升司法AI预测的精准度。

2.2 算法技术风险

2.2.1 算法黑箱

首先,算法黑箱引发技术不可知性。AI助力审判是通过程序员编制的算法和代码而实现的[2]。但是,AI的运作模型是非公开的,在算法设计者不公布源代码时,仅能观察到录入系统的数据和系统产出的结果,而无法知晓AI运行的深层逻辑,形成算法黑箱问题。此外,现有司法工作人员尚未掌握AI技术,导致司法机关难以独立开发AI辅助审判系统。司法机关通常会与科技型企业进行合作开发,或直接将开发任务外包给科技型企业,那么系统开发过程则涉及企业商业秘密,造成算法难以公开的黑箱问题。

其次,算法黑箱与程序公开龃龉。以刑事审判为例,审判公开是刑事诉讼的基本原则,量刑公开作为审判公开的核心环节,是减少司法随意性、遏制司法腐败、保障涉诉人合法权益的重要路径。若想实现量刑公开,第一,需要向涉诉人及辩护律师公开对其所作的指控,如此涉诉人及辩护律师才能对症下药做出相应抗辩;
第二,需要公开与量刑有关的案件事实,包括对量刑起到决定性作用或产生影响的犯罪过程、涉案金额、犯罪方法等事实;
第三,需要公开量刑的过程,即在庭审中公开调查与量刑有关的事实,公开进行法庭辩论;
第四,需要公开法官量刑决策的理由。这就要求司法机关向涉诉人及辩护律师公开算法运行的逻辑,然而目前AI辅助裁判的处理方式是录入-处理-得出结论,外界只能知晓AI系统得出的最终结论。因此,算法黑箱必然导致量刑部分过程的不透明,与程序公开出现冲突。

2.2.2 算法歧视

算法歧视会影响算法结论的平允性。由于AI辅助审判系统开发者会受到社会经历、主观意识等因素的影响,且通常开发者会不自觉将自己的偏见带入程序开发中,因此算法歧视通常是无意识、隐蔽性的歧视,且难以避免。卢米斯诉威斯康星州案是算法歧视的典型案例,法官参考了COMPAS系统对卢米斯所做的社会危险性进行评估结论,对卢米斯判处了长期徒刑。但该系统评估涉诉人犯罪风险时存在种族歧视,易将白种人误评为低犯罪风险,容易将黑种人误评为高犯罪风险。该系统还可能存在再犯率偏高的歧视,通过对7 000多名涉诉人跟踪调查后发现,该系统再犯风险结论并不准确,被该系统评估为会再犯的涉诉人中,仅20%的人再次发生暴力犯罪。辅助审判系统设计者在开发算法过程中已将种族偏见嵌入其中,得出的结论也会带有偏见,无疑将损害司法公正性。

2.2.3 算法霸权

算法虽身披技术中立的外衣,但由于算法不公开、不解释、不受质询、难以救济,可能会造成算法霸权的风险,而算法霸权将会阻碍司法事业的健康有序发展。

首先,压缩法官自由裁量权。过去长期一段时间内,某些法外因素无法在审判过程中被“剔除”,存在“看人下菜碟”的问题,造成个别“人情案”“关系案”,导致出现案情相似的案件最终裁判结果却相差较大的情况,与公众对“同案同判”的期待相悖。由于AI具有天然客观性,在辅助审判时不会夹杂对“人情世故”考量,受唯科技主义与科技效率双重影响,法官更倾向依赖AI结论,无形中在压缩法官自主裁量的空间,导致算法霸权。

其次,出现公众接受度低难题。在传统审判模式下涉诉人虽然是被迫接受审判结果,但已形成普遍的诉讼心理。然而AI却颠覆了涉诉人对于审判结果的信任,原因之一在于法官亲历性被压缩。亲历性要求法官亲自参与审案的全过程,在双方当事人就同一事实有完全不同的说法时,法官需对当事人的神情、语气、身体动作等进行观察,并结合对其他证据的亲自感知,辨明其中的虚实真假,正确认定案件事实并形成心证。由于算法霸权导致将AI用在辅助审判上有着“垂帘听政”的嫌疑,如AI可以在未经庭审的前提下即向法官推送类似案件并给出裁判指引,法官审案思维受到裁判指引影响,最终造成涉诉人对裁判结果不认可。

2.3 弱AI技术风险

目前,我国应用在司法领域的AI仍是一种收集整理型、材料检索型、模拟型的弱人工智能。由于弱人工智能的学习能力弱,导致将其应用在辅助审判上仍存在一定阻碍。

首先,弱人工智能融会自然语言能力有局限性。知识图谱作为推动AI发展的牵引力之一,数据与模型的颗粒化程度举足轻重,数据和模型越精细,则知识图谱的效果越好。然而,想搭建出颗粒化程度高的知识图谱首先要解决的问题是,如何完成算法语言和自然语言之间的相互转换。由于自然语言在表达方式上具有多样化、多义性和模糊性等特征[3],导致弱人工智能无法充分理解自然语言所要表达的含义。以语言表述的多样性为例,在表达涉诉人认罪认罚时,除直接用“认罪、认罚”外,还可以用“如实供述”“同意量刑建议”“签署具结书”等方式表述,但弱人工智能还无法自主将这些词语相关联,因此可能会在检索案情时发生遗漏。再以语言表述的模糊性为例,在理解“情节恶劣”“显著轻微”等词语时缺乏统一标准,弱人工智能会难以确认案件情况是否符合标准。

其次,弱人工智能或将酿成延续性错案。弱人工智能之所以能够辅助审判是基于对先前正确法律文书的学习,但是在法律文书库中也会存在冤假错案。而弱人工智能仅能做出录入-输出的机械性工作,无法做出样本法律文书是否正确的价值判断。若弱人工智能对冤假错案的法律文书进行挖掘,或将“照猫画虎”得出延续性错误结论。

3.1 完善大数据技术

鉴于我国司法数据仍存在数量不敷、失真及“孤岛”问题,为提升裁判辅助AI技术发展的原料质量,需要进一步加强我国司法数据库的建设,具体可从以下3方面着手。

3.1.1 补足司法数据

只有数据足够充分的情况下才能深挖数据背后的价值,应添补数据库的储备。首先,为扩充司法数据的来源,需加强法官对司法数据的重视度,强化法官数据收集意识。其次,延展数据收集种类,在审理案件过程中会产生大量司法数据,除裁判文书等典型的司法数据在收集范围内,还需利用语音和文字识别等技术,将庭前会议记录、法庭庭审笔录、合议庭讨论记录、审委会记录及其他相关政府文件等法律文书囊括在收集范围内。最后,为规避数据库大小受法院级别的限制,在安保技术条件允许的情况下(如部分数据库设置为不可人为查询,AI可通盘处理司法数据),构筑法院系统内部统一的数据平台,提升各法院间的系统兼容性,促进司法数据在各法院间互通,平衡各级法院数据库规模。

3.1.2 保障司法数据真实性

数据失真会影响AI辅助审判所得结论的准确性,因此需从源头杜绝数据失真问题,在上传数据时就应注意其真实性。此后,还要定期对司法数据进行校正,将保障司法数据的真实性作为维护司法数据库的日常工作,对于司法数据库中的过时、错误数据要及时淘汰、更正,对于新收集到的司法数据要及时增补,做到司法数据的“汰旧迎新”。此外,还可通过社会调查等途径,获取法官在做决策时采用的真实信息,并将真实信息录入裁判模型中,增强司法数据的真实性和有效性。

3.1.3 以数据集群克服数据壁垒

由于公检法等司法机关之间未实现数据互通,造成了“数据孤岛”的困境,不利于AI在辅助审判时发挥出“1+1 > 2”的效果。为推进立案、侦查、审判、执行等全过程的智能化,在时机成熟时,可在公检法系统间创建协同司法数据平台,实现“全”司法数据在各司法机关之间的互通。建设统一的司法数据平台需要中央出面牵头,根据我国的实际情况,可由司法部、最高院、最高检、公安部及国家监察委等有关部门联合负责,以实现司法共同体,了解最新的司法动态并及时做出相应调整,优化司法资源配置,统一各司法机关司法数据标准并对标维护该司法数据库[4]。

3.2 优化算法技术

3.2.1 增进算法透明度

首先,公示算法逻辑。由于算法的不透明与程序公开龃龉,只有将司法行为透明化才能赢得公信力,因此可以从开发者公示算法逻辑义务的角度入手,规范开发者在算法开发过程中的行为。欧盟《通用数据保护条例》规定,凡利用算法作决策,须公示算法决策逻辑,接受公众监督。我国可借鉴该规定,向公众、法律和AI领域专家公示算法逻辑。具体而言,第一,进行全面公示,即与算法有关的事项均向公众公示,确保算法逻辑透明;
第二,进行网络公示,让公众可以通过互联网等便利方式获取公示信息;
第三,进行初始公示,即在司法机关开始使用该算法时就公示,而不应在当事人提出疑问后才公示[5]。

其次,创建算法监督机制。第一,在司法机关内部构建监督算法机制,因“自我监督”难以完全避免司法不透明困局。第二,在司法机关外部成立专门的第三方监督机构,这种内外兼修的监督机制不仅要持续监督算法数据库,还要监督算法运行全过程。实践中既懂法律又懂AI技术的人才能更好地完成算法检验和监督,而人工智能法学学科建设可以为监督AI技术提供智力保障,因此还应当将改革法学教育提上日程,重视“法律+AI”复合型人才的培养工作[6]。

最后,赋予涉诉人算法知情权。司法工作人员需告知涉诉人,对其审判时会参考AI的处理结果,并告知涉诉人所应用的算法类型、使用目的、参数范围及将对涉诉人的审判结果产生何种影响。算法决策知情权指在自动化决策对算法相对人产生影响时,算法相对人可要求算法使用人对自动化决策做出相应说明,并要求算法使用人更正错误的权利。适当“赋权”不仅能够保障涉诉人得到一定的救济,还能弥合算法开发者与涉诉人之间的信息鸿沟。

3.2.2 防卫算法歧视

首先,以技术反制算法歧视。一方面,由于大数据的歧视会造成算法的继发性歧视,所以治理算法歧视的核心在于纠正数据歧视。然而,要完成在庞大数据库中辨别、修正带有歧视的数据,任务量无疑是巨大的,单靠人力无法完成,最可靠的手段就是运用技术来实现。另一方面,相较于传统意义上的新技术而言,AI技术的风险指数更高,甚至出现权力异化的危险。因此,针对算法歧视这种技术弊端需要树立持续性监管的理念,同样仅依靠人力监管难以做到持续性。相关工作人员可尝试利用机器对算法进行追踪和实时记录,分析、鉴别算法的异常变化和不连续性,利用技术对算法进行安全测试和即时监管是实践中可靠的治理方式,以有效科学的技术手段反制技术,实现对算法歧视的持续、准确、高效监管[7]。

其次,赋予涉诉人拒绝权。若涉诉人认为AI辅助审判系统在一审中所作的决策存在歧视并提起上诉,或检察院认为AI对涉诉人所作决策错误提起抗诉而引起二审,若二审的过程中仍运用AI辅助审判,并在该AI系统中输入与一审相同的案件信息,容易得出与一审相同的审判结果,二审的功能与价值则变得薄弱。因此在二审阶段,应当赋予涉诉人拒绝使用AI辅助裁判的权利,限制AI辅助审判系统的适用阶段。

3.2.3 击破算法霸权

首先,守卫法官的自由裁量权。法官是审判工作中处于核心地位,算法霸权或将“侵犯”法官自由裁量权,因为AI可能会忽略个案差异损害个案正义。因此,应明确AI仅是法官审判时的“助手”,其得出的结论仅为“参考答案”,而非“标准答案”,防止司法工作人员过度依赖AI系统。为此,可以在设计AI辅助审判系统时令其产出的结论具有一定幅度,而非确定数值,由法官依照案情实际情况做出最终裁决。此外,还需赋予法官采用AI得出结论时的说理义务。

其次,逐步舒缓AI辅助裁判公众接受难问题。第一,限定AI的辅助性。公众接受度低的原因之一是AI可能会“越俎代庖”。因此,应当确保法官在审理案件中亲自听取诉讼当事人的陈述及抗辩、亲自听取证人证言、亲自审查各类证据,切不可将各种类型证据审查权利全权交付于AI。此外,录入AI辅助审判系统的数据信息仍要由法官亲自输入、核实,法官也需亲自编辑裁判文书中的说理部分,增强法官说理义务,提高法官说理标准。第二,科普与社会宣传。综合利用报纸、公众号、公益广告、法治栏目、短视频平台等多渠道,加强对AI、智慧司法等新事物的科普与社会宣传。在持续弘扬公正审判、司法正义理念不动摇的基础上,深入剖析AI依靠精准决策能力胜任辅助法官审判的任务,为利用AI辅助审判奠定基础。

此外,如上文所述,当涉诉人对AI自主化决策产生怀疑时,可以知情权减轻AI辅助审判的顾虑,以拒绝权保障程序救济,提升接受度。

3.3 精进AI辅助审判技术

我国司法领域目前使用的仍是弱人工智能,还存在“低智”藩篱。而司法审判的结果会直接关乎涉诉人的人身权、财产权及其他重要法益,故需攻克这一技术障碍。

首先,发展强人工智能技术。智能革命不会滞留于弱人工智能层级,而是起步于弱人工智能,经由强人工智能,最终达致超人工智能的浩瀚历程。强人工智能不再像弱人工智能仅能担负特定类型智能任务,而是可以承担通用型智能任务(类人的“机器学习”-推理-认知-解决问题)。强人工智能技术的算力与分析能力更强,凭借深度强化学习技术(DQN)能够更敏捷地收集、分析和处置司法数据,可以更精准领悟其“见”到、“听”到、收集到的法律信息,并自动设计进化规则,进化后的司法AI辅助系统将变得更强。此外,通过嵌入多垒计算模型模块形成司法人工智能的神经决策网络,强人工智能技术可以模拟人类自主意识、世界观和价值观,实现像法官一样完成对案件的独立分析、逻辑推理和价值判断。但是创造强人工智能比创造弱人工智能难得多,目前还受困于技术天花板,需要技术专家共同的奋勉勠力。

其次,从弱向强人工智能迭代的过渡期,可以尝试分割AI辅助审判的适用空间。由于未来一段时间内,我国还将继续使用弱人工智能,因此在“人机协作”的模式下,需要划清AI与人类法官的分工,以克服弱人工智能的技术风险。第一,对情感价值、法律价值分割。将需做价值判断的情感问题交给法官,常规法律问题交给AI。第二,对案件认定、法律适用分割。将认定事实的工作交给法官,“主要”法律适用问题交给AI。第三,对新型案件、常见案件分割。将“主要”常规案件分配给AI,新型案件交给法官。

猜你喜欢 裁判审判法官 牙医跨界冬奥会裁判今日农业(2022年2期)2022-06-01裁判中存在“唯一正解”吗*——对《司法裁判中的道德判断》的批判性研读法律方法(2021年3期)2021-03-16法官如此裁判民主与法制(2020年19期)2020-08-24法官如此裁判民主与法制(2020年16期)2020-08-24做“德法兼修”的好法官红土地(2018年8期)2018-09-26“五个到位”推动未成年人案件审判试点工作人大建设(2017年4期)2017-07-21裕仁天皇如何逃过审判红土地(2016年11期)2017-01-15当法官当不忘初心红土地(2016年10期)2016-02-02消失中的审判政法论丛(2015年5期)2015-12-04未来审判小说月刊(2015年10期)2015-04-23

推荐访问:审判 辅助 策略

本文来源:http://www.zhangdahai.com/shiyongfanwen/qitafanwen/2023/0903/648929.html

  • 相关内容
  • 热门专题
  • 网站地图- 手机版
  • Copyright @ www.zhangdahai.com 大海范文网 All Rights Reserved 黔ICP备2021006551号
  • 免责声明:大海范文网部分信息来自互联网,并不带表本站观点!若侵害了您的利益,请联系我们,我们将在48小时内删除!