注:本文刊发于《民主与法制时报》2021年10月13日第3版,题目为《“人工智能法官”的伦理思考》,刊发时有删节。
“人工智能法官”的四大伦理障碍
罗恬漩、段陆平
2021年9月25日,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》(以下简称《伦理规范》),其中第三条明确规定了人工智能活动应当遵循的六大基本伦理规范,包括增进人类福祉、促进公平公正、保护隐私安全、确保可信可控、强化责任担当、提升伦理素养。这六大基本伦理规范实际上指向的是人工智能可能存在的缺乏人文关怀、产生偏见歧视、侵犯隐私与个人信息权、消解人的主体地位以及难以追责的诸多伦理风险问题。在当下域外与中国都呈现出蓬勃发展的司法人工智能领域,上述伦理问题也在不同程度上存在,并且事实上已成为司法人工智能能否进一步发展并取得突破性应用(比如适用于审判领域中实质性决策实事项包括事实认定和法律适用的AI法官裁判)的障碍。具体而言,在笔者看来,AI法官的算法裁判要想取得主体地位,必须突破程序正义不足、缺乏人文关怀、隐私安全隐忧和可问责性难题四大伦理障碍。
首先,程序正义不足的伦理问题。AI法官的算法裁判之所以能被不少学者支持以及司法实务接受,非常重要的一个理由或论据是,AI法官所做裁判的准确率与人类裁判的准确率相当,甚至在某些对比测试中还要远高于人类裁判者。然而,此种论证理由只是看到了AI法官裁判所具有的某种程度的实体公正。对于现代法治理念更为重视和追求的程序公正而言,AI法官却难以充分保障。具体表现在三方面:一是AI法官的算法存在歧视与偏见等问题,实际上意味着直接冲击了法官的中立性这一程序正义的基本要素;二是AI法官的“算法黑箱”直接消解了司法程序的透明性、公开性;三是AI法官的算法裁判只能回答基于以往判决的大数据分析,案件这么判才符合类案类判要求,但它无法对当前案件中当事人和律师辩论、辩护的争点和观点进行充分地识别、理解与回应,这实质上严重忽视了当事人的程序参与权,裁判的说理也严重不足。
其次,缺乏人文关怀的伦理难题。作为人类社会交往过程中最重要的纠纷解决方式之一,司法审判不仅要以法律为基本依据,情和理也是重要的参考因素,裁判的效果应该是法律效果、政治效果与社会效果的统一,这就不仅仅要求在司法裁判过程中严格适用法律,还要有情理的温度和人文的关怀。而AI法官在算法裁判的运作中能否考虑以及在多大程度上根据案件的具体情况考虑人文关怀,或者说情理法中情理如何在AI法官的裁判中得以体现,是判断人文关怀能否在司法人工智能得到体现的重要依据,但目前看来,似乎已有的AI法官系统或者类AI法官系统都还难以达到此种要求。
再次,侵犯隐私安全的伦理隐忧。AI法官裁判是以裁判文书类司法大数据的深度挖掘为基础而产生的算法系统。但这种大数据挖掘毫无疑问会涉及裁判文书中法官、当事人、其他诉讼参与人的隐私权与个人信息知情、同意权保护的问题。一个最具说服力的例证是,法国立法机关在2019年颁布《司法改革法》,第33条明令禁止基于法官“画像”的大数据应用(包括比较、评估、预测),违反者最高将面临5年有期徒刑以及30万欧元的罚金,其中一个重要理由就是这种做法在某种程度上侵犯了法官隐私权。该条在出台后备受争议,法律科技界一片哀叹,似乎司法大数据技术应用的寒冬即将来临。
最后,可问责性难题的伦理风险。众所周知,人类法官裁判案件时克尽勤勉不仅仅是职业伦理要求,也是因为有相应的司法责任制度予以规范。但若由AI法官进行实质性审判却得出错误裁判结果时,该由谁来承担相应的责任,这或许是“人工智能当法官”最为致命的追问,也是其最大的伦理障碍。根据责任承担的基本原理,司法责任制能够对人类法官发挥作用,主要在于责任追究的“谴责”会给人类法官带来身体的、精神的、财产的剥夺性、限制性“痛苦”等等,但这些对于AI法官而言毫无意义。那么,究竟该由谁来承担AI法官裁判错误的责任,技术的研发者?管理者?审核者?使用者?对此目前未见一套令人信服的责任理论与规范体系出现。
针对前述AI法官面临的四大伦理障碍,《伦理规范》已经给出了一个制度规制的基本路径,这无疑是极其重要的方向,未来应该在《伦理规范》明确的六大基本伦理规范以及相应具体规范的基础上,构建出适用于法律人工智能甚至司法人工智能这一特殊领域的专门的伦理规范。此外,从类型化的角度来看,AI法官的四大伦理障碍又可以分别纳入到技术伦理障碍与责任伦理障碍之中,例如程序正义、人文关怀之问指向的是人工智能的技术问题与风险,因此可谓技术伦理障碍,而侵犯隐私安全、可问责性难题则一般无关乎于技术,涉及的是责任伦理障碍。两种不同的伦理障碍也可以分别从技术的升级改造层面以及责任理论与分配机制的重构角度来寻找可能的突破。
【作者单位:罗恬漩:同济大学法学院、上海市人工智能社会治理协同创新中心;段陆平:广州大学法学院】