余鹏文
在数字技术发展日新月异的背景下,大数据、人工智能、区块链等新兴网络信息技术在司法领域不断得到深化运用,使得我国刑事司法制度和诉讼程序迎来前所未有的发展机遇和现实挑战。正如英国学者理查德·萨斯坎德在《法律人的明天会怎样?——法律职业的未来》一书中提到,随着信息技术和互联网适用场域不断扩大,将产生庞大和难以计算的海量数据,相应地需要人机交互来帮助人们应对大数据带来的挑战,同时利用好其中蕴含的丰富价值。大数据的颠覆性在于,重要的法律见解、关联性,甚至算法可能会在法律实务中和法律风险管理中获得核心地位。(1)理查德·萨斯坎德:《法律人的明天会怎样?——法律职业的未来》,北京大学出版社,2015年,第62-63页。从国家发展战略和司法实践情况来看,大数据加上算法,已经成为智能刑事司法的中心议题,并且在预测警务、犯罪风险评估、量刑建议辅助、量刑决策辅助等事项上得到深度运用,从而有效发挥人工智能技术在重复性、规律性工作中的效率优势。但同时也要注意,在刑事司法中使用人工智能来代替法官裁决,从理论上看有可能使得宪法和刑事诉讼法规定的程序正义基本原则变得面目全非,而算法歧视、算法黑箱等背离程序公开性和公正性的技术特质亦与刑事正当程序相互冲突和抵牾,可能对社会结构和司法体系造成不可逆转的持续性损害。(2)Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136,No.9, 2020.
作为大数据和算法技术的结合体,人工智能在法律实践中的应用已经成为全面推进依法治国,建设法治国家、法治政府、法治社会以及实现国家治理体系和治理能力现代化的必要路径。2016年11月,在世界互联网大会智慧法院暨网络法治论坛上,我国最高人民法院院长周强提出:“推动人工智能技术在司法活动中的应用……通过推进深度学习、大数据算法等在审判执行工作中的深度应用,大力开发人工司法智能,为法官办案提供智能化服务。”(3)周强:《建设智慧法院 努力让人民群众在每一个司法案件中感受到公平正义》,2016-11-17,https://mp.weixin.qq.com/s/unJznriWfLJp6d0YaD7CTA,访问日期:2022-07-16。受到实践需求以及政策导向等因素的影响,预测警务、智慧检务和智慧法院建设是我国人工智能司法应用的重点发展领域,也逐渐成为现代化司法应用发展的新趋势。
一是,在侦查阶段,以预测警务为核心的犯罪风险防控机制成为各地警务工作的重要组成部分,从而实现对犯罪活动的高效、精准打击。例如,2013年江苏省苏州市公安机关已经积极探索运用大数据思维和方法研发犯罪预测系统。该系统学习了苏州市10年来发生的1300万条历史警情数据,记忆了包括居民收入水平、娱乐场所地点等7.8亿条数据,并且输入关于实有人口和特殊人群地理信息等382种相关变量数据,能够通过自主关联计算向基层民警推送重点巡防区域信息。(4)汤瑜:《大数据时代,“互联网+警务”升级社会治理模式》,2017-01-04,http://www.mzyfz.com/cms/benwangzhuanfang/xinwenzhongxin/zuixinbaodao/html/1040/2017-01-04/content-1243792.html,访问日期:2022-07-16。二是,在检察系统中,最高人民检察院提出的智慧检务建设重大战略主要在于推进智能辅助支持系统、案件管理应用系统、远程提讯系统以及监狱检察信息指挥系统等体系建设,为检察机关提出精准量刑建议、评估社会危险性等检察工作提供智能辅助,也能统筹优化检察机关“人、事、财、物、策”等各项管理事项,全面提升检察机关现代化管理水平。(5)李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期。三是,人工智能概念的引入对智慧法院建设起到积极的推动作用,其涉及司法管理和实际办案流程的智能化。针对大量审判数据的智能分类、提取、整合、分析,以及对相似数据的有效检索,人工智能为刑事审判中的法官认定事实和适用法律等决策提供资源推荐、案例研判以及实证分析等智能服务。2017年5月,由上海市高级人民法院牵头研发的代号“206”的上海刑事案件智能辅助办案系统是典型的智能应用软件。该系统集成了法律文书自动生成、电子卷宗移送、辅助庭审、类案推送、量刑参考等多项功能,大大地提高了法院办案质量和效率,节约了司法资源和成本。(6)崔亚东主编:《世界人工智能法治蓝皮书(2019年)》,上海人民出版社,2019年,第122-124页。此外,美国的COMPAS风险评估工具在大量刑事案件中通过预测再犯可能性来辅助法官量刑判决。该系统通过将犯罪参与作用、违反法规程度、暴力性质、犯罪牵连、毒品滥用、经济困难、职业或教育问题、社会环境、失业情况、固定住所、社会交往、认罪态度和犯罪人格等相关信息转化为数字进行评估,并给出一个再犯风险系数,法官可以据此决定犯罪人所应遭受的刑罚或是否允许保释。(7)Brennan, Tim, William Dietrich & Beate Ehret, “Evaluating the Predictive Validity of the Compas Risk and Needs Assessment System,” Criminal Justice and Behavior, Vol.36, No.1, 2009.
从上述信息技术的实践应用情况来看,以大数据分析为基础的犯罪风险预防机制不断扩张,并且影响后续刑事诉讼程序,而人工智能也开始深度介入社会危险性和再犯风险的评估和预测。对此,当从更为宏观的视野审视当下刑事诉讼制度正在经历的种种变化,审视数字技术引发的刑事司法权力格局变动以及传统和新型公民基本权利面临的技术冲击。(8)裴炜:《数字正当程序——网络时代的刑事诉讼》,中国法制出版社,2021年,第1页。
1.犯罪控制:自动化司法作为司法机关的“力量倍增器”
当下大数据、算法等信息技术在司法当中能够得到深度运用和迅速落地,尽管具有为当事人、诉讼参与人及社会公众提供便捷化、可及化诉讼服务的目标导向,但主要推动力还是在于新型技术手段在犯罪控制方面能够发挥令人惊叹的作用,尤其是针对利用新技术的网络犯罪。(9)张建伟:《司法的科技应用:两个维度的观察与分析》,《浙江工商大学学报》2021年第5期。具体表现在以下三个方面:一是自动化司法需要与具体的任务、应用场景结合,因而其中算法决策在设计时所嵌入的公共价值是单一的,即通常考虑的只是司法效率。例如,人工智能引导下的预测警务和人脸识别,能够通过挖掘、学习和分析疑难复杂犯罪信息,准确地锁定和追踪犯罪嫌疑人的身份,有利于提升案件的侦破率。二是刑事案件智能辅助决策系统作为人工智能司法应用的创新发展,通过制定公检法共同适用的证据标准和证据规则指引,实现公检法办理刑事案件网上运行、互联互通、数据共享,进一步强化公检法机关之间的相互配合,使得刑事案件办理更加流水线化,相应地提高刑事案件的办案效率。(10)李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期。三是借助大数据与算法的技术优势建立的案件管理系统和智能辅助支持系统,其中内设的法律文书自动生成、电子卷宗一键传送、类案推送、量刑参考等附加功能能够分担司法人员大量日常的事务性工作,极大地提升案件办理的质效。(11)卞建林:《人工智能时代我国刑事诉讼制度的机遇与挑战》,《江淮论坛》2020年第4期。
2.正当程序:自动化司法可能侵犯法律正当程序基本原则
人工智能能提升打击犯罪的司法效率,也能在一定程度上保障正当程序,如通过类案推送和量刑参考等功能实现同案同判、类案类判,有助于实现法律平等适用。但从刑事诉讼法的限权视角出发,刑事司法中过度关注技术赋能,在加强国家对社会的控制力的同时,也可能损害司法制度中嵌入的程序正义基本原则,侵犯宪法和刑事诉讼法允诺保障的公民基本权利。对此,大数据在助力犯罪风险评估从而优化刑事司法资源配置的同时,也产生与刑事正当程序的激烈冲突。比如犯罪治理提前启动、数据获取分析能力差距以及第三方介入参与,上述特征与无罪推定原则、控辩平等原则和权力专属原则之间产生矛盾。(12)裴炜:《个人信息大数据与刑事正当程序的冲突及其调和》,《法学研究》2018年第2期。而在司法实践中,美国COMPAS软件不仅在舆论上受到批评,在法庭上也受到挑战。在State v. Loomis一案中,被告人对威斯康星州使用来源封闭的风险评估软件作为判决其6年监禁刑的依据提出质疑,声称这一做法违反了美利坚合众国宪法第十四条修正案规定的正当法律程序条款。被告人Loomis针对量刑时法官使用COMPAS工具提出三点反对意见:第一,该软件侵犯了被告依据案件准确信息判刑的权利,因为COMPAS涉及商业秘密保护使得当事人无法评估其准确性;第二,侵犯了被告享有个性化判决的权利;第三,在量刑时审理法院将性别作为一项风险评估因素。(13)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).该案例也反映出以大数据和算法为代表的新型信息技术在介入刑事司法运行过程中,将对传统程序正义理论产生冲击。
新型信息技术在对刑事诉讼基本理念和价值带来冲击时,是否在一定程度上重新塑造我国刑事司法样态?在“技法冲突”情况下,传统程序正义理论又将遭遇哪些适用困境?而在当前弱人工智能时代,对于刑事诉讼程序的规制究竟是以技术为核心还是以人为本?作为部门法学的研究人员,我们应当秉持一种什么样的学术态度来重新调试数字化时代刑事程序正义理论?
大数据和算法共同构成人工智能发展的两大核心驱动力,其中大数据主要是指规模庞大的数据存量和数据来源,而算法则是指数据分析的指令、程序和步骤。从技术层面来看,将大数据和算法应用到司法场域,辅助司法决策,甚至在特定情况下可以直接依据人工智能做出司法决策,能够使得司法裁判机制获得处理海量信息的能力,有助于增强司法机关办案能力、提高司法效率。但是,大数据和算法本身存在的风险也将对传统程序正义理论产生技术性冲击。(14)郑飞主编:《中国人工智能法治发展报告(1978—2019)》,知识产权出版社,2020年,第126页。
在目前的法学研究当中,程序正义理论的基本要素尚未形成统一的认识。有论者认为,程序正义主要包括诉讼程序的公开性、裁判人员的中立性和独立性、当事人地位的平等性、诉讼过程的参与性、诉讼活动的合法性以及案件处理的正确性。(15)谭世贵主编:《刑事诉讼原理与改革》,法律出版社,2002年,第29-36页。也有论者认为,法律程序的设置应符合以下基本的程序公正要求:一是程序的参与性,二是裁判者的中立性,三是程序的对等性,四是程序的合理性,五是程序的及时性,六是程序的终结性。(16)陈瑞华:《刑事诉讼法》,北京大学出版社,2021年,第45-49页。基于此,本文从传统程序正义理论的诸多要素中提取出受自动化司法影响较为深刻的四大基本原则来予以深入探讨,即裁判中立原则、程序公开原则、程序对等原则和程序参与原则。
无论是人工决策程序还是算法决策程序,逻辑本身隐含着歧视的风险,在一定程度上,算法偏见是一个不可避免的问题。从人类文化偏见、算法本身的特性来分析大数据算法歧视的内涵,可以发现即便在技术层面上算法设计者没有将偏见植入大数据算法的主观意愿,但由于“GIGO 定律” (Garbage In,Garbage Out)、数据样本天然的权重差异以及大数据的扩展属性,大数据算法也存在偏见或歧视的必然性。(17)张玉宏、秦志光、肖乐:《大数据算法的歧视本质》,《自然辩证法研究》2017年第5期。而当人工智能技术引入司法裁判,受限于错案责任追究制的压力和趋利避害的本性,法官在利用刑事案件智能辅助决策系统来强化裁判结果的论证力时,毫无疑问会受到算法偏见的污染,对案件当事人形成偏见或预断,自然有违裁判者中立原则。(18)陈俊宇:《司法程序中的人工智能技术:现实风险、功能定位与规制措施》,《江汉论坛》2021年第11期。例如,在威斯康星州的Loomis案中,黑人被告主张使用算法作出的量刑判决违宪。尽管威斯康星州最高法院最后认定算法并未违宪,但却对该事件的法官进行了书面“警告”,要求其不能全盘接受人工智能的评估结果,而最多只能将其作为判断依据之一,并要求其意识到测评结果中可能包含错误和偏见。(19)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).
而对于算法偏见的具体成因,通过借鉴莱普利·普鲁诺(Lepri Bruno)的三分法,将算法歧视产生的根源概括为数据中预先就存有偏见、算法本身构成歧视和数据抽样偏差及其权重设置差异三个方面。(20)刘培、池忠军:《算法歧视的伦理反思》,《自然辩证法研究》2019年第10期。一是算法歧视是对人类社会中既有偏见的反映,即当下社会是充满偏见的,人工智能在学习和理解了社会现状之后,以此为基础进行人物侧写,将会把这些既存的偏见保存在算法之内。(21)福田雅树、林秀弥、成原慧:《AI联结的社会——人工智能网络化时代的伦理与法律》,社会科学文献出版社,2020年,第314页。例如,犯罪风险评估工具中存在种族差异的原因在于,不同种族之间的逮捕率是不相等的,而算法只是简单地重现了一种严重不平衡的社会现状。除非所有群体都具有相同的逮捕率,否则这种算法偏见就难以避免。(22)Fry, Hannah, Hello World: Being Human in the Age of Algorithms, New York: W.W. Norton &Company, 2018, p.69.二是算法本身构成一种歧视。因为算法分类是基于历史数据进行优先化排序、关联性选择和过滤性排除的,以此来对特定人员贴上数字标签,将其划入某一片区并与某一类概率性的群体关联起来,但这种分类所依据的要素可能并没有考虑到是否合法或者合乎道德,从而产生算法歧视。(23)Vries, K.D., “Identity, Profiling Algorithms and a World of Ambient Intelligence,” Ethics & Information Technology, Vol.12, No.1,2010.例如,一个评估再犯概率的算法可能会将种族或肤色作为再犯的评价指标,仅仅是因为训练样本中有较大比例是有色人种,因此在统计学上种族和肤色具有显著意义,但在司法决策时将种族作为保释、假释或者量刑的判断依据,显然会招致诸多批评。(24)Jon Kleinberg, et al., “Human Decisions and Machine Predictions,” The Quarterly Journal of Economics, Vol.133, No.1,2018.三是编程人员在设计算法过程中植入自己的偏见,或者算法实际控制者可能在输入数据时产生偏差或对不同因素的权重分配不当,导致产生相应的算法偏见或歧视。由于当前在法律知识图谱领域,机器学习主要还是采取监督学习的方法,即人工标记数据提供给机器,训练机器学习,告诉机器这些标签数据的含义(25)叶衍艳:《法律知识图谱的概念与建构》,载华宇元典法律人工智能研究院编著:《让法律人读懂人工智能》,法律出版社,2019年,第27页。,因而算法不可避免地融入程序编写人员的价值偏好。
“在人工智能系统输入的数据和其输出的结果之间,存在着人们无法洞悉的‘隐层’,这就是算法黑箱。”(26)徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,《东方法学》2019年第6期。算法黑箱与程序正义理论对司法决策的透明性要求明显不符,导致人们可能无法理解人工智能机器是如何得出结果的,无法确定当事人的论点是否得到公平考量,影响人们对刑事司法人工智能的认同感。即便抛开公平性不谈,算法决策程序缺乏透明度可能导致过度信任自动化司法结论的可靠性和科学性,从而产生“自动化偏见(Automation Bias)”,即人类具有一种认知倾向,就是会过于相信电脑自动作出的判断,并且囫囵吞枣地全盘接受这些判断。(27)Danielle Citron,“Fairness of Risk Scores in Criminal Sentencing,” 2016-07-13, http://www.forbes.com/sites/daniellecitron/2016/07/13/unfairness-of-risk-scores-in-criminal-sentencing/#6d8f934a4479, 访问日期:2022-07-17。
对于算法缺乏透明度的问题,可以归纳为主观不愿和客观不能公开两种情形。主观不愿公开算法决策程序主要是两方面原因:一是设计算法的公司从维护自己商业秘密的权利角度出发竭力掩盖其算法的内部逻辑。(28)Rebecca Wexler, “Life, Liberty, and Trade Secrets: Intellectual Property in the Criminal Justice System,” STAN. L. REV. , Vol.70, No.5,2018.例如,在威斯康星州的 Loomis案中,法官将COMPAS犯罪风险评估工具的算法看作商业秘密,从保护知识产权的角度出发来豁免算法拥有者公开算法代码和说明算法工作原理的义务。(29)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).二是从国家安全的角度考虑,为保证司法机关在算法决策程序当中的支配性地位,防止犯罪分子反向学习自动化决策系统,因而大多数刑事司法人工智能的算法是不对社会公开披露的。例如,在斯洛文尼亚,警方在所谓的“占领运动”期间创建了一个Twitter分析工具,用来追踪“嫌疑人”并进行情绪分析,而警方认为该分析活动属于“侦查战术和方法”,不允许公众访问。(30)Aleš Završnik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2021.但这种“黑箱”效应也在客观上增加了司法决策不公的风险,甚至加剧司法机关在算法上滥用权力的可能。而在我国,根据《中华人民共和国反不正当竞争法》《中华人民共和国政府信息公开条例》等规定,算法也通常被认为是受到法律保护的商业秘密或者国家秘密,因而刑事司法人工智能应用的算法黑箱问题依旧没有得到解决。(31)雷刚、喻少如:《算法正当程序:算法决策程序对正当程序的冲击与回应》,《电子政务》2021年第12期。
另一方面,从技术角度来看,即便法院将对所有人开放源代码和算法公式作为使用犯罪风险评估工具的先决条件,但连软件开放者或许都无法解释某些算法决策是如何做出的。例如,人工神经网络(ANN)的机器学习算法通过一个复杂的分层结构进行学习,其决策规则没有经过先验编程,通常对人类来说是无法理解的。(32)Liu, Han-Wei, Ching-Fu Lin & Yu-Jie Chen, “Beyond State v. Loomis: Artificial Intelligence, Government Algorithmization, and Accountability,” International Journal of Law and Information Technology, Vol.27, No.2,2019.相较于人工司法决策是根据法律、事实和经验来进行演绎推理,算法决策是依据大数据的相关性而非因果关系,因此无法提供理由说明。(33)张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,《社会科学文摘》2021年第2期。随着时间的推移,算法的机器学习难度将不断提高,使得法院更难评估每个因素与机器结论的相关程度,这可能违反法律面前人人平等和程序公开原则。
在自动化司法中,算法和大数据都在司法机关的完全控制之下,而司法机关通过运用刑事案件智能辅助系统来强化自身的数据获取和数据分析能力,加之披露义务和信息沟通规则缺位,加剧了司法机关与辩方之间的信息不对等。具体而言,一是在数据信息资源分配上,控辩之间存在“数字鸿沟”,即一方是有能力收集、储存、挖掘海量司法数据的政府机关和网络信息从业者等,另一方则是被收集数据的对象,仅享有受到严格限制的数据访问权利。(34)Mark. Andrejevic, “Big Data, Big Questions: The Big Data Divide,” International Journal of Communication, Vol.8, No.1,2014.缘于国家安全和个人信息保护的考量,立法将追诉犯罪活动中的相关信息和数据列入国家秘密,导致辩方向有关部门申请获取相关数据时遭遇数据准入障碍。相反,侦控机关能够通过政府部门共建的大数据综合一体化平台交换获取海量司法数据,也可以依法要求网络信息业者等私人机构协助执法,大幅度提升信息获取能力。(35)裴炜:《数字正当程序——网络时代的刑事诉讼》,中国法制出版社,2021年,第89页。二是即便控辩双方获取到同样的原始数据,但在数据应用方面双方依旧存在“数据分析鸿沟”。即面对海量司法数据,只有拥有相关基础设施和大数据分析技能的控方,才能从数据碎片中获取有价值的信息资源。(36)林曦、郭苏建:《算法不正义与大数据伦理》,《社会科学》2020年第8期。在2009年的Skilling案中,美国联邦法院认为政府可以通过向辩方开放对原始数据库的文件访问权限来履行证据开示义务而无须考虑文件数量庞大,因为被告能够像政府一样搜索文件。这种不考虑控辩双方数据分析能力差异的“文件倾倒”(document dump)行为,进一步加剧了控辩双方的实质不平等。(37)United States v. Skilling, 554 F.3d 529, 577 (5th Cir. 2009).
当公共法院系统越来越依赖刑事司法人工智能应用时,实体法院似乎在不断消亡中,未来实践中可能难以看到控辩双方在法庭上公开推进辩论、发表量刑意见和论点的过程,也无法使得当事人确信其所认真发表的观点得到法官充分的考量,则司法权威性和司法公信力也会相应地减弱。(38)Adrian Zuckerman, “Artificial Intelligence - Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review,Vol.136, No.9,2020.对此,可以从两方面来分析大数据算法可能恶化当事人参与诉讼程序的问题。从被追诉人的角度来看,当前的刑事案件智能辅助系统是由政府和私营网络信息企业共同合作设计完成的,即算法权力是由政府部门所垄断的,因而辩方无法了解人工智能应用的底层代码和算法逻辑,难以评价和质疑算法的准确性和偏差度,始终处于算法信息劣势的境地。事实上,算法自动化决策程序消解了诉讼程序中当事人陈述和申辩的环节,造成了程序参与原则的缺失。(39)张凌寒:《算法自动化决策与行政正当程序制度的冲突与调和》,《社会科学文摘》2021年第2期。而从司法机关的角度来看,犯罪预测工具、刑事案件智能辅助系统的引入和推广将加剧侦查人员形成有罪推定的判断,并且通过连锁反应传递到法官,使其形成未审先定的预断和偏见,则当事人通过参与诉讼来影响裁判的相关权利实质上受到损害。(40)李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期。
程序参与原则缺失的直接后果是导致司法裁判的可接受性明显下降。司法领域中决定当事人是否相信诉讼程序公正的因素主要有四项:一是审判人员在与当事人进行互动时是否尊重个人尊严,二是审判人员是否中立,三是审判人员是否值得信赖,四是当事人是否有机会参与诉讼程序。(41)Tom R. Tyler & Hulda Thorisdottir, “A Psychological Perspective on Compensation for Harm: Examining the September 11th Victim Compensation Fund,” DEPAUL L. REV. , Vol.53, No.2, 2003.但在人工智能司法当中,首先,理想状态下当事人可能并不是直接与司法机关人员进行交互,而是由计算机程序来确定量刑方案,导致当事人作为人的尊严价值事实上被消解了。其次,对大数据算法的主要批评之一是其可能强化司法系统中已经存在的偏见和歧视,并且算法的不透明和复杂性也导致当事人对计算机程序难以产生信任和认同。最后,如果当事人能够参与到诉讼过程中,并向裁判者表达自己的观点,那么其更有可能相信程序是合法、合理的,尤其是能够直接向法官讲述自己版本的故事,就更有可能认为诉讼程序是公平的,这通常被称为“过程控制”。在刑事司法系统中,由于被告人往往是由律师代理,很少在庭审程序中与审判人员进行直接交谈,因而在过程控制上本来表现不佳,而大数据算法进一步恶化了该问题。即在传统司法模式中,被告人在量刑时可以向法官做最后陈述,请求法官从轻判决,但在自动化司法中,被告人已经知道最终量刑判决实际上在庭审前已由计算机程序预测作出,其最后陈述并不是与真正的审判人员进行对话。(42)Alexandra Natapoff, “Speechless: The Silencing of Criminal Defendants,” N.Y.U.L. REV., Vol.80, No.5, 2005.人工智能司法决策可能导致机器法律与人类的正义观之间的鸿沟不断扩大,甚至司法机关也会开始失去公众的认同和支持。
在刑事司法中,人工智能、大数据分析和机器学习通过技术赋能有效提升司法机关的办案效率,但同时人工智能司法的迅速发展也引发关于技术与法治的激烈讨论,即现行的程序正义理论是否能够适应人工智能刑事司法。通过深入分析刑事司法人工智能应用实践和现实技术发展水平,可以发现人工智能对法律行业的影响才刚刚崭露头角,应当以弱人工智能为现实语境来探讨数字时代正当程序规制原理,才符合数字化刑事诉讼程序发展方向。
1956年,在美国达特茅斯会议首次提出人工智能的概念后,超强运算能力、大数据的出现和发展以及算法的持续改进,使得学术界在讨论人工智能司法时思维发散,以至于把合理的想象和预期变成当下的真实。(43)李则立:《人工智能全面进军法律界?先做好这三件事!》,载华宇元典法律人工智能研究院编著:《让法律人读懂人工智能》,法律出版社,2019年,第344页。
1.两种模式:强人工智能司法 VS 弱人工智能司法
根据人工智能所呈现的自主意识和能力的不同,可以将人工智能的发展阶段分为弱人工智能和强人工智能,即“机器能够智能地行动(其行动看起来如同它们是有智能的)”被称为弱人工智能假设,而“能够如此行事的机器确实是在思考(不只是模拟思考)”则被称为强人工智能假设。(44)罗素、诺维格:《人工智能——一种现代的方法》,殷建平、祝恩、刘越等译,清华大学出版社,2013年,第851页。强人工智能相比于前一阶段,能够通过程序算法获得自主意识,独立思考问题并制定解决问题的最优方案,也被称为人类级别的人工智能。(45)蒋佳妮、堵文瑜:《促进人工智能发展的法律与伦理规范》,科学技术文献出版社,2020年,第6页。事实上,令社会广泛担忧的机器人和人工智能属于强人工智能,但到目前为止人工智能技术尚未出现“奇点” (Singularity)突破和爆发,因而人工智能的语义理解能力和识别人类情感能力尚落后于人类。(46)王莹:《人工智能法律基础》,西安交通大学出版社,2021年,第24页。
在此前提下,判断刑事司法人工智能应用实践情况究竟是强人工智能司法还是弱人工智能司法,其核心依据是“法官是否已经能被人工智能所取代”。对于人工智能司法应用的定位,学界主要存在“智能替代说”和“有限智能说”两种观点。前者认为人工智能的本质是对人的意识与思维的信息过程的模拟,随着技术的发展,人工智能会实现“替代法官实现非规范判断”直至最终“代替法官直接作出裁判”。(47)黄京平:《刑事司法人工智能的负面清单》,《探索与争鸣》2017年第10期。而后者认为在人工智能适用于司法的过程中,容易出现海量数据的残缺性悖论;同时,算法的“程序刚性”和“不透明性”与司法实践的“复杂性”和审判程序的“公开性”相冲突。以毫无节制的“人工智能+”方式改造审判空间后,法官定位势必发生极大的动摇,甚至造成审判系统乃至司法权的全面解构,(48)季卫东:《人工智能时代的司法权之变》,《东方法学》2018年第1期。因此人工智能目前被定位为“法官办案辅助工具”(49)潘庸鲁:《人工智能介入司法领域的价值与定位》,《探索与争鸣》2017年第10期。。而从司法实践情况来看,目前广泛应用的人工智能司法产品大多是将通用化的技术移植到部分司法活动中,但对于疑难案件的事实认定、证据的证明力评价和法律解释等司法问题依旧难以通过人工智能来解决,还需要将法律知识、经验逻辑、裁量理性等非形式因素与人工智能进行深度融合。
2.实践分析:以人为本的刑事司法人工智能应用场景
认知科学家玛格丽特·博登(Margaret Boden)区分了三种不同类型的创造力:一是基本创造力,主要处于探索可能性的边缘,其占创造力的97%且适合用于日常计算;二是混合不同概念构造而组成的创造力(如曲线美的建筑),可能由人工智能来执行;三是变革性创造力,包括自行改变游戏规则,比如毕加索的立体主义画作。(50)Margaret A. Boden, AI: Its Nature and Future , Oxford: Oxford University Press, 2016, pp.68-72.在强人工智能时代,智能体系是由感知、记忆、决定和行动等子系统构建而成的,而且可以自主开发概念和获得技能,与人类最初的数据输入和算法设计只存在微弱的关联。此时以人类思维为基础的程序正义理论对于强人工智能司法而言将毫无参考意义,因为人工智能具有人类难以企及的信息收集、分析和判断能力,而人类的认知能力难以揭示、解释机器学习和算法决策的内部逻辑。那么,法律诉讼的参与者将被视为纠纷根源,AI技术则被视为超越人类的问题解决方案。这种基于人工智能的超人类主义可以将所有的现实都简化为数据,得出“人类不过是信息处理对象”的结论。(51)Sarah Spiekermann, Peter Hampson, Charles Ess, et al., “The Ghost of Transhumanism & the Sentience of Existence,” 2017-07-19, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3617635, 访问日期:2022-11-09。
但在弱人工智能时代,大数据和算法技术应用于刑事司法当中并没有降低人的主体性地位。具体表现为以下四个方面:一是在编程目标上,当下的自动化司法决策的算法设计和编程都是为了追求特定的任务,不具有一般人类智能水平。换而言之,人工智能仍然以任务为导向,它作为技术工具,是为人类设定的特定目标和具体的对象而设计的,而不是正常地思考、判断和行动。(52)Turner, Jacob , Robot Rules: Regulating Artificial Intelligence, London: Palgrave Macmillan, 2019, pp.6-7.二是在算法逻辑方面,采用深度学习的人工智能是通过提取海量数据中的特征点来形成预测函数模型,并且随着数据量的增大不断试错来调整模型参数。(53)刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》2020年第5期。但在司法实践中,即使有极其微小概率的司法错误也会造成社会秩序混乱,所以需要由人类对自动化司法全过程进行持续监督和检查。三是在训练策略上,刑事司法人工智能应用是以监督学习为主,即人工标记训练数据提供给机器,机器再根据人工标签数据进行学习和预测。编译数据库和创建用于预测的算法都需要由人类做出判断,涉及开发人员和管理人员的决策行为,因而可能出现输入数据时存在偏差或者编译代码时植入偏见的错误。四是在自然语言处理上,从原则上讲,机器可以执行自然语言处理,但其目前尚未完全理解和掌握自然语言。语言按照复杂性可以分为语法、语义和语用三个组成部分,其中语法决定语句的结构,语义关注语句的意义、词语之间的关系以及所代表的含义,而语用学关注上下文之间的关系和意义。目前计算机科学已经整理了语法,在语义学方面也取得了长足的进步,但要完全掌握语用学还需要较长时间。(54)Brian Sheppard, “Incomplete Innovation and the Premature Disruption of Legal Services,” Mich. St. L. Rev., Vol.2015, No.5,2016.尤其是现有法律语言存在模糊性,不同学者对法律概念的内涵和外延认知有差别,对某一法律问题的理解可能在法律职业共同体内部有多种解释。法律术语和法律解释的标准化难题无疑使得司法领域中大部分难题仍然需要由人类来处理。
结合人工智能司法应用实践情况,为构建专门针对刑事司法人工智能的规制机制,需要注意以下三点:一是规制对象主要是国家专门机关与被追诉人之间的权力(利)义务关系,大数据和算法只是国家机关延伸其能力的一种工具,而刑事司法中公民所享有的不受国家专门机关任意侵犯的消极权利和获得司法机关司法救济的诉讼权利都应当得到保障;二是规制依据依旧是程序正义理论当中关于中立性、公开性、对等性和参与性的法治原理,但需要考虑大数据和算法的使用不仅仅是提高国家机关的司法效率,还需要获得公民对于诉讼程序的认同;三是规制重点并非大数据和算法技术本身,而是背后人的意志及其行为。正如杰克·巴尔金所言,“在算法社会,规制的核心问题不是算法,而是使用算法的人及允许自己被算法支配的人。算法治理是由人使用特定的分析和决策技术对人进行治理。”(55)杰克·巴尔金:《算法社会中的三大法则》,刘颖、陈瑶瑶译,《法治现代化研究》2021年第2期。
那么,为什么要在刑事司法人工智能应用中坚持程序正义理论?在数字化时代刑事诉讼中,实现程序正义的基本要求,究竟可以产生哪些积极效果?从政策角度来看,党的十八大以来,习近平总书记多次强调要推动大数据、人工智能等科技创新成果同司法工作深度融合,同时也要求让人民群众在每一个司法案件中感受到公平正义。在人工智能司法中贯彻程序正义是改革方向。而从理论角度来看,可以从尊严理论、司法公信力理论以及分布式道德责任理论的角度做出解释。
1.尊严理论
在现代社会,我们每个人的个性和特征受到尊重,这一点与《中华人民共和国宪法》中被定位为“基本原则”的尊重和保障人权原则相符合。但在人工智能刑事司法当中,过度关注技术赋能、大数据算法黑箱和算法歧视以及严格司法的特点都可能会侵蚀这一原则。
第一,立法者、执法者和利益集团推动人工智能刑事司法的动机往往是对司法效率和司法精确性的追求,但狭隘地为了侦查犯罪、判定有罪和惩罚罪犯而追求智能司法可能威胁到尊严价值。(56)安德烈亚·罗思:《论机器在刑事审判中的应用》,载赵万一、侯东德主编:《AI法律的人工智能时代》,法律出版社,2020年,第204-205页。正如前述内容,执法部门已经开始运用预测性警务工具来破除立案程序的限制,并监督和约束不确定群体和个人,具有侵犯隐私和损害人的主体性的特殊风险。比如,“9·11”事件后德国立法机关根据已知恐怖分子的个人心理状态等相关信息,创造出“恐怖分子潜伏者”的概念。这种国家大范围监控的预测性算法根据与犯罪关联并不紧密的精神状态等因素,对信仰伊斯兰教的人员进行提前筛选,并将未被公开的穆斯林原教旨主义人员定位为“恐怖分子潜伏者”,推断出其未来可能发生的犯罪行为。(57)Aleš Završnik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5, 2019.这种拉网式调查的预防性筛查行为事关公民的隐私和尊严,若只是从经济合理性和效率性出发考虑,则会导致在实践中脱离刑事诉讼程序的严格规制,使得侦查机关实际上处于一种恣意滥权的状态。对此,需要通过贯彻程序正义理论来重新考虑数据和算法资源的分配正义问题,通过抑制公权力机关的恣意行为,加强诉讼中的人权保障,来为刑事司法中的个体提供平等参与诉讼的机会。
第二,人工智能司法中的算法偏见、算法黑箱等问题加剧侵蚀个人的尊严自主空间。具体而言,犯罪风险评估工具可能列入虚假相关性作为犯罪风险预测评估的基础,并且将现实中已经存在的偏见和错误认识混入算法,导致预测的准确度下降,得出对被告人不利的风险评估结果。如果社会中的某些群体更有可能因为种族或居住的社区而被定罪,那么将前科或家庭住址作为决定刑期长短的关键因素的量刑算法将加剧现有的不平等。(58)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2, 2018.此外,算法黑箱会导致被评价对象无法预测对自己的评价结果,无法有意识地自主选择和改变自身的不当行为,这相当于变相地剥夺被告人的自我改造机会。以Loomis案为例,被告主张做出再犯风险评估的智能系统无法保证准确性也不具备验证可能性,侵害了其受宪法保障的正当法律程序权利。由此也会产生诸多问题,比如算法黑箱导致无法说明做出此种预测结果的理由;相关评价只是预测具有类似属性人员实施再犯的一般可能性,而非预测被告人实施再犯的具体可能性;该系统还存在着种族歧视倾向,即将黑人再犯的风险可能性估算为白人的两倍。(59)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).对此,在人工智能司法中贯彻程序正义理论,要求法官不能将犯罪风险评估结果作为最终评价结论,而需要在程序上批评性地斟酌AI所做的预测评价,秉持客观态度、冷静地侧耳倾听被告人自身所言的故事,对被告人说明裁判的理由,以及赋予当事人对相关预测评估提出异议的权利,如此才能防止系统对个人做出概括性评价所导致的算法不公。
第三,即便能够排除算法偏见和算法黑箱,追求内部一致性和预测有效性的自动化司法也可能侵犯人的尊严和主体性。一方面,刑事司法中法律文本并不能完全体现正义,需要一定程度的自由裁量权作为法律体系的必要补充部分,尤其是法官在缓和刑事处罚和个别化处遇方面能够发挥重要作用。
但自动化司法是较为固定地应用法律规则,因为软件预先确定了一组事实对应的法律后果。(60)James Grimmelmann, “Note, Regulation by Softiware,” The Yale Law Journal, Vol.114, No.7,2005.而随着时间的推移,为克服裁判的不确定性,法官越发依赖通过咨询人工智能来帮助他们做出决策,则算法将可能成为法律,甚至有效地取代法官。(61)⑥⑧Adrian Zuckerman, “Artificial Intelligence-Implications for the Legal Profession, Adversarial Process and Rule of Law,” Law Quarterly Review, Vol.136, No.9,2020.这将削弱法官的自主性和尊严,使得法官沦为真正意义上的“橡皮图章”和“自动售货机”。另一方面,对于被告人而言,过度自动化的司法模式对于司法自由裁量权的限制可能导致其在庭审之前就已经被判处刑罚。被告人所提出的证据、事实和主张无法在法庭上由法官进行慎重地分析、考量和论证,也对裁判结果无法产生有效的影响力。被告人最终沦为人工智能任意摆弄和处置的诉讼客体,而非独立的权利主体。毕竟法官不是“黑箱”,他必须在公开法庭上将事实调查结果记录在案和听取控辩双方意见,并受上诉法院审查。
当然,也有反对意见认为,若是能够尽可能详尽输入关于被追诉人的相关数据,则特征点就会相当细微,所得出的预测结果更加接近于被追诉人的现实状态,也更加准确和公正,这似乎是将被追诉人作为个人来尊重。(62)山本龙彦:《机器人、AI剥夺了人的尊严吗?》,弥永真生、宍户常寿主编:《人工智能与法律的对话3》,郭美蓉、李鲜花、郑超等译,上海人民出版社,2021年,第78页。但以提高预测精度为目的来增加输入数据,则可能与隐私权保护之间产生紧张关系,甚至过于精细的AI人物侧写会追溯和记忆关于被告人犯罪前科的相关信息,陷入“数字污名”困境,与尊重个人原则相互冲突,危害其重新获得的社会生活的平稳性。(63)山本龙彦:《AI与“尊重个人”》,福田雅树、林秀弥、成原慧主编:《AI联结的社会——人工智能网络化时代的伦理与法律》,宋爱译,社会科学文献出版社,2020年,第320-321页。因此,程序正义理论要求合理限制AI获取数据的整全性,将其从特权地位驱赶下来,由中立的裁判者通过综合考量和自由裁量来最终量刑,以确保人们获得主体性。
2.司法公信力理论
程序正义理论可以通过两种方式建构司法公信力:一是参与者感觉到与决策者有个人联系,比如参与者与决策者来自于同一群体;二是决策者详细解释了其做出的决定。(64)Tom R. Tyler & E. Allan Lind, “A Relational Model of Authority in Groups,” Advances in Experimental Social Psychology, Vol.25, No.1, 1992.在第一种情况下,之所以人们相信法院裁判的道德权威,是因为法官和当事人都共同分享着一般理性和常识推理,当事人也熟悉行使司法自由裁量权的法官主观上的信仰、感情、抱负、忠诚、社会观等道德观念。⑥但就人工智能司法决策而言,其可能很好地反映了法律的逻辑推理,但目前为止无法理解和执行任何道德判断,所作出的判决不一定能反映当事人的期望,难以促使公民对司法裁判形成制度上的信任。正如威尔莫特·史密斯所言,人们关心的不是法律的权威,而是法律机构的权威。(65)F. Wilmot-Smith, Equal Justice, Cambridge, Massachusetts: Harvard University Press, 2019, p.1.在第二种情形中,在法庭上对相关利害问题进行辩论时,律师不仅仅发表抽象的专业意见和提供独立代理,也会倾听当事人的意见和理解其主观感受、情绪反应,因而能够提供相应的情感支持,最关键是能向法官传达当事人复杂的主观立场。而法官也能够与诉讼当事人进行沟通,在作出判决时说明理由,从而巩固法庭的合法性以及裁判的公信力。但是人工智能缺乏第一人称的主观视角,其算法不透明和难以理解,无法形成由正义司法官、公开的法律程序所构成的庭审权威图景。⑧因此,根据自然公正(Natural Justice)的核心原则,任何一个案件都需要用充分的理由解答其决策逻辑。相应地,通过确保自动化司法决策具有一定的透明度,或者由特定领域的专家来解释数据的输入和输出,能够使得所有诉讼参与者充分了解算法决策的前因后果,消除算法黑箱下隐藏的程序不正义,提升最终量刑裁判的司法公信力。
3.分布式道德责任理论
正如福柯所言,现代社会的秩序主要不是由国王或国家权力维持的,而是由遍布社会的类似毛细血管的权力维持的,其权力结构并非中心式的集权统治,而是由分布在社会基层人际关系中的各种微观权力组成。(66)米歇尔·福柯:《规训与惩罚(修订译本)》,刘北成、杨远婴译,生活·读书·新知三联书店,2019年,第230-231页。同理,在数字化时代下,在一个代理系统中,道德行动是由道德中立或者至少道德上可以忽略的人、机器或者杂合体等多个代理间的交互行为产生的。比如数据画像是数据生成者、数据采集者、数据分析者、数据使用者、数据拥有者以及数据平台等多个主体的交互行动聚合而成,才能对单独个体的行动轨迹、行为模式、偏好等进行数据画像。此时出现错误或不法时,需要对分布式行动的道德责任进行厘清。(67)闫宏秀:《数据时代的道德责任解析:从信任到结构》,《探索与争鸣》2022年第4期。而在数字技术嵌入刑事司法活动后,由人类和机器混合做出司法决策将成为司法常态。当发生错误决策时,则涉及司法机关、数据提供人员、开发设计人员、系统维护人员、系统部署者以及软件使用者等多个主体的责任链条分配问题。(68)张凌寒:《智慧司法中技术依赖的隐忧及应对》,《法制与社会发展》2022年第4期。此外,由于自动化司法决策系统的随机性以及算法运行过程的复杂性和不透明,司法人员无法有效审核评估大数据算法的合理性,但又受制于司法追责压力,则可能在越发借助和依赖人工智能司法决策的同时,将错案责任推卸给机器。(69)高童非:《数字时代司法责任伦理之守正》,《法制与社会发展》2022年第1期。对此,为避免产生阻碍技术发展的数字化道德责任分配困境,在技术上需要实现决策程序全过程留痕,同时有必要依据程序正义理论来为决策错误追责设定一个合理的阈值,在必要时才能将刑事司法人工智能应用系统的研发者、设计者、维护者和部署者纳入追责体系当中,避免将人类自身的决策错误推卸到智能技术身上。
传统程序正义理论在提出时并未考虑到人工智能技术在司法领域当中的广泛运用,因而针对算法歧视、算法黑箱、数据偏差等自动化司法决策程序出现的问题往往无能为力,导致程序正义理论中强调的中立、公开、对等、参与等核心要素都受到一定程度的侵蚀。但值得庆幸的是,弱人工智能时代的智能司法的价值选择是在坚持以人为本的基础上尽可能发挥人工智能的功能,因而程序正义理论依旧是规制刑事司法中大数据和算法技术的核心理念。“人工智能法律规则应坚持以人为本,发挥技术的正价值,规避技术的负价值,秉持人工智能局部替代人类、整体增强人类的价值理念。”(70)于海防:《人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间》,《法学》2019年第6期。
对此,2007年,希特伦教授提出了“技术性正当程序”(Technological Due Process)的概念,在坚守正当程序关于中立性、公开性、对等性和参与性的司法理念的同时,也要求兼容发展技术理性以助力技术创新,因而强调通过优化设计提高自动化决策程序的公平、透明和可问责性。(71)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.尽管“技术性正当程序”一词往往适用于自动化行政程序当中,但其在刑事诉讼当中也具有一定的适配性,因为两者实际上都是借助于对个人权利的严格保护来实现程序正义。而下文将进一步围绕“技法兼容”的思路来探讨刑事司法中技术性正当程序的基本内涵。
算法黑箱和算法偏见是威胁裁判中立原则和程序公开原则的两大风险要素,其中算法黑箱有可能导致算法偏见,但算法偏见也可能来自算法开发者及其开发过程。整体而言,算法黑箱与算法偏见都是刑事司法人工智能应用中需要认真对待的重要风险。2019年6月,我国新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八条原则。其中,第二项“公平公正”原则要求在数据获取、算法设计、技术开发、产品研发和应用过程中消除偏见和歧视,第五项“安全可控”原则要求人工智能系统应不断提升透明性、可解释性、可靠性、可控性。对此,排除算法偏见和确立算法透明原则是技术性正当程序的应有之义。
1.排除算法偏见
算法偏见的具体成因包括数据中预先就存有偏见、算法本身构成一种歧视、数据抽样偏差及其权重设置差异等,导致的直接后果是平等权保护危机。对此,依据算法偏见形成的不同阶段,在数据收集、算法设计以及应用阶段应当采取不同的规制措施来抑制算法偏见问题。一是在数据收集阶段,机器学习算法是根据其训练中使用的历史数据进行预测操作的,可能由于司法数据的体量和质量缺陷,影响人工智能司法应用的精准性与普适性。对此,需要司法机关打破内部信息壁垒,实现司法数据共享,由适合对各司法机关进行统筹引导的部门牵头完善跨区域、跨部门的统一司法数据库建设。(72)程凡卿:《我国司法人工智能建设的问题与应对》,《东方法学》2018年第3期。二是在算法设计阶段,实践中人工智能司法应用是由司法机关联合技术公司共同研发的。为防止在算法编码过程中植入设计者的偏见或者转化既存的社会偏见,司法机关应当向编程人员详细阐释模型设计整体意图和价值取向,排除经济文化社会中不公正的偏见进入到决策程序的可能性。三是在软件应用阶段,应当对最终决策的公安司法机关人员进行风险提示和警告,要求其认识到算法可能混入错误和偏见,因而需要批判性地考量智能司法应用所做的预测评价。在Loomis案中,威斯康星州最高法院从宪法上正当程序的角度出发,书面警示法官COMPAS所作预测评估存在不完整性,比如其中算法考虑的诸多要素因为知识产权保护无法得到公开,评估工具只以威斯康星州的人口构成为前提的调查(未交叉验证)以及将少数族群归类为再犯风险更高人员的歧视行为,因而需要法官秉持怀疑态度来审视预测结果,不能将其作为最终评价。(73)State v. Loomis, 881 N.W.2d 749 (Wis. 2016).但这些告知和提醒公安司法人员的程序性保障措施,通常是无效手段,因为忽略了相关人员的评估能力、盲从心态以及职业压力。对此,需要结合算法透明原则,要求算法设计者或维护者告知机器预测结果的逻辑关系和正当理由,确保公安司法人员有能力进行审查和评估。
2.算法透明原则
算法黑箱问题既可能是基于保护商业秘密和国家安全的人为因素,也可能是因为大数据算法的复杂性。在刑事司法中确立算法透明原则需要做到两点:一是通过算法公开来揭示人工智能司法的运作原理来确保决策具有可监督性,二是要完整记录算法运行过程中所依据的事实和规则来确保决策具有可追溯性。对于前者,学界当前存在关于算法公开方式的争议,即“完全公开说”和“限制公开说”。“完全公开说”认为任何用于司法或执法的基本算法都应该是公开的,算法运算的“商业秘密”不能对抗公共利益,政府应当重视公共领域中算法的透明度,通过立法要求相关主体公开源代码,使其接受公众监督。(74)李婕:《垄断抑或公开:算法规制的法经济学分析》,《理论视野》2019年第1期。“部分公开说”则认为公开底层数据和代码既不可行,也无必要。一方面,从技术角度的层面来看,算法和数据在大多数人看来都是宛如“天书”的错乱代码,要求强制公开所能发挥的公众监督作用非常有限;(75)刘东亮:《技术性正当程序:人工智能时代程序法和算法的双重变奏》,《比较法研究》2020年第5期。另一方面,依据比例原则,算法设计人员和维护人员向公安司法人员和当事人公开披露系统算法和数据代码,可能威胁到我国的数据安全和信息保护。而在刑事司法系统中,公检法机关人员和当事人并不需要对算法的底层代码有深刻的理解,只需要知道算法使用的因素、权重分配以及算法结果的历史准确性,而这些信息对于技术部门而言较为容易提供。(76)Ric Simmons, “Quantifying Criminal Procedure: How to Unlock the Potential of Big Data in Our Criminal Justice System,” Michigan State Law Review, No.4, 2017.因此,在其他法律领域确立保障商业秘密和国家安全的适当举措后,制作预测警务和风险评估软件的公司应当生成并保留一段时间内的输入数据和输出结果以及犯罪预测因素,同时赋予外部各方受控的、有限的访问权限,保障被告人在诉讼中不因种族、性别、收入等因素而受到歧视。此外,自动化司法应当生成审计追踪记录,用于后续说明支持其决策的事实和规则,但由于涉及算法决策程序的过程控制,将在下文详细论述。
程序正义理论的基本要求是受裁判直接影响的人员能够获得平等参与审判过程的机会,从而对裁判结果的形成发挥有效的影响。但在自动化司法决策程序当中,由于算法和数据被国家机关垄断,被追诉人受制于技术壁垒和数据获取分析能力有限,司法实践中辩方可能没有机会和能力在诉讼活动中对决策结果进行质证、反驳和发表辩论意见。对此,为保障辩方充分参与自动化司法决策过程,需要构建和完善以算法审计为核心的过程控制机制,为被追诉人对算法逻辑和预测结果表达自我见解提供前提要件,同时也需要公检法机关在诉讼过程中履行向辩方说明依据智能辅助系统做出决策的正当理由,听取辩方的反馈意见并及时进行合理解释。
1.以算法审计为核心的过程控制机制
“算法审计”和“算法透明”都是对算法黑箱所引发的潜在问题的回应。但与全面公开人工智能源代码不同,算法审计是由可控的、非特定专业专家小组来执行监督,对不当的决策规则进行干预和纠正,而不会向公众全面披露代码和其他专有信息。(77)Susskind, Jamie, Future Politics: Living Together in a World Transformed by Tech, Oxford: Oxford University Press, 2018, p.355.算法审计机制主要分为审计追踪和专家审计两个关键步骤,前者要求软件开发人员创建一种溯源技术,用于记录支持算法决策的事实和规则,即在每次运行算法时对非特定被告人数据、特定被告人数据以及合并前两类数据以产生评估的具体运算逻辑过程进行存档,详细说明系统所做的每一个关键决策中所应用的实际规则。这为之后对算法决策进行正当性分析和技术推理提供可能性,也有助于公检法机构向当事人说明裁判理由,明确利用自动化司法系统对其重要权利做出决策的缘由。(78)Danielle Keats CitronI, “Technological Due Process,” Washington University Law Review, Vol.85, No.6,2008.此外,审计追踪制度的建立能够覆盖软件编程设计、实施和应用整个流程中所有人员的行为活动,为所有涉及的角色构建一个完整连续的责任链条,以便于对算法决策全流程进行持续监督和检查。(79)雷刚、喻少如:《算法正当程序:算法决策程序对正当程序的冲击与回应》,《电子政务》2021年第12期。而在专家审计阶段,考虑到被追诉人和律师的技术分析能力有限,则可以结合我国《刑事诉讼法》第一百九十七条规定的专家辅助人制度,将辩方聘请的具有专门知识的人列入算法审计专家小组当中。公检法机关应当在庭审之前组织专家小组对人工智能司法系统进行评估和审核,而专家小组对决策系统的准确性和偏差值所发表的意见应当随案移送并允许辩方进行查阅、摘抄和复制。同时,参与算法审计的辩方专家可以在庭审时就相关技术问题作出说明,以便控辩审三方更为有效地理解自动化司法决策结果的价值和限度。
2.权利保障的两个关键:说明理由和听取意见
人工智能介入刑事司法的最大危机是在不断消解当事人参与诉讼的行动空间、影响范围以及救济渠道,导致被追诉人所享有的知情权、参与权、异议权以及救济权处于名存实亡的境地,从而动摇司法裁判的公信力和实效性。对此,应当明确技术融入司法活动当中不能只是强化国家机关侦查、控诉和定罪的能力,而是应当通过技术来进一步保障被告人依法享有的诉讼权利,调试控辩不平衡问题。简而言之,一方面,公检法机关在使用预测警务软件和犯罪风险评估工具时,应当根据具体的案件情况,在明确清楚自动化司法决策是可能出错的前提下,向被追诉人及其辩护律师详细说明作出决策时所依赖的计算机生成的事实或法律调查结果。我国《个人信息保护法》第二十四条第三款也规定,“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”只有算法决策对受影响的当事人来说是透明和可理解的,算法才显得可信。(80)Ric Simmons, “Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System,” Ohio State Journal of Criminal Law, Vol.15, No.2,2018.
但公检法机关在说明决策理由时,应当明确以下两点:一是注重说明理由的重点内容在于生成特定决策结果的算法逻辑,而非对于算法决策系统的设计、数据、逻辑等进行宽泛解释。(81)周尚君、罗有成:《数字正义论:理论内涵与实践机制》,《社会科学》2022年第6期。因为对于公安司法人员而言,其并不擅长对智能司法系统的底层代码和算法模型进行技术性解释,而是应当结合具体适用场景以一种可理解的方式来阐释决策结果的依据。《关于加强互联网信息服务算法综合治理的指导意见》第十三条也规定做好算法结果解释,消除社会疑虑,推动算法健康发展。二是针对法院系统由于司法鉴定制度改革导致内部缺乏专业技术人员的难题,可以借鉴知识产权诉讼的技术调查官制度,在特定刑事案件当中引入辅助法官的技术专家人员。在法官审理特定刑事案件遇到难以理解的技术问题时,技术调查官可以运用专业技术知识为法官答疑解惑,协助法官斟酌评估和详细说明自动化决策的合法性和合理性,并依法做出裁判。(82)杨秀清:《我国知识产权诉讼中技术调查官制度的完善》,《法商研究》2020年第6期。
此外,依据我国《刑事诉讼法》第八十八条、第一百六十一条、第一百八十七条以及第一百九十五条等相关规定,公检法机关在审查逮捕、侦查终结前、审查起诉、庭前会议以及审判过程中都应当听取当事人及其辩护人的意见。而2016年欧洲议会及欧盟理事会发布的《欧盟一般数据保护条例》第二十二条第三款规定,“数据控制者应当实施适当的措施保护数据主体的权利、自由和合法利益,至少获得对控制者部分的人为干预权,表达数据主体的观点和同意决策的权利。”(83)中国信息通信研究院互联网法律研究中心、京东法律研究院主编:《欧盟数据保护法规汇编》,中国法制出版社,2019年,第71页。对此,刑事案件中只要公检法根据AI的预测结果来进行决策,对当事人的权利产生法律影响的,都应当积极听取当事人及其辩护人对自动化司法决策结果的意见;若被追诉人对决策结果持有反对意见,认为公安机关、人民检察院、人民法院及其工作人员不当使用或过度依赖智能司法系统,阻碍其依法行使诉讼权利的,可以向该机关或者其上一级机关投诉,也可以向同级或者上一级人民检察院申诉或者控告。
没有制裁则没有义务。当人工智能司法工作发生错误时,原有的归责制度没有考虑到算法决策或人机协同决策的情况,无法妥善解决现有的分布式道德责任分配问题,因而有必要建立相应的算法问责机制,来防止智能司法系统出现监管缺位和权力滥用的风险。对此,可以从以下两个角度出发来完善算法问责机制:一是以保护当事人权利为优先确立公安司法人员优位追责原则。因为在刑事司法当中,公安司法人员与当事人的利益联系最为紧密,对于被告人诉讼权利的侵害也最为直接,同时公安司法人员在使用人工智能时还负有监督审核并在第一时间进行问题矫正的义务。(84)程凡卿:《我国司法人工智能建设的问题与应对》,《东方法学》2018年第3期。此外,为鼓励信息技术的创新发展和新技术在司法领域中的深化运用,应当明确只有算法决策程序出现系统性、结构性错误时,才可以对技术人员进行追责,原则上不能将司法工作错误无正当理由推卸给算法设计者、开发者或者维护者。(85)高童非:《数字时代司法责任伦理之守正》,《法制与社会发展》2022年第1期。二是在追责前应当明确技术人员的配合司法义务。对于设计和搭建智能司法系统的技术人员而言,无论是软件开发者、系统架构师还是应用维护人员,也不管是出于善意还是出于恶意,其都应当严格执行公安司法机关告知的设计需求和目标,不得嵌入影响用户权利义务的非正式规则,即不得让编程变成立法。(86)理查德·萨斯坎德:《线上法院与未来司法》,何广越译,北京大学出版社,2021年,第162-163页。尤其是当事人的诉讼权利是通过民主的立法过程在我国《宪法》和《刑事诉讼法》中予以明确规定的,这种立法过程提炼了特定时期社会的公共利益和主流价值观,不得降级为计算机科学专家们在实验室中的编程工作。(87)Aleš Završnik, “Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings,” European Journal of Criminology, Vol.18, No.5,2019.此外,上文提及的技术人员构建审计追踪机制以及协助使用者解释算法和说明理由的配合义务,可以由最高人民法院、最高人民检察院、公安部联合相关技术监管部门共同出台规范性文件来统一规定研发标准和法律责任。