| 37 | 0 | 20 |
| 下载次数 | 被引频次 | 阅读次数 |
在数字时代背景下,预测性算法逐步应用于刑事诉讼领域,其所伴生的权利风险亟需应对。预测性算法的不当使用存在人权侵害的现实可能性,难以契合《世界人权宣言》《公民权利及政治权利国际公约》等国际人权法的基本精神。具体而言,预测性算法易导致法官基于先入为主的风险预判作出不公正裁决;控辩格局因控辩双方在算法资源与能力上的不对称而失衡,被告权利难以保障;算法运行机制与无罪推定原则之间存在内在张力,自动化决策亦可能削弱被告的知情权与诉讼参与权。为防范上述权利风险,应合理规范预测性算法应用,坚守司法公正与权利保障底线;通过严格设定预测性算法准入条件,建立算法解释与思考路径追踪机制,并构建以审判为中心的控辩平衡制度,始终把预测性算法限定于辅助性、从属性的地位。
Abstract:Against the backdrop of the digital era, predictive algorithms have been increasingly applied in criminal proceedings, giving rise to rights-related risks that urgently call for regulatory responses. The improper use of predictive algorithms entails tangible infringements on human rights, and does not reconcile with the fundamental principles of international human rights law, as embodied in the Universal Declaration of Human Rights and the International Covenant on Civil and Political Rights. Specifically, predictive algorithms may lead judges to render unjust decisions based on preconceived risk assessments, and exacerbate imbalances between the prosecution and the defense due to asymmetries in algorithmic resources and capabilities, thereby undermining the effective protection of defendants' rights. Besides, it may generate inherent tensions with the presumption of innocence, while automated decision-making may further weaken defendants' rights to information and meaningful participation in proceedings. To mitigate these risks, it is necessary to regulate the use of predictive algorithms in a prudent and principled manner by upholding the baseline of judicial fairness and rights protection. This requires imposing strict admission criteria for predictive algorithms, establishing mechanisms for algorithmic explainability and traceability of reasoning paths, and constructing a trial-centered framework for prosecutorial-defense balance, so as to consistently confine predictive algorithms to an auxiliary and subordinate role.
(1)楼伯坤、鲍博:《刑事司法中风险评估的算法风险与规制措施》,《学术交流》2024年第3期,第62页。
(2)Megan Stevenson,Assessing Risk Assessment in Action,Minnesota Law Review,Vol.103,No.1,2018,pp.303-384.
(3)江溯:《自动化决策、刑事司法与算法规制——由卢米斯案引发的思考》,《东方法学》2020年第3期,第77页。
(4)Bernard E.Harcourt,Against Prediction:Profiling,Policing,and Punishing in an Actuarial Age,University of Chicago Press,2007,p.88.
(5)参见前注①,楼伯坤、鲍博文,第66页。
(6)如Angwin et al.2013,针对算法的种族偏见;De Miguel Beriain 2018,Dressel & Farid 2018,针对预测性算法的准确性;Freeman 2016,针对算法的私人属性。
(7)State v.Loomis.88I N.W 2d 749 (Wis.2016).终审法院认为:第一,COMPAS所获取的数据具有公开性,卢米斯作为被告有权否认或解释据以形成结果的相关数据以保障其准确性;第二,法院仍享有自由裁量权,并非仅基于该报告作出判决,因而若只是将COMPAS评估结果作为参考,并未侵犯被告人获得个性化判决的权利;第三,风险评估以性别为因素能提高预测精确性,而非出于歧视目的,卢米斯无足够证据证明原审法官实际考虑了性别因素。
(8)罗艳华:《〈世界人权宣言〉:全球人权治理的重要基石》,《中国国际战略评论》2018年第1期,第209-210页。
(9)如欧盟《人工智能法》及其委员会颁布的《关于禁止人工智能系统实践的指南》(草案);美国加州司法委员会发布的规则10.430与标准10.80;英国最新修订的《英国司法人员使用人工智能指南》;韩国的《人工智能发展及信任基础建立基本法》以及日本的《人工智能相关技术研究开发及应用推进法》等。
(10)如我国《最高人民法院关于规范和加强人工智能司法应用的意见》以及《人民检察院办理认罪认罚案件开展量刑建议工作的指导意见》。
(11)United States of America | World Prison Brief (prisonstudies.org),at https://www.prisonstudies.org/country/united-states-america;Wendy Sawyer & Peter Wagner,Mass Incarceration:The Whole Pie 2025,at https://www.prisonpolicy.org/reports/pie2025.html (Last visited on December 31,2025).
(12)其量刑委员会的一份报告显示,该工具的使用将接近一半的被告以监狱以外的替代方案进行安置。详见Julia Angwin et al.,Machine Bias,at https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (Last visited on October 27,2025).
(13)该法案也被称为“The Public Safety and Offender Accountability Act”,详见2011 Bill Text KY H.B.463- CSG South.
(14)《“美国法律体系中的人工智能:挑战与问题”讲座顺利举行》,中国政法大学法学院,https://fxy.cupl.edu.cn/info/1087/6473.htm,2025年11月12日访问。
(15)朱晓青、柳华文:《〈公民权利和政治权利国际公约〉及其实施机制》,中国社会科学出版社2003年版,第27页。
(16)《公约》前言载有“明认个人对他人及对其隶属之社会,负有义务,故职责所在,必须力求本盟约所确认各种权利之促进及遵守……”。
(17)Jack Donnelly,Human Rights and Asian Values:A Defense of “Western” Universalism,Cambridge University Press,1999,p.79.
(18)H.Lauterpacht,International Law and Human Rights,Stevens and Sons,1950,reprinted in 1968,p.366.
(19)René Provost,Reciprocity in Human Rights and Humanitarian Law,British Yearbook of International Law,Vol.65,No.1,1994,pp.383-454.
(20)即“人人在法院或法庭之前,悉属平等……应有权受独立无私之法定管辖法庭公正公开审问。”
(21)《刑事诉讼法》第5条规定“人民法院依照法律规定独立行使审判权,人民检察院依照法律规定独立行使检察权,不受行政机关、社会团体和个人的干涉。”第6条规定“人民法院、人民检察院和公安机关进行刑事诉讼,必须依靠群众,必须以事实为根据,以法律为准绳。对于一切公民,在适用法律上一律平等,在法律面前,不允许有任何特权。”
(22)李训虎:《刑事司法人工智能的包容性规制》,《中国社会科学》2021年第2期,第51页。
(23)Blu Radio,Sentencia La Tomé Yo,ChatGPT Respaldó Argumentación:Juez de Cartagena Usó Inteligencia Artificial,at https://www.bluradio.com/judicial/sentencia-la-tome-yo-chatgpt-respaldo-argumentacion-juez-de-cartagena-uso-inteligencia-artificial-pr30 (Last visited on January 21,2026).
(24)Agence France-Presse,Brazil Judge Under Probe for AI Errors in Ruling,at https://www.abs-cbn.com/overseas/11/14/23/brazil-judge-under-probe-for-ai-errors-in-ruling (Last visited on December 31,2025).
(25)Elizabeth E.Joh,Policing by Numbers:Big Data and the Fourth Amendment,Washington Law Review,Vol.89,No.1,2014,pp.35-68.
(26)“控辩平等原则”亦被域外刑事诉讼学界称为“手段同等原则”,其意为原则上应当以对待控诉机关一样,平等对待被告。详见[德]约·阿希姆·赫尔曼:《德国刑事诉讼法典》中译本引言,李昌珂译,《德国刑事诉讼法典》,中国政法大学出版社1995年版。
(27)冯颜利、张朋光:《哈贝马斯的正义观与当代价值——兼论哈贝马斯与罗尔斯正义观的主要异同》,《华中师范大学学报(社会科学版)》2013年第6期,第57-60页。
(28)於兴中:《算法社会与人的秉性》,《中国法律评论》2018年第2期,第59页。
(29)即使有的辩护人及其所属单位购买了人工智能服务,这项成本最终也会分摊至被追诉人身上。详见谢澍:《人工智能如何“无偏见”地助力刑事司法——由“证据指引”转向“证明辅助”》,《法律科学》2020年第5期,第114页。
(30)陈瑞华:《程序正义的理论基础——评马修的“尊严价值理论”》,《中国法学》2000年第3期,第145-146页。
(31)Ric Simmons,Big Data,Machine Judges,and the Legitimacy of the Criminal Justice System,U.C.Davis Law Review,Vol.52,No.2,2018,pp.1067-1118.
(32)司法民主的保障需要当事人有效行使诉讼参与权,而诉讼参与权的观念基础为诉讼主体性理念。
(33)无罪推定原则可追溯至1764年贝卡利亚的《论犯罪与刑罚》:在法官判决之前任何人不得被视为有罪,只要还未确定其已侵犯了有关公共保护的契约,社会就不得免去对他的公共保护。贝卡利亚的论述是无罪推定原则最广为熟知的含义。
(34)James Bradley Thayer,The Presumption of Innocence in Criminal Cases,Yale Law Journal,Vol.6,No.4,1897,pp.185-212.
(35)张振声:《犯罪人风险行为评估技术新进展——COMPAS系统评介》,《辽宁公安司法管理干部学院学报》2022年第3期,第5页。
(36)Julia Angwin et al.,Machine Bias,at https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (Last visited on October 27,2025).
(37)江溯:《自动化决策、刑事司法与算法规制——由卢米斯案引发的思考》,《东方法学》2020年第3期,第79页。
(38)鉴于文章目的在于揭示预测性算法对被告程序权利的影响,本文所讨论的诉讼参与性与诉讼公开性较为狭义。
(39)Deena Theresa,Colombian Judge Uses ChatGPT in Ruling,Makes Humane Decision,at https://interestingengineering.com/innovation/chatgpt-makes-humane-decision-columbia (Last visited on January 15,2026).
(40)“Justice-1”不仅缜密推理了法条,而且开创性提出并计算了案件的“情感损失系数”和“商誉折损概率”,其甚至在判决书中援引了一项连原告团队都未曾察觉的被加密的关键证据、分析出了该证据所涉人员的心理波动曲线并将其用以量化当事人的主观恶意程度。见《全球首例!AI法官主审民事案,司法界大地震》,今日头条,https://www.toutiao.com/article/7487040744625127987/,2025年10月1日访问。
(41)劳佳琦:《AI助力,实现更有效率的司法正义》,《光明日报》2025年4月26日,第5版。
(42)Tom R.Tyler & Hulda Thorisdottir,A Psychological Perspective on Compensation for Harm:Examining the September 11th Victim Compensation Fund,DePaul Law Review,Vol.53,No.2,2013,pp.355-392.
(43)Frederick Wilmot-Smith,Equal Justice,Harvard University Press,2019,p.1.
(44)Adrian Zuckerman,Artificial Intelligence:Implications for the Legal Profession,Adversarial Process and Rule of Law,Adversarial Process and Rule of Law,Law Quarterly Review,Vol.136,2020,pp.427-453.
(45)分为“有意的不透明”“无知的不透明”和“内生的不透明”风险,详见Bruno Lepri et al.,Fair,Transparent,and Accountable Algorithmic Decision-Making Processes:The Premise,the Proposed Solutions,and the Open Challenges,Philosophy & Technology,Vol.31,No.4,2018,pp.611-627.
(46)Bruno Lepri et al.,The Tyranny of Data?The Bright and Dark Sides of Data-Driven Decision-Making for Social Good,in Tania Cerquitelli,Daniele Quercia,Frank Pasquale eds.,Transparent Data Mining for Big and Small Data,Springer Press,2017,p.5.
(47)《刑事司法AI化危机:算法量刑建议的公开抗辩与程序抵制》,北京浩伟律师事务所网,https://bjxsbhls.com/zixun/28401.html,2025年12月26日访问。
(48)Michael Brenner et al.,Constitutional Dimensions of Predictive Algorithms in Criminal Justice,Harvard Civil Rights-Civil Liberties Law Review,Vol.55,No.1,2020,pp.267-310.
(49)[美]杰克·巴尔金:《算法社会中的三大法则》,刘颖、陈瑶瑶译,《法治现代化研究》2021年第2期,第188页。
(50)蒋勇、张晓华:《算法时代预测性警务的兴起及其风险规制》,《公安学研究》2023年第6期,第13页。
(51)Emily Berman,Individualized Suspicion in the Age of Big Data,Iowa Law Review,Vol.105,No.2,2020,pp.463-506.
(52)该概念由安德烈亚·罗斯提出,详见Andrea Roth,Machine Testimony,Yale Law Journal,Vol.126,No.7,2017,p.2000.
(53)尤其在该证据由控方提出时,其不仅应符合“证据三性”标准,控方还应就该证据的真实性进行重点检验与说明。
(54)於兴中:《算法社会与人的秉性》,《中国法律评论》2018年第2期,第59页。
基本信息:
DOI:10.16452/j.cnki.sdkjsk.2026.01.005
中图分类号:D925.2
引用信息:
[1]孙法柏,刘清华.刑事诉讼中预测性算法应用的权利风险及防范[J].山东科技大学学报(社会科学版),2026,28(01):37-48.DOI:10.16452/j.cnki.sdkjsk.2026.01.005.
基金信息:
山东省高级人民法院2025年度重点调研课题(SDGYKT2025A05-2)
2026-02-15
2026-02-15