2023年10月25日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法学院
13 10/13 9 10 11 > >| PDF版
本版面文章
· 积淀丰厚底蕴 筑就精彩人生
· 思无涯而行有度
· 殊未合法
· 应坚持人类司法者的决策与主体责任制
· 是对人工智能开发和使用风险的规制

丁晓东谈人机交互决策下的智慧司法——
应坚持人类司法者的决策与主体责任制

( 2023-10-25 ) 稿件来源: 法治日报法学院
  中国人民大学法学院丁晓东在《法律科学》2023年第4期上发表题为《人机交互决策下的智慧司法》的文章中指出:
  近年来,提升司法领域的信息化与智能化,利用大数据与人工智能技术解决司法难题,已经成为我国司法发展的重要战略。研究表明,人工智能司法的实践应用价值正在不断提高,但是人工智能司法也可能面临种种问题:人工智能可能带来错误判决,与司法追求的公平正义价值并不契合;人工智能可能剥夺人们对于司法的亲历感,损害司法权威等。相比人工智能在电商、资讯、自动驾驶、医疗等领域的应用,人工智能在司法领域的应用一直存在较大争议。在实践中,法官与检察官也对人工智能辅助司法的机制存在众多困惑。
  人工智能司法是一种“规范性科技”支持基础上的司法,而非计算性科技或预测性科技本身。人工智能司法在裁判可接受性、信息整全性、信息筛选、事实评估等方面有一定优势;人机交互决策不仅可能,而且早已通过各类数据库系统成为现实。不过,把人工智能系统引入司法制度,会面临规则适用僵化的风险、人机决策权重如何配置、不同司法层级与不同部门决策趋同、算法黑箱决策等难题。
  为了最大程度发挥人工智能辅助系统对于司法的辅助功能,避免人工智能司法系统所出现的种种问题,有必要从多个层面对人工智能司法中的人机交互决策制度进行设计,应注意处理好智慧司法裁判规则与个案适用、人机决策权重、决策标准统一与制衡、算法决策与算法问责等人机交互的关键问题。在人机交互时代,人工智能司法应当坚持人类司法者的决策与主体责任制,坚持法官与检察官的弥散性决策与主体责任制,允许不同司法机关对人机决策权重进行实验与竞争,坚守基于部门分工与审级分层的决策制衡机制,促进算法解释的可问责性而非完全公开。对于各类人工智能算法决策体系,应当确保人工智能司法辅助系统从设计到运行的所有阶段都有法律专家的参与。在一些核心算法上,人工智能司法辅助系统还应当设立法律专业委员会进行审查,以保证其设计符合法律共同体的共识。在审判过程中运用人工智能辅助系统,应当首先向参与司法的当事人解释人工智能司法辅助系统的整体运作机制,确保当事人的知情权与选择权。通过设计符合司法原理的人机交互决策制度,智慧司法才可能稳步前行。

   
相关文章: