法治框架下生成式人工智能的刑事规制完善策略

  □ 叶镝

  生成式人工智能的快速发展,正在重塑社会生产关系和权力结构。其通过深度学习模型实现内容自主生成的能力,既创造了效率革命,也衍生出数据侵权、虚假信息传播、深度伪造犯罪等新型刑事风险。传统以人类行为为中心的法治框架,在应对生成式人工智能的“非人格性决策”和“技术黑箱”特征时,显现出主体归责模糊、规则滞后、司法适用失序等系统性困境。完善刑事规制体系,需立足法治核心价值,构建“风险预防—责任分配—司法救济”的闭环治理机制。
立法完善:构建分层风险防控体系
  立法要确定风险分级的标准,参考其他国家和地区的做法把生成式人工智能系统按照风险等级分成“不可接受风险”“高风险”“有限风险”和“最小风险”四类,对不可接受风险的行为如用深度伪造技术进行诈骗或者诽谤,直接把这类行为纳入刑事犯罪的范围加强刑罚的震慑作用;对高风险的场景如在医疗或者金融领域,建立合规检查机制以确保开发者做好数据安全工作,做得不到位就要追究其刑事责任。这种分级的方法符合技术发展的真实情况,防止用统一标准处理所有情况带来的落后问题。
  加强责任主体之间的联系,面对生成式人工智能产生侵害他人利益的风险,立法要把拒不履行信息网络安全管理义务罪的适用范围扩大,把研发者、生产者纳入管理决策和流程中。比如,没有及时消除数据泄露的风险造成他人合法权益受损的,可以追究其刑事责任填补法律上的漏洞。另外,需要建立链式责任分配办法,明确开发者、使用者和监管者的工作职责,确保其承担的责任和获得的利益是对应的。
  推进动态监管和公众参与,立法要求生成式人工智能系统通过多种方式公开自身情况,成立专门负责监管的部门开展合规检查工作,鼓励公众参与监督,用法治教育方式提高公众的认识,形成让技术向好发展的治理环境。通过这些办法既能加强刑事规制的预防作用,又能为技术创新提供合适法治空间,为数字时代提供坚实制度支持。
司法适用:强化技术赋能与程序正义
  建立技术赋能的司法审查机制。在刑事侦查阶段,立法要求生成式人工智能系统把算法决策过程公开,保证算法决策能被查询。比如,在审查深度伪造技术生成的证据时,成立专门部门核实证据数据来源,防止虚假信息误导司法判断。同时,加强检察机关对技术应用的监督工作,实现侦查效率和保护公民权利之间的平衡,防止技术滥用。
  改进程序正义的保障路径。在审判环节,立法要确定开发者解释算法的义务要求。开发者应把模型逻辑解释清楚,让法官和当事人都能理解。比如,对类案裁判的生成结果,赋予被告人提出不同意见的权利,允许通过技术复核方式纠正偏见。另外,建立公共技术服务平台,为控辩双方提供相同的数据获取途径,保障控辩双方的信息平等。
协同治理:构建多元主体共治格局
  强化政府的主导作用。明确监管职责,成立专门机构负责生成式人工智能的合规检查和风险监控。企业要定期提交技术使用报告,对高风险场景实行准入许可制度,保证技术发展符合法治规定,并且积极推进跨部门合作,建立信息共享机制,提高监管效果。
  压实企业的主体责任。明确要求生成式人工智能开发者(服务提供者)承担数据安全与隐私保护的义务,对违规行为依法追究法律责任。比如,对深度伪造技术的滥用,要求企业承担连带责任,推动其加强内部合规管理,并且鼓励企业制定行业标准和规范,通过自律机制防止刑事风险。
  激发社会监督的活力。保障公众知情权与参与权,建立举报有奖机制,鼓励社会组织和媒体监督技术应用。比如,对传播虚假信息的行为,公众可通过举报平台向相关部门举报,有效推动对违法违规行为的及时查处。加强法治教育,提高全社会对生成式人工智能风险的认知,形成全民共治氛围。
  推动国际合作治理。参考国际经验,参与全球规则制定,协调跨国监管行动。比如,通过制定双边或多边合作协议,共同打击跨境数据犯罪,维护法治秩序。构建多元主体协同的治理体系,实现刑事规制的预防与惩治并重,为数字时代提供牢固法治保障。
  生成式人工智能的刑事规制完善,本质上是法治对技术革命的适应性改变,通过立法填补规则漏洞、司法加强程序正义、协同治理聚集社会共识,搭建“预防—追责—救济”的全链条治理体系。随着“强人工智能”时代的临近,法治框架需要不断更新,在保障技术创新的同时,守住“以人为本”的法治底线,明确人机责任边界,促进人机协同共生。
(作者单位:江苏警官学院法律系)  

本网站所有内容属《法治日报》所有,未经许可不得转载。