以更高水平法治保障“人工智能+”行动全面实施

□ 夏伟 (中国政法大学刑事司法学院副教授)
人工智能已成为国家战略竞争的核心驱动力,推进人工智能更高质量创新发展需要更高水平的法治保障。《中华人民共和国国民经济和社会发展第十五个五年规划纲要》(以下简称“十五五”规划纲要)提出,“全面实施‘人工智能+’行动”,让人工智能全方位赋能千行百业,强调“完善人工智能领域法律法规、政策制度、应用规范、伦理准则”。深入贯彻落实“十五五”规划纲要的战略部署,应当加快完善人工智能法律制度,构建保障“人工智能+”行动全面实施的科学法治体系。
从增量立法到增质立法:人工智能“1+N”立法体系构建
我国人工智能立法可以分为两个阶段:第一阶段是试验立法,即在法治如何因应人工智能创新发展的立场尚未明朗之际,通过“先试先行”立法检验人工智能领域的原理、规范与制度以观其成效。此时立法多以宣示性、政策性为主,呈现弱规则倾向。第二阶段是专项立法,即在试验立法基础上,将经过实践检验的、适应人工智能创新发展的重要制度通过专项立法形式固定下来,实现从增量立法到增质立法的科学转型。
当前,我国人工智能立法正处于从增量立法到增质立法转型的关键时期,试验立法取得了令人瞩目的成效,相关法律规范以及政策规范共同构筑我国人工智能法律法规与伦理准则体系,形成跨部门法支撑与跨领域协同的规范基础。然而,“先试先行”毕竟属于人工智能立法不成熟时期的试验之举,存在立法碎片化、同质化等问题,难以适应人工智能创新发展的时代需求。行之有效发挥法治在人工智能领域固根本、稳预期、利长远的保障作用,关键要在党和国家人工智能战略指引下,将“先试先行”立法的有益成果进行科学转化,推动人工智能立法从分散性立法向系统性立法转型,制定“规范集中、体系统一”的高质量人工智能基本法,构建人工智能“1+N”立法体系。
人工智能立法体系的“1”是其核心规范,即人工智能基本法。基于当前我国人工智能立法呈现分散性特点,制定人工智能基本法宜采取“三步走”策略。第一步是清理,将人工智能领域重复性、政策性、宣示性立法规范予以清理,以保障法在形式上简明易从。第二步是整合,建构人工智能全生命周期运行的规范体系,以保障法在实质上确当可行。第三步是创制,保障人工智能基本法具备因时应势而变的开放性,创建适应人工智能领域预防性监管、多元责任配置等特殊法律制度。
制定人工智能基本法,需要统筹协调人工智能立法体系“1”和“N”的逻辑关系。人工智能立法体系的“N”即分散性立法有两类:一是人工智能基本法的关联规范,如网络安全法;二是人工智能基本法的下位规范,如《生成式人工智能服务管理暂行办法》。人工智能基本法在制定时,应当处理好与网络安全法、数据安全法等关联规范的衔接关系,其规范设定与制度设计要与已有规范相协调。人工智能基本法在制定后,应当统筹好与下位规范的位阶关系,其作为核心规范对下位法规范具有统领作用,下位法规范的理解适用必须以人工智能基本法为依据,不得与之相冲突。
从规则之治到良法之治:人工智能法治的核心价值提炼
人工智能法治可以分为三个层次,即工具之治、规则之治与良法之治。时至今日,伴随人工智能立法规范的相继颁布实施,人工智能法体系已然成型,规则之治的任务基本完成。人工智能法治应当从“中级形态”的规则之治迈向“高级形态”的良法之治,其关键在于将核心价值契入人工智能法治体系,实现从形体完备到实质良善的跃迁。
人工智能法治价值具有多元性,公正、自由、安全等皆为必要。其中,公正价值要求人工智能禁止歧视,不得开发存在性别、地域等歧视性的人工智能;自由要求人工智能必须可解释,不得滥用“算法黑箱”阻碍公众知情权的实现;安全要求人工智能必须风险可控,遵守法律规范关于人工智能风险分级的规定。而究其根源,人工智能法治的终极任务在于处理好人与人工智能的关系,守护“人之为人”是人工智能良法之治的根本任务,一言以蔽之,必须将以人为本确立为核心价值。
以人为本不能仅停留在价值理念层面,更为重要的是将其转化为人工智能法律制度的指导原则,即智能向善。以人为本和智能向善是一体两面的关系,以人为本必须坚持智能向善,相应的,只有智能向善才能实现以人为本。以智能向善贯彻以人为本理念,必须从“体”和“用”两个层面同步落实。“体”是指人工智能本体开发,“用”是人工智能使用规则。在“体”的层面贯彻以人为本理念,要求人工智能本体开发设计应当坚持向善,遵循法律规范与伦理准则,并与人类价值对齐,凡是侵害人类生存、人性尊严、人类权利的,都应当被禁止。需要注意的是,无论开发者如何善意设计人工智能本体,都可能由于他人对人工智能的恶意滥用而损害“人之为人”的根本利益。因此,为了充分贯彻以人为本理念,如何引导人工智能善意使用是一个同等重要的问题,这需要同步构建人工智能善意使用制度。
从静态规制到动态监管:人工智能适应性治理的制度响应
人工智能时代是科技加速的时代,以科技加速为支撑的人工智能具有高度的技术复杂性与风险不确定性。从机器学习到深度学习再到大模型,新一代人工智能的技术复杂性陡增,算法黑箱、数据偏见、知识幻觉等层出不穷,由此导致人工智能风险的不确定性。前人工智能时代治理社会问题所采取的静态规制模式韧性不足,在面对复杂多变的人工智能风险时表现出脆弱性,监管部门无力识别风险来源、风险类型及风险程度,更无力组织有效的预防策略。因此,人工智能治理模式应从预防性治理走向适应性治理,坚持治理主体的公私合作、治理路径的自下而上、治理策略的动态可塑。
首先,人工智能治理的制度韧性主要来源于公私深度合作,需要共同发挥公共部门刚性执法与私人部门柔性立规的功能合力。公共部门刚性监管虽然强劲有力,但却难以穿透人工智能平台优势权力、算法技术黑箱与海量数据决策形成的技术屏障的阻隔,导致滥用人工智能实施的违法犯罪难识别、难定性、难规制。事实上,只有懂人工智能,才能建立具有制度韧性的适应性治理模式。网络平台等私人部门深度参与人工智能运行过程,最懂人工智能如何使用、存在何种风险,享受人工智能技术红利并承载重要公共利益,因而也最适宜承担阻断滥用人工智能风险的义务。公共部门与私人部门的深度合作监管,构建“双中心”的治理体系,将显著提升治理的适应性。
其次,适应性治理倡导自下而上的治理路径,通过“第一线信息”充分激发人工智能监管的活力。人工智能技术高速迭代,等待位居后端的监管部门经过决策形成制度之后,人工智能技术往往已经过多次迭代,此种自上而下的治理路径欠缺敏捷性,制度实效性极大削弱。人工智能风险广泛分散于系统运行全周期,涉及多个层级,处在最底层的利益相关者往往最先掌握“第一线信息”,其应对风险的策略具有极大的参考价值。
最后,人工智能风险处在动态变化之中,适应人工智能技术高速迭代的治理策略应当具有可塑性,将可能发生风险的事项提前立法并确立制度,以达到“一个策略治理一片”的效果。
[本文系国家社科基金项目“数字经济时代实质穿透式定罪的适用路径及其边界研究”(25CFX114)的阶段性研究成果]