|
法学院
|
|
上海大学法学院袁曾在《法学杂志》2023年第4期上发表题为《生成式人工智能责任规制的法律问题研究》的文章中指出: 生成式人工智能的发展需要法律予以及时规制,以实现技术的发展可受控制。现行人工智能的责任承担规制以算法“可解释”为核心要求,通过算法透明性、隐私保护以及分类分级监管等配套机制构筑了相应治理范式。但在生成式人工智能规模化应用以后,传统以算法“可解释”为规制核心的责任承担机制已无法应对新生产力工具带来的颠覆性变化。生成式人工智能以大型语言模型为基础,通过深度学习自互联网诞生以来全域范围内的海量数据,演绎归纳形成符合逻辑的输出内容,其利用数据之广泛、生产内容之准确、算法迭代之迅猛、可利用范围之宽广,已非传统人工智能可以匹敌。 正视技术迭代发展的现实,对生成式人工智能的治理需要由以“可解释”为核心逐步转向以“可控制”为核心的责任治理架构。生成式人工智能“可控制”需要在给定目标的基础上,就技术发展的逻辑,设定治理目标与范式,从基础规则出发即介入控制,从起点至结果全流程介入干预人工智能的治理。生成式人工智能“可控制”是一项系统性工程,其机理是将技术发展的核心价值、底层逻辑、路径规制、关键救济等全过程始终掌握在人类手中。“可控制”的要求并非颠覆原有“可解释”的要求与有价值经验,而是在“可解释”的基础上纵深发展人工智能可控的治理链条,延展控制的范围、内涵与方法。其核心是调整人工智能治理的责任规制重心,扩大“可控制”的责任调整范围。以算法“可解释”为核心的责任规制架构,可以涵盖的调整范围仅仅是生成式人工智能治理中的部分领域,需要按照“可控制”的基础目标与终极价值,系统性重构责任规制范围,以技术的有效利用为主线,全部纳入控制的范围统一调整。 生成式人工智能事实上已在众多领域替代了人类工作,在促进生产力水平提高的同时,也带来了权益侵害、隐蔽犯罪、认知混乱等客观风险。正视实际,发展可信向善的人工智能,需要按照生产力发展的规律适时调整生产关系,其关键在于根据“可控制”的责任规制总体要求,给予生成式人工智能各参与方以恰当的责任机制与归责路径,及时监督与修正预期外的重大风险,在技术进步与治理安全的综合目标下形成准确的价值预期,在有效规避系统性风险的基础上保护创新,促进技术的整体可控发展。
|
袁曾谈生成式人工智能的治理——
|
需要以“可控制”为核心的责任治理架构
|
|
|
|
( 2023-09-27 ) 稿件来源: 法治日报法学院 |
|
上海大学法学院袁曾在《法学杂志》2023年第4期上发表题为《生成式人工智能责任规制的法律问题研究》的文章中指出: 生成式人工智能的发展需要法律予以及时规制,以实现技术的发展可受控制。现行人工智能的责任承担规制以算法“可解释”为核心要求,通过算法透明性、隐私保护以及分类分级监管等配套机制构筑了相应治理范式。但在生成式人工智能规模化应用以后,传统以算法“可解释”为规制核心的责任承担机制已无法应对新生产力工具带来的颠覆性变化。生成式人工智能以大型语言模型为基础,通过深度学习自互联网诞生以来全域范围内的海量数据,演绎归纳形成符合逻辑的输出内容,其利用数据之广泛、生产内容之准确、算法迭代之迅猛、可利用范围之宽广,已非传统人工智能可以匹敌。 正视技术迭代发展的现实,对生成式人工智能的治理需要由以“可解释”为核心逐步转向以“可控制”为核心的责任治理架构。生成式人工智能“可控制”需要在给定目标的基础上,就技术发展的逻辑,设定治理目标与范式,从基础规则出发即介入控制,从起点至结果全流程介入干预人工智能的治理。生成式人工智能“可控制”是一项系统性工程,其机理是将技术发展的核心价值、底层逻辑、路径规制、关键救济等全过程始终掌握在人类手中。“可控制”的要求并非颠覆原有“可解释”的要求与有价值经验,而是在“可解释”的基础上纵深发展人工智能可控的治理链条,延展控制的范围、内涵与方法。其核心是调整人工智能治理的责任规制重心,扩大“可控制”的责任调整范围。以算法“可解释”为核心的责任规制架构,可以涵盖的调整范围仅仅是生成式人工智能治理中的部分领域,需要按照“可控制”的基础目标与终极价值,系统性重构责任规制范围,以技术的有效利用为主线,全部纳入控制的范围统一调整。 生成式人工智能事实上已在众多领域替代了人类工作,在促进生产力水平提高的同时,也带来了权益侵害、隐蔽犯罪、认知混乱等客观风险。正视实际,发展可信向善的人工智能,需要按照生产力发展的规律适时调整生产关系,其关键在于根据“可控制”的责任规制总体要求,给予生成式人工智能各参与方以恰当的责任机制与归责路径,及时监督与修正预期外的重大风险,在技术进步与治理安全的综合目标下形成准确的价值预期,在有效规避系统性风险的基础上保护创新,促进技术的整体可控发展。
|
|
|