|
法学院
|
|
中南民族大学法学院张军荣在《行政法学研究》2025年第2期上发表题为《人工智能生成物的溢出风险及监管规则研究》的文章中指出: 以ChatGPT、Sora为代表的生成式人工智能模型发生了由“判别式”转为“生成式”的变革,人工智能被赋予了“强拟人化”特点,人工智能生成物(以下简称AIGC)成为人们获取知识和信息产品的新渠道。AIGC的应用范围包含自动化技术、智慧图书馆、医学智库、智慧数字出版、计算机软件及其应用、教育实践等学科领域。AIGC的产出经历了数据搜集和投喂、模型训练和模拟、内容生成和调整等阶段。由于投喂数据的质量差异、人工智能模型算法的能力缺陷、使用者的人为操控等因素,AIGC应用于各种场景的同时,其迅速发展滋生了数据污染风险、信息泄露风险、数据歧视风险以及通用性伦理风险等。 世界各国对于AIGC的监管框架建立尚处于初步探索阶段。通过对比国内外AIGC监管的制度内容发现,当前监管模式存在人力监管能力不足、“产品”质量标准缺失、数据歧视监管规则缺失、分级管理规则模糊四个方面的缺陷。因此,应构建以技术监管规则、质量标准规则、无歧视规则、分类分级规则等为主体的AIGC监管体系。首先,为克服人工监管的高成本、低效率等缺陷,应引入技术监管、推动敏捷治理,将AIGC来源与后续使用行为纳入监管体系,形成以生成记录保存规则、实名制规则、强制标记规则、周期性数据更新规则为内容的监管规则。其次,通过明确人工智能开发者与AIGC服务提供者、使用者的义务,构建AIGC生产过程控制和生成产品的质量标准规则,避免可能造成数据污染和信息泄露风险的生成内容流入公共领域,避免危及公共安全和公共利益的内容生成和使用。再次,通过建立数据清洗和数据审计规则,推动算法透明,加强算法审核,从而实现对数据歧视的源头治理。最后,建立分类分级规则,构建对不同风险程度AIGC的梯次监管,设定服务主体对不可接受风险和重大风险的申报与备案义务,并进行安全评估,保障数据安全。 面对人工智能的迅速发展和巨大挑战,需要更为具体的应对措施以防范其带来的各种风险。未来还需从监管程序、监管基础设施、监管规制与监管机构运行等要素出发,探索国家AIGC监管体系发展之路,为保障国家人工智能产业蓬勃发展、社会秩序稳定、数据信息安全添砖加瓦。

|
张军荣谈人工智能生成物的监管模式——
|
构建以技术监管规则等为主体的监管体系
|
|
|
|
( 2025-06-04 ) 稿件来源: 法治日报法学院 |
|
中南民族大学法学院张军荣在《行政法学研究》2025年第2期上发表题为《人工智能生成物的溢出风险及监管规则研究》的文章中指出: 以ChatGPT、Sora为代表的生成式人工智能模型发生了由“判别式”转为“生成式”的变革,人工智能被赋予了“强拟人化”特点,人工智能生成物(以下简称AIGC)成为人们获取知识和信息产品的新渠道。AIGC的应用范围包含自动化技术、智慧图书馆、医学智库、智慧数字出版、计算机软件及其应用、教育实践等学科领域。AIGC的产出经历了数据搜集和投喂、模型训练和模拟、内容生成和调整等阶段。由于投喂数据的质量差异、人工智能模型算法的能力缺陷、使用者的人为操控等因素,AIGC应用于各种场景的同时,其迅速发展滋生了数据污染风险、信息泄露风险、数据歧视风险以及通用性伦理风险等。 世界各国对于AIGC的监管框架建立尚处于初步探索阶段。通过对比国内外AIGC监管的制度内容发现,当前监管模式存在人力监管能力不足、“产品”质量标准缺失、数据歧视监管规则缺失、分级管理规则模糊四个方面的缺陷。因此,应构建以技术监管规则、质量标准规则、无歧视规则、分类分级规则等为主体的AIGC监管体系。首先,为克服人工监管的高成本、低效率等缺陷,应引入技术监管、推动敏捷治理,将AIGC来源与后续使用行为纳入监管体系,形成以生成记录保存规则、实名制规则、强制标记规则、周期性数据更新规则为内容的监管规则。其次,通过明确人工智能开发者与AIGC服务提供者、使用者的义务,构建AIGC生产过程控制和生成产品的质量标准规则,避免可能造成数据污染和信息泄露风险的生成内容流入公共领域,避免危及公共安全和公共利益的内容生成和使用。再次,通过建立数据清洗和数据审计规则,推动算法透明,加强算法审核,从而实现对数据歧视的源头治理。最后,建立分类分级规则,构建对不同风险程度AIGC的梯次监管,设定服务主体对不可接受风险和重大风险的申报与备案义务,并进行安全评估,保障数据安全。 面对人工智能的迅速发展和巨大挑战,需要更为具体的应对措施以防范其带来的各种风险。未来还需从监管程序、监管基础设施、监管规制与监管机构运行等要素出发,探索国家AIGC监管体系发展之路,为保障国家人工智能产业蓬勃发展、社会秩序稳定、数据信息安全添砖加瓦。

|
|
|