2023年12月13日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法学院
13 11/13 10 11 12 > >| PDF版
本版面文章
· 习近平法治思想高端论坛(2023年)在北京举行
· 专家研讨知识产权保护与中华优秀传统文化融合
· 黄河流域生态保护和高质量发展的执法司法保障
· 其本质是网络言语信息类暴力犯罪
· 应以竞争伦理侵权安全作为治理基点

陈兵谈生成式人工智能可信发展的法治基础——
应以竞争伦理侵权安全作为治理基点

( 2023-12-13 ) 稿件来源: 法治日报法学院
  南开大学法学院陈兵在《上海政法学院学报(法治论丛)》2023年第4期上发表题为《生成式人工智能可信发展的法治基础》的文章中指出:
  近年来,随着人工智能算法不断迭代升级,特别是机器学习赋予人工智能强大的学习能力,使其不再局限于只按照事先指定的模板或者规则,进行简单的内容输出和制作,而是能够根据用户提出的指令即可生成灵活且真实的内容,甚至能够实现高质量的内容创作,这类技术被称为人工智能生成内容(AIGC),或者基于生成式人工智能服务产生的内容物(以下简称生成式人工智能)。
  随着人工智能技术应用的不断推进,人们发现人工智能技术存在不可控、不可解释、不可预知、不透明等弊端和风险,并且在使用过程中可能给人身安全、信息安全以及财产安全等带来一定风险,由此引发了人们对人工智能技术的不信任。这种不信任会降低人们在部分场景中使用人工智能产品的意愿,从而限制相关技术应用的深度和广度,对人工智能产业的健康可持续发展产生实质阻碍。为了消除人们对人工智能技术应用的不信任,推动人工智能产业“可信”成了一个必然选择。对于生成式人工智能产业而言,“可信”是其健康持续发展的内在要求。基于各国对生成式人工智能可信发展的要求,结合其产业特征和应用现状,AIGC的“可信”要求主要包括“可控、可问责、公平、可靠、透明可解释以及安全”六个方面。然而,生成式人工智能技术所潜在的“技术+资本”垄断、伦理道德标准不清、侵权责任模糊以及数据安全风险等新问题,引发了生成式人工智能的信任危机。
  基于此,应当以竞争、伦理、侵权以及安全作为治理基点,通过强化生成式人工智能领域要素治理,科学审慎引入事前监管,平衡鼓励创新与保护竞争之间的关系;建立健全生成式人工智能领域科技伦理规范;搭建基于生成式人工智能产品生产者责任和使用者过错的侵权责任认定规则;从制度层面和技术层面加强生成式人工智能领域数据算法安全四个方面夯实生成式人工智能可信发展的法治基础。

   
相关文章: