|
法学院
|
|
武汉大学法学院黄文婷在《比较法研究》2025年第2期上发表题为《人工智能应用的界限及其规制:以保护人的尊严为底线》的文章中指出: 随着大数据、算法以及算力的深度融合,人工智能进入高速发展阶段,通过法律规制人工智能逐渐成为国际的主流选择。从世界主要国家的动向来看,人工智能治理越来越聚焦于人工智能技术的应用层面,而不再是人工智能技术底层的算法层面。其中,法律规制人工智能应用的目的至关重要,决定着规制方向、原则和内容。 人工智能的概念是法律规制人工智能应用的前提,其必须从技术和社会层面进行综合理解。在此基础上,人工智能应用引发的是人类能在多大程度上容忍人工智能对自身及社会影响的现实问题。人工智能应用应当以人的尊严为底线,然而,该底线面临三重风险,即人类在物种层面的支配性、公民在社会层面的主体性以及个人在个体层面的自主性受到挑战。 为降低和避免侵犯人的尊严的风险,法律有必要明确人工智能应用的边界。诚然,人工智能应用存在侵犯人的尊严的风险,但其也有可能给个人、社会和人类带来福祉,维护人的尊严,因此划定边界要仔细权衡风险发生的可能性、严重性和带来福祉的可能性、重要性。应当绝对禁止将个人当成纯粹的手段进行伤害且不会对个人、社会和人类产生任何福祉的人工智能应用,相对禁止对人的尊严产生风险但也会带来福祉的人工智能应用。在相对禁止的路径下,应当以人工智能应用侵犯人的尊严的风险程度划分不同的人工智能类型,同时采用比例原则进行比较权衡,以划定人工智能应用的界限。 我国应当构建明确且具体的制度,严格规制给人的尊严带来重大风险的特定人工智能应用,并结合基本权利进路合理规制带来有限风险的其他人工智能应用,同时法律有必要将保护人的尊严底线转化为应用者的主体性义务,并强调静态的合比例论证与动态的风险控制。

|
黄文婷谈相对禁止路径下划定人工智能应用的界限——
|
应采用比例原则进行比较权衡
|
|
|
|
( 2025-04-23 ) 稿件来源: 法治日报法学院 |
|
武汉大学法学院黄文婷在《比较法研究》2025年第2期上发表题为《人工智能应用的界限及其规制:以保护人的尊严为底线》的文章中指出: 随着大数据、算法以及算力的深度融合,人工智能进入高速发展阶段,通过法律规制人工智能逐渐成为国际的主流选择。从世界主要国家的动向来看,人工智能治理越来越聚焦于人工智能技术的应用层面,而不再是人工智能技术底层的算法层面。其中,法律规制人工智能应用的目的至关重要,决定着规制方向、原则和内容。 人工智能的概念是法律规制人工智能应用的前提,其必须从技术和社会层面进行综合理解。在此基础上,人工智能应用引发的是人类能在多大程度上容忍人工智能对自身及社会影响的现实问题。人工智能应用应当以人的尊严为底线,然而,该底线面临三重风险,即人类在物种层面的支配性、公民在社会层面的主体性以及个人在个体层面的自主性受到挑战。 为降低和避免侵犯人的尊严的风险,法律有必要明确人工智能应用的边界。诚然,人工智能应用存在侵犯人的尊严的风险,但其也有可能给个人、社会和人类带来福祉,维护人的尊严,因此划定边界要仔细权衡风险发生的可能性、严重性和带来福祉的可能性、重要性。应当绝对禁止将个人当成纯粹的手段进行伤害且不会对个人、社会和人类产生任何福祉的人工智能应用,相对禁止对人的尊严产生风险但也会带来福祉的人工智能应用。在相对禁止的路径下,应当以人工智能应用侵犯人的尊严的风险程度划分不同的人工智能类型,同时采用比例原则进行比较权衡,以划定人工智能应用的界限。 我国应当构建明确且具体的制度,严格规制给人的尊严带来重大风险的特定人工智能应用,并结合基本权利进路合理规制带来有限风险的其他人工智能应用,同时法律有必要将保护人的尊严底线转化为应用者的主体性义务,并强调静态的合比例论证与动态的风险控制。

|
|
|