2025年03月05日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法学院
13 11/13 10 11 12 > >| PDF版
本版面文章
· 算法透明机制的困境与克服:聚焦公众信任的机制重构
· 跨境网络犯罪治理的困境与规范化路径
· 行政争议调解制度创新路径
· 为未来产业创新生态培育提供法律保障
· 应发挥服务协议程序性条款的实际效力

算法透明机制的困境与克服:聚焦公众信任的机制重构

( 2025-03-05 ) 稿件来源: 法治日报法学院
  □ 戴维 王锡锌

  数字时代,算法已深度介入社会生活的方方面面,在给人们生活带来便利的同时,其背后的“算法黑箱”问题也日益凸显。“算法黑箱”源于算法技术的复杂性以及算法知识的高壁垒,使其运行逻辑和决策理由难以被公众所观察和理解。鉴于此,学理上发展出以技术披露和决策解释为核心的算法透明模式,以打开“黑箱”。但该模式未能充分考虑算法可解释性障碍和公众认知局限,在实践层面遭遇来自技术和制度的双重挑战,可能导致透明机制的失效和透明度期待落空。
算法透明机制的理论逻辑与立法演进
  透明机制一向被视为解决“决策黑箱”的有效手段。传统透明理论认为,通过向公众披露决策程序、论述决策合理性,可以保障公民知情的尊严性权利,并促进决策机关的可问责性。算法加剧了决策权力的封闭性和秘密性以及决策权力和公民权利关系的失衡。学者们尝试以包含事前技术披露和事后说明理由的双线透明模式,以防范算法权力的滥用。
  在规范层面,早期算法透明机制主要借助个人信息保护和信息公开立法来间接建构,但效果不佳。例如,我国不少学者尝试从个人信息保护法中推导出算法告知义务和算法解释权,但这需要多个条款“嫁接合成”,规范基础复杂且要求模糊,不便适用。有观点认为算法本质仍为行政规则,应当根据政府信息公开条例予以公开。但算法代码能否直接等同于立法文件而适用信息公开规则存疑。
  近年来,随着人工智能立法兴起,算法特别是机器学习类算法,有了更具针对性的规范基础。欧盟《人工智能法》根据人工智能风险程度设置四类透明义务,包括:第一,针对高风险人工智能系统的技术性信息披露义务,服务于人工智能系统设计者、提供者以及监管者;第二,针对特定人工智能系统的标识和告知义务,服务于公众;第三,针对高风险人工智能系统的登记义务,服务于公众;第四,个体针对高风险人工智能系统决策获得解释的权利。我国两版人工智能立法建议稿都将透明原则作为一项基本原则,要求提供者向公众告知算法基本信息、监管信息、用户权利及救济途径等;并规定当人工智能的产品或服务对个人权益有重大影响时,个人有权要求提供者解释说明。
算法透明机制的规范表达及其现实困境
  尽管算法透明机制在理论和立法上有所发展,但仍面临诸多问题。
  首先,立法设置的透明标准低于理论预期。在技术披露方面,欧盟《人工智能法》不要求算法提供者和部署者向公众提供技术材料,而是要求提供关于算法的说明、描述或摘要。信息的可靠性、准确性和真实性存疑,可能被有意处理误导公众;在算法解释权方面,立法未能为解释权行使提供充分的制度保障。
  其次,算法可解释性技术瓶颈制约算法透明机制。可解释人工智能(XAI)技术虽有进展,但普适性和准确性不足。模型越大、层级越复杂,解释效果越差。应用不同的XAI技术于同一模型,可能凸显不同的影响因素或权重。可解释人工智能确实是充满希望的发展方向,但目前它尚不足以彻底打开“黑箱”。此外,算法可解释并不等同于公众可理解,公众需要通俗易懂的语言理解算法模型,进而引发了算法披露在“信息的真实性”与“信息的可理解性”之间的矛盾,使算法透明陷入两难境地。
  最后,算法透明同当下以风险规制为核心的算法治理体系间存在张力。规范意义上的风险划分,并不一定符合公众的风险感知。当公众对某个算法的潜在风险产生疑虑,并不会因为它属于规范意义上的低风险算法,就放弃获得说明解释的诉求。因此,以风险等级区别设置透明义务的方式,可能会在整体上对算法信任产生负面影响。
以公众信任为导向的算法透明机制重构
  基于双线透明模式可行性与有效性困境,需要我们打破过往透明机制的思维惯性,正视可解释人工智能技术发展现状,明确以公众为受众,重塑算法透明机制。
  算法透明机制应以提升公众信任为目标。当下,“可信任人工智能”已成为全球人工智能发展的核心要求与原则。算法信任旨在为公众营造安全可信的制度环境,让公众能以更轻松的心态享受先进技术带来的便利。这种信任至关重要,它为算法技术的开发与应用创造了空间。算法信任的提出,还标志着算法治理理念从以技术为中心向以人为本的转变。毕竟,公众才是算法风险的最终承担者。
  算法透明能够为公众建立算法信任搭建桥梁。算法信任是公众对算法可信度评价后形成的主观态度。适度的信任对算法生态的健康发展尤为关键:盲目信任会让个体毫无防备地暴露在算法风险之下;过度警惕则会催生不必要的恐慌和抵制情绪。算法透明机制可以成为展示算法可信度的重要窗口,帮助公众建立适当程度的算法信任。
  具体而言,直接评估算法的性能、运行状态及目标达成情况,需要具备深厚专业能力,投入大量时间和精力,这一方式更适合专家审议场景。因此,公众算法信任的建立主要依赖对算法可信度的间接评估,即借助知识信任与制度信任,通过“中介背书”,帮助公众形成对算法的信任。
  知识信任,亦可称为专家信任,其构建要求对算法研发、部署和评估等重要环节责任主体的身份信息披露以及对专家意见质量的严格把控。算法责任主体的身份信息、团队专业资质、过往研发履历等背景信息,有助于公众形成自己的信任判断。此类披露还能将以往隐于幕后的责任主体推向前台,接受公众的审视与监督。特别是在政企合作的场景中,对于公众而言,保障政企合作的透明化,远比向他们披露算法资料更有实际意义。
  完善的算法治理体系,对于增强公众对算法的整体信任起着举足轻重的作用,这便是制度信任的价值。在算法应用场景中,通过制度约束,让公众知晓无论技术提供者的主观意愿如何,其在研发和部署算法时,都必须遵循既定的规范、标准和流程,可以有效安抚公众对算法的不安情绪。当前,算法治理正在向着行政监管、企业自我规制以及社会监督三方协同的综合治理体系迈进。算法透明机制需要与这一治理体系实现妥善衔接。首先,应当加强行政监管中的信息披露。一方面,披露内容需与前端的许可管理、备案审查、行政处罚等算法监管手段紧密衔接;另一方面,要整合分散的监管信息沟通渠道,搭建统一的披露平台。积极运用先进的数据处理技术和创新的可视化手段,以“用户友好”的方式进行信息呈现,为公众提供一个全面“考察”算法产品及其研发部署主体的系统性视角。其次,算法透明机制呼吁企业加强自我披露。科技企业作为前沿技术的掌握者,对技术问题和漏洞具有敏锐的洞察力,在风险控制上具有天然优势。最后,算法信任的建立离不开第三方机构的参与。第三方机构参与算法评估和审计工作,既能弥补行政监管在专业知识和资源上的不足,又能规避企业自我约束过程中可能出现的客观公正性问题,有助于增强公众对算法的信任。
  以上重构路径,有望打破算法透明机制的现有僵局,避免“透明但无用”的制度窘境;有助于提升公众在算法治理中的主体性,使其摆脱因知识壁垒而被边缘化的无力感,为公众参与算法监督创造条件;最终形成“公众信任—算法透明”互相促进的正向循环。
(原文刊载于《华东政法大学学报》2025年第1期)

   
相关文章: