2023年05月17日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法学院
13 11/13 10 11 12 > >| PDF版
本版面文章
· 探索共同富裕的绿色路径
· 购买原始股上市后抛售获利行为的定性
· 人脸识别信息应用的准入审核制度初探
· 是代码在网络空间的治理能力和规制效力
· 应当在现行的企业破产法之外单独进行

人脸识别信息应用的准入审核制度初探

( 2023-05-17 ) 稿件来源: 法治日报法学院
  □ 李云清

  人脸识别技术在给我们带来便捷、高效生活的同时,也带来了一系列的风险和隐患。由于人脸信息的自然性、唯一性、半公开性和难以更改等特点,加之人脸识别技术自身存在的缺陷以及信息处理者的疏于管理,一旦人脸信息被违法犯罪分子非法利用,不仅可能影响个人的人身权、财产权,还可能会冲击公共秩序、危害国家安全。亟须采取相应措施,对人脸识别信息应用中可能存在的风险予以有效管控,使得技术始终扮演着改变生活、造福人类的角色。
人脸识别信息应用的社会风险
  人脸信息应用作为一项全世界通用的新技术,它的发展在为社会带来巨大收益的同时也伴随着难以预测的风险,因人脸信息具有区别于其他个人信息的特殊性,其固有的技术风险主要表现在两个方面:第一,技术准确率的风险;第二,技术的安全性风险。除促进技术的进一步优化采取技术措施降低技术风险外,更有必要完善相关法律规制。基于人脸信息的特殊性和人脸信息应用技术的自身技术风险,人脸信息技术应用在实践或非法滥用中可能会产生系统性的社会风险,具体如下:
  1.侵犯个人权利
  针对社会个体而言,人脸信息应用技术的侵权风险是指人脸信息应用技术在正常应用或非法滥用中出现的或可能出现的侵犯信息主体人身权利和财产权利的风险,主要表现为:第一,人脸信息应用技术的滥用可能会侵犯公民个人的人身权;第二,人脸信息应用技术可能会侵犯公民个人的隐私权;第三,人脸信息应用技术可能会侵犯公民的平等权;第四,人脸信息应用技术可能会侵犯公民的财产权。
  2.冲击社会治理结构和公共秩序
  深度伪造技术通过把人脸信息和声音输入机器学习的算法进行“面部操作”即把一个人的脸部特征和表情覆盖至其他任何一个人的脸上,同时利用对声音的逼真处理,制造出实为合成却看似为真的音像、视频等。这种以人脸信息应用为主的深度伪造技术对社会治理和公共秩序的影响和危害是不言而喻的:第一,冲击现有社会治理结构;第二,存在社会失序的风险。在现代社会之中,人无法脱离社会以“孤岛”的状态生存,人脸信息技术的滥用尤其是深度伪造技术的快速演进消弭了社会共同体的信任,将使维系人类社会正常秩序的资讯均陷入真假难辨的困境,社会信用体系可能会崩塌。
  3.可能危及国家安全
  人脸信息技术的非法使用为政治抹黑、军事欺骗、经济犯罪甚至恐怖主义等提供了新工具,给政治安全、经济安全、社会安全带来新的风险挑战:第一,伪造技术为抹黑政治人物提供了新工具;第二,伪造特定人群影响舆论;第三,深度伪造技术或成为制造网络空间战的新型武器。此外,人脸信息虽然属于自然人所有,具有私人性,但经过大数据收集和分析的不特定多数人的庞大信息,尤其是一国国民或特定民族基因等特殊信息,一旦经历跨境流动,借助基因编辑等技术测定并被利用于生化武器开发等,会对国家安全造成巨大威胁。
  人脸识别信息技术准入审核制度的构建初探
  人脸信息技术的非法应用通常通过网络系统进行,网络传播速度快、范围广及隐蔽性强等特点使事后救济存在严重局限。为有效管控人脸信息技术应用带来的风险,亟须构建人脸信息应用技术的事前准入制度。任何法律制度设计都应有充分的理论基础作为支撑,探讨研究人脸信息应用法律规制的理论基础能够更加明确规制的可行性、基本原则、基本路径等问题,为具体路径设计提供充分的理论支撑。
  1.借鉴风险预防原则
  是否借鉴风险预防原则,应当对人脸信息应用技术的风险基础要素进行深入分析。第一,进行风险预防的前提是确有损害风险存在。人脸信息应用技术除其本身技术风险,在实践中已经出现侵犯公民人格权、隐私权、平等权、财产权等风险,存在冲击公共秩序和危害国家安全的可能,应构建人脸信息应用技术的相关法律规制满足借鉴风险预防原则的前提。第二,风险具有科学认识上的“不确定性”。从人脸信息应用的发展,尤其是深度伪造技术的演进来看,该技术应用对发生冲击公共秩序和危害国家安全的可能性较大,确有必要借鉴风险预防原则,即有必要以限制技术发展与应用或限制公民当下的部分权益来保障未来更大的法益。
  2.设立个人信息保护专门机构
  我国法律规定滞后于人脸信息应用技术发展,不能满足现实需要,但单独制定生物识别信息保护法律还需要较长的立法周期。为遏制人脸信息应用技术的社会性风险,避免出现不可逆的损害结果,构建人脸识别的法律规制必须强化风险预防意识,重在事前审查而不是依赖事后救济,因此需要政府监管部门的事前审核。目前,在我国现行法律确立的主管模式下,容易出现权责重叠、推诿扯皮的现象,多个政府部门的监管标准、程序不统一,影响了政府部门的管理效率,不利于其履行个人信息保护职责。因此,笔者建议借鉴欧盟、德国的经验,在我国设立个人信息保护的专门机构,提高人脸信息保护的专业化水平。
  3.建立事前许可机制
  人脸信息应用技术虽带来较大的效益,但由于其可能会带来社会性的系统风险,甚至有冲击公共安全、国家安全等重大法益的风险。因此,笔者认为,应当借鉴风险预防原则在人脸信息应用的法律规制引入事前许可制度,即信息处理者主张使用人脸信息技术必须获得政府专门机构的许可,以强化对信息处理者的规制,真正从源头控制人脸信息应用中的风险。

   
相关文章: