|
声音 |
13 |
5/13 |
4
|
5
|
6
|
>
|
>| |
|
|
PDF版 |
|
|
|
□ 程 啸
近段时间以来,一款来自国外的Avatarify软件在朋友圈、短视频平台上迅速走红。用户只要在该软件中上传一张照片,照片上的任何人就可以扭动脖子唱一曲魔性十足的“蚂蚁呀嘿”。这不由使公众联想起2019年国内红极一时的换脸软件ZAO。这些软件都涉及深度伪造技术。 就在近日,国家网信部门和公安部门依法约谈映客、小米等11家互联网企业,督促其加强对语音社交软件和涉深度伪造技术的互联网新技术新应用安全评估,完善风险防控机制和措施,并对发现的安全隐患及时采取有效整改措施。这也让更多的公众意识到深度伪造技术所蕴含的安全隐患。 “深度伪造”是随着现代人工智能技术(尤其是语音模拟、人脸合成、视频生成等)的发展而出现的技术,是计算机“深度学习”和“伪造”组合的产物。简单地说,就是通过人工智能技术来制作虚假的视频或音频,或者对原本真实的视频或音频的内容进行修改,从而呈现与真相不符合的状态。 可以说,在深度伪造技术面前,传统的“眼见为实”“有图有真相”的说法会变得不堪一击,亲眼所见和亲耳所听的东西都可能是完全子虚乌有的。深度伪造技术的滥用会对公众的合法权益造成损害,破坏社会秩序、经济秩序和政治秩序,损害社会公共利益乃至危害国家安全,包括我国在内的许多国家的法律都对之作出规范,例如换脸软件ZAO上线不久,就被工信部约谈。 目前我国尚未发生因深度伪造技术而产生侵权纠纷案件,但实践中,一些违法犯罪分子利用深度伪造技术侵害他人人身财产权益的情形屡见不鲜。从被侵害的民事权益的类型看,这些侵害行为包括以下几种: 首先,利用深度伪造技术,实现移花接木,会对他人名誉权构成侵害。我国民法典第1024条规定:“民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。”制作虚假色情视频,是深度伪造技术最早也是最常见的非法运用方式之一。利用该技术能将一些知名歌星、影星等公众人物的脸移转到色情明星身上,伪造逼真的色情场景。这些虚假色情视频一经传播,公众可能真假莫辨,从而导致受害人的名誉严重受损。即便不是用于制作色情视频,深度伪造技术也完全可以通过制造虚假的视频或音频,侵害自然人、法人或非法人组织的名誉权,进而给其造成财产损失以及精神损害。 其次,深度伪造技术会构成对自然人肖像权的侵害。运用深度伪造技术,可以实现所谓的“换脸”,即将某个自然人的脸部形象逼真地移植到他人身上,从而构成对该自然人肖像权的侵害。我国在编纂民法典时,有单位提出,利用信息技术手段“深度伪造”他人的肖像、声音,不仅侵害自然人的人格权益,严重的还可能造成恶劣的社会影响,危害国家安全和社会公共利益,建议法律对深度伪造技术带来的“换脸”等问题予以回应。后来民法典在制定时采纳了这一意见——第1019条第1款明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。 再次,深度伪造技术为违法犯罪分子实施诈骗等行为提供了便利。实践中,一些犯罪分子利用深度伪造技术,非常逼真地克隆出被害人的近亲属、朋友或同事的声音,然后轻易地骗取巨额钱财。据报道,2019年3月,就有犯罪分子使用深度伪造技术成功模仿了英国某能源公司的母公司CEO的声音,从而诈骗了22万欧元。从民法角度说,这种行为侵害了他人财产权,而从刑法角度讲则可能构成诈骗等犯罪,均应依法承担法律责任。 最后,在深度伪造技术利用的过程中,还往往会涉及非法收集、买卖个人信息的违法行为。我国民法典、网络安全法等法律对于个人信息保护作出明确规定,人的脸部特征信息就属于生物识别信息。而深度伪造技术能够应用的一个重要前提,就是要大量处理包括生物识别信息在内的个人信息。因此,深度伪造技术还会侵害自然人的个人信息权益。 总之,由于目前业界还没有相关标准对这些用深度伪造技术制作出来的假视频、假音频进行检测,因此,公众因深度伪造技术遭受侵害时,往往很难加以证明并得到有效救济。这就迫切需要从民法、刑法、行政法等多个角度对于深度伪造技术进行严格规范,从而充分保护广大民事主体的合法权益。此次两部门约谈一些互联网企业,要求其对这一技术进行安全评估,也旨在督促企业履行主体责任,实现有效的事先风险管理,这也会为以后从法律角度进行规制积累有益经验。 (作者系清华大学法学院副院长、教授)
|
|
谨防深度伪造技术侵害公众利益
|
|
|
|
( 2021-03-24 ) 稿件来源: 法治日报声音 |
|
□ 程 啸
近段时间以来,一款来自国外的Avatarify软件在朋友圈、短视频平台上迅速走红。用户只要在该软件中上传一张照片,照片上的任何人就可以扭动脖子唱一曲魔性十足的“蚂蚁呀嘿”。这不由使公众联想起2019年国内红极一时的换脸软件ZAO。这些软件都涉及深度伪造技术。 就在近日,国家网信部门和公安部门依法约谈映客、小米等11家互联网企业,督促其加强对语音社交软件和涉深度伪造技术的互联网新技术新应用安全评估,完善风险防控机制和措施,并对发现的安全隐患及时采取有效整改措施。这也让更多的公众意识到深度伪造技术所蕴含的安全隐患。 “深度伪造”是随着现代人工智能技术(尤其是语音模拟、人脸合成、视频生成等)的发展而出现的技术,是计算机“深度学习”和“伪造”组合的产物。简单地说,就是通过人工智能技术来制作虚假的视频或音频,或者对原本真实的视频或音频的内容进行修改,从而呈现与真相不符合的状态。 可以说,在深度伪造技术面前,传统的“眼见为实”“有图有真相”的说法会变得不堪一击,亲眼所见和亲耳所听的东西都可能是完全子虚乌有的。深度伪造技术的滥用会对公众的合法权益造成损害,破坏社会秩序、经济秩序和政治秩序,损害社会公共利益乃至危害国家安全,包括我国在内的许多国家的法律都对之作出规范,例如换脸软件ZAO上线不久,就被工信部约谈。 目前我国尚未发生因深度伪造技术而产生侵权纠纷案件,但实践中,一些违法犯罪分子利用深度伪造技术侵害他人人身财产权益的情形屡见不鲜。从被侵害的民事权益的类型看,这些侵害行为包括以下几种: 首先,利用深度伪造技术,实现移花接木,会对他人名誉权构成侵害。我国民法典第1024条规定:“民事主体享有名誉权。任何组织或者个人不得以侮辱、诽谤等方式侵害他人的名誉权。”制作虚假色情视频,是深度伪造技术最早也是最常见的非法运用方式之一。利用该技术能将一些知名歌星、影星等公众人物的脸移转到色情明星身上,伪造逼真的色情场景。这些虚假色情视频一经传播,公众可能真假莫辨,从而导致受害人的名誉严重受损。即便不是用于制作色情视频,深度伪造技术也完全可以通过制造虚假的视频或音频,侵害自然人、法人或非法人组织的名誉权,进而给其造成财产损失以及精神损害。 其次,深度伪造技术会构成对自然人肖像权的侵害。运用深度伪造技术,可以实现所谓的“换脸”,即将某个自然人的脸部形象逼真地移植到他人身上,从而构成对该自然人肖像权的侵害。我国在编纂民法典时,有单位提出,利用信息技术手段“深度伪造”他人的肖像、声音,不仅侵害自然人的人格权益,严重的还可能造成恶劣的社会影响,危害国家安全和社会公共利益,建议法律对深度伪造技术带来的“换脸”等问题予以回应。后来民法典在制定时采纳了这一意见——第1019条第1款明确规定,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。 再次,深度伪造技术为违法犯罪分子实施诈骗等行为提供了便利。实践中,一些犯罪分子利用深度伪造技术,非常逼真地克隆出被害人的近亲属、朋友或同事的声音,然后轻易地骗取巨额钱财。据报道,2019年3月,就有犯罪分子使用深度伪造技术成功模仿了英国某能源公司的母公司CEO的声音,从而诈骗了22万欧元。从民法角度说,这种行为侵害了他人财产权,而从刑法角度讲则可能构成诈骗等犯罪,均应依法承担法律责任。 最后,在深度伪造技术利用的过程中,还往往会涉及非法收集、买卖个人信息的违法行为。我国民法典、网络安全法等法律对于个人信息保护作出明确规定,人的脸部特征信息就属于生物识别信息。而深度伪造技术能够应用的一个重要前提,就是要大量处理包括生物识别信息在内的个人信息。因此,深度伪造技术还会侵害自然人的个人信息权益。 总之,由于目前业界还没有相关标准对这些用深度伪造技术制作出来的假视频、假音频进行检测,因此,公众因深度伪造技术遭受侵害时,往往很难加以证明并得到有效救济。这就迫切需要从民法、刑法、行政法等多个角度对于深度伪造技术进行严格规范,从而充分保护广大民事主体的合法权益。此次两部门约谈一些互联网企业,要求其对这一技术进行安全评估,也旨在督促企业履行主体责任,实现有效的事先风险管理,这也会为以后从法律角度进行规制积累有益经验。 (作者系清华大学法学院副院长、教授)
|
|
|