|
法治政府
|
|
□ 本报记者 刘欣
近年来,深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。 近日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),明确了深度合成服务的一般规定、深度合成数据和技术管理规范、监督检查与法律责任、相关用语的含义等。 国家网信办有关负责人表示,出台《规定》,旨在加强互联网信息服务深度合成管理,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。 避免滥用深度合成技术 AI换脸、语音合成、虚拟主播……随着各类商业化产品普及,深度合成的信息内容在网络上大量涌现,越来越多的社会公众接触到了深度合成技术。 据悉,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息技术。近年来,深度合成技术应用广泛、形式多样,在影视、传媒、教育等领域有大量应用形式,可实现特效制作、元宇宙场景、虚拟仿真教学等功能。 但当前,网络传播环境日趋复杂,新型合成方法层出不穷,技术滥用的风险也在不断加剧。记者了解到,此前有不法分子通过非法获取的他人照片或有偿收购的他人声音等“物料”,利用人工智能技术将照片合成动态视频,仿冒他人身份进行电信网络诈骗、网络赌博等;更有不法分子利用AI技术移花接木制作不雅视频,将视频中的人脸换成明星后在网络上出售。 国家网信办有关负责人表示,出台《规定》,是防范化解安全风险的需要,也是促进深度合成服务健康发展、提升监管能力水平的需要。 《规定》明确了制定目的依据、适用范围、部门职责和导向要求。明确在中华人民共和国境内应用深度合成技术提供互联网信息服务,适用本规定。明确国家和地方网信部门统筹协调深度合成服务的治理和相关监督管理职责,国务院电信主管部门、公安部门以及地方相关部门的监督管理职责。明确提供深度合成服务的总体要求。鼓励相关行业组织加强行业自律。 建议研制相关标准规范 常言道,耳听为虚,眼见为实。但随着科技的发展,“以假乱真”的画面、声音、视频等并不少见,给人带来困扰。此次《规定》明确了深度合成服务提供者的标识要求,引发热议。 国家网信办有关负责人介绍,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依法依规保存日志信息。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等具有生成或者显著改变信息内容功能服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示信息内容的合成情况,避免公众混淆或者误认;提供非上述深度合成服务的,应当提供显著标识功能,并提示使用者可以进行显著标识。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。 中国科学院信息工程研究所所长孟丹认为,《规定》充分结合深度合成技术特点与发展趋势,提出了针对深度合成服务和技术的普适性的规范思路,但在生成合成类算法服务范围、深度合成技术具体范围、深度合成服务业务分类、显式标识条件与标识方式、隐式标识方法与识别等诸多具体方面,亟须行业内部进一步细化相关配套标准规范。 “在实际落地过程中,建议行业内推进产业联盟建立,研制相关标准规范,以产业自治、多方共治的方式,不断推进深度合成技术应用高质量发展。”孟丹建议。 《规定》还明确了深度合成服务提供者和技术支持者的数据和技术管理规范。国家网信办有关负责人介绍,一是加强训练数据管理。采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定;提供人脸、人声等生物识别信息显著编辑功能的,应当提示使用者依法告知被编辑的个人,并取得其单独同意。 二是加强技术管理。定期审核、评估、验证生成合成类算法机制机理;提供具有对人脸、人声等生物识别信息或者可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息编辑功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。 聚焦违法不良信息治理 值得注意的是,《规定》还聚焦违法和不良信息治理,引导深度合成服务向上向善。 “针对利用深度合成服务制作、复制、发布、传播违法信息等行为,《规定》划定‘红线’,规定不得利用深度合成服务开展法律法规禁止的活动,要求深度合成服务提供者制定和公开管理规则、平台公约,完善服务协议,依法依约履行信息安全管理责任。发现违法和不良信息的,依法采取处置措施,保存有关记录,及时向有关主管部门报告。”中国科学院自动化研究所所长徐波说。 《规定》还明确了监督检查与法律责任:具有舆论属性或者社会动员能力的深度合成服务提供者、技术支持者应当履行备案和变更、注销备案手续。上线具有舆论属性或者社会动员能力的新产品、新应用、新功能的,应当开展安全评估。深度合成服务提供者、技术支持者应当依法配合网信部门和有关主管部门开展的监督检查,并提供必要的支持和协助。发现存在较大信息安全风险的,网信部门和有关主管部门可以按照职责依法要求其采取暂停信息更新、用户账号注册或者其他服务等措施。明确违反规定的法律责任。 徐波认为,《规定》统筹各方力量,构建政府监管、企业履责、行业自律、社会监督的多元共治体系,将网络信息内容生态治理和深度合成服务管理有机结合,通过贯穿深度合成服务事前事中事后的监管模式,针对不同的深度合成活动给出规范要求,进一步明确深度合成服务提供者、技术支持者和使用者以及应用程序分发平台责任,鼓励推动行业自律和出台标准规范,要求社会监督和申诉渠道畅通,及时处理公众诉求,对深度合成服务管理提出了兼具针对性、指导性、规范性的中国方案。 国家互联网信息办公室有关负责人指出,深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进互联网信息服务健康发展,维护网络空间良好生态。
|
三部门发布《互联网信息服务深度合成管理规定》
|
提供深度合成服务应进行显著标识
|
|
|
|
( 2022-12-16 ) 稿件来源: 法治日报法治政府 |
|
□ 本报记者 刘欣
近年来,深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。 近日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》),明确了深度合成服务的一般规定、深度合成数据和技术管理规范、监督检查与法律责任、相关用语的含义等。 国家网信办有关负责人表示,出台《规定》,旨在加强互联网信息服务深度合成管理,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。 避免滥用深度合成技术 AI换脸、语音合成、虚拟主播……随着各类商业化产品普及,深度合成的信息内容在网络上大量涌现,越来越多的社会公众接触到了深度合成技术。 据悉,深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息技术。近年来,深度合成技术应用广泛、形式多样,在影视、传媒、教育等领域有大量应用形式,可实现特效制作、元宇宙场景、虚拟仿真教学等功能。 但当前,网络传播环境日趋复杂,新型合成方法层出不穷,技术滥用的风险也在不断加剧。记者了解到,此前有不法分子通过非法获取的他人照片或有偿收购的他人声音等“物料”,利用人工智能技术将照片合成动态视频,仿冒他人身份进行电信网络诈骗、网络赌博等;更有不法分子利用AI技术移花接木制作不雅视频,将视频中的人脸换成明星后在网络上出售。 国家网信办有关负责人表示,出台《规定》,是防范化解安全风险的需要,也是促进深度合成服务健康发展、提升监管能力水平的需要。 《规定》明确了制定目的依据、适用范围、部门职责和导向要求。明确在中华人民共和国境内应用深度合成技术提供互联网信息服务,适用本规定。明确国家和地方网信部门统筹协调深度合成服务的治理和相关监督管理职责,国务院电信主管部门、公安部门以及地方相关部门的监督管理职责。明确提供深度合成服务的总体要求。鼓励相关行业组织加强行业自律。 建议研制相关标准规范 常言道,耳听为虚,眼见为实。但随着科技的发展,“以假乱真”的画面、声音、视频等并不少见,给人带来困扰。此次《规定》明确了深度合成服务提供者的标识要求,引发热议。 国家网信办有关负责人介绍,深度合成服务提供者对使用其服务生成或者编辑的信息内容,应当采取技术措施添加不影响用户使用的标识,并依法依规保存日志信息。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等具有生成或者显著改变信息内容功能服务的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示信息内容的合成情况,避免公众混淆或者误认;提供非上述深度合成服务的,应当提供显著标识功能,并提示使用者可以进行显著标识。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。 中国科学院信息工程研究所所长孟丹认为,《规定》充分结合深度合成技术特点与发展趋势,提出了针对深度合成服务和技术的普适性的规范思路,但在生成合成类算法服务范围、深度合成技术具体范围、深度合成服务业务分类、显式标识条件与标识方式、隐式标识方法与识别等诸多具体方面,亟须行业内部进一步细化相关配套标准规范。 “在实际落地过程中,建议行业内推进产业联盟建立,研制相关标准规范,以产业自治、多方共治的方式,不断推进深度合成技术应用高质量发展。”孟丹建议。 《规定》还明确了深度合成服务提供者和技术支持者的数据和技术管理规范。国家网信办有关负责人介绍,一是加强训练数据管理。采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定;提供人脸、人声等生物识别信息显著编辑功能的,应当提示使用者依法告知被编辑的个人,并取得其单独同意。 二是加强技术管理。定期审核、评估、验证生成合成类算法机制机理;提供具有对人脸、人声等生物识别信息或者可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息编辑功能的模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。 聚焦违法不良信息治理 值得注意的是,《规定》还聚焦违法和不良信息治理,引导深度合成服务向上向善。 “针对利用深度合成服务制作、复制、发布、传播违法信息等行为,《规定》划定‘红线’,规定不得利用深度合成服务开展法律法规禁止的活动,要求深度合成服务提供者制定和公开管理规则、平台公约,完善服务协议,依法依约履行信息安全管理责任。发现违法和不良信息的,依法采取处置措施,保存有关记录,及时向有关主管部门报告。”中国科学院自动化研究所所长徐波说。 《规定》还明确了监督检查与法律责任:具有舆论属性或者社会动员能力的深度合成服务提供者、技术支持者应当履行备案和变更、注销备案手续。上线具有舆论属性或者社会动员能力的新产品、新应用、新功能的,应当开展安全评估。深度合成服务提供者、技术支持者应当依法配合网信部门和有关主管部门开展的监督检查,并提供必要的支持和协助。发现存在较大信息安全风险的,网信部门和有关主管部门可以按照职责依法要求其采取暂停信息更新、用户账号注册或者其他服务等措施。明确违反规定的法律责任。 徐波认为,《规定》统筹各方力量,构建政府监管、企业履责、行业自律、社会监督的多元共治体系,将网络信息内容生态治理和深度合成服务管理有机结合,通过贯穿深度合成服务事前事中事后的监管模式,针对不同的深度合成活动给出规范要求,进一步明确深度合成服务提供者、技术支持者和使用者以及应用程序分发平台责任,鼓励推动行业自律和出台标准规范,要求社会监督和申诉渠道畅通,及时处理公众诉求,对深度合成服务管理提出了兼具针对性、指导性、规范性的中国方案。 国家互联网信息办公室有关负责人指出,深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进互联网信息服务健康发展,维护网络空间良好生态。
|
|
|