2024年05月29日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法学院
13 11/13 10 11 12 > >| PDF版
本版面文章
· 人格权请求权的概念构造与适用限制
· 建立网络暴力识别模型是关键
· 进一步加强法治在社会治理中的作用
· 以中华优秀传统文化助力中国刑事法治现代化
· 是绿色金融可持续发展的重要支柱


王燃谈网络暴力的平台技术治理——
建立网络暴力识别模型是关键

( 2024-05-29 ) 稿件来源: 法治日报法学院
  天津大学法学院王燃在《法律科学》2024年第2期上发表题为《论网络暴力的平台技术治理》的文章中指出:
  随着社交网络媒体的深入发展,侮辱、谩骂、造谣、诽谤等行为开始在网络空间蔓延,网络暴力成为法律亟须回应的社会热点问题。网络暴力是以网络为媒介,通过诽谤侮辱、煽动滋事、公开隐私等人身攻击方式,侵害他人人格权益,危害网络空间正常秩序的失范行为。网络暴力的治理,从账号管理、信息发布审核、监测预警到举报救助等各个环节,均离不开平台技术手段的支持。
  网络暴力的行为特殊性导致既有法律治理难见成效。无论是传统个案司法救济模式,还是网信部门“信息内容”监管模式,均无法有效预防、控制网络暴力。平台技术治理成为目前的主要方案并被相关立法所规定。技术治理可实现对网络暴力的事前预防、事中阻断以及信息的准确识别;平台作为“守门人”,是控制网络暴力信息的最佳着力点,其数据垄断地位也使得相关技术方案有落地可能性。
  在技术治理方式上,相关立法规定建立网络暴力识别模型、用户保障机制以及阻断处置机制等。其中,建立网络暴力识别模型是关键,其包括对信息内容的识别模型和对高危账号的识别模型。此外,除了传统的方式外,平台可传播良性信息与有害信息进行对抗性互动,以遏制、降低网络暴力信息的影响。可通过社交机器人等智能生成技术来对网络暴力言论进行正向引导。社交机器人是自动化的软件程序,通过算法自动生成内容并建立互动,很容易被视为人类账户。社交机器人技术本身是中立的,其完全有能力去生成并引导正向信息的传播,从而减轻网络暴力信息对用户的伤害。
  平台在进行网络暴力技术治理的过程中,面临着诸多法律与技术风险:针对“不良信息型”网络暴力的认定,应将个体感受、人物关系、上下文情境等要素纳入识别模型;针对平台用户权利保障风险,引入“技术正当程序”与比例原则,保障用户的被通知权、知情权、算法解释权等权利并限制平台权力;针对社交机器人安全风险,要考虑网络暴力治理场景的正当性,加强其价值观引导,确保内容可靠并控制传播边界;此外,要合理界定注意义务主体范围,由大型平台与超大型平台承担网络暴力治理义务。

   
相关文章: