2024年11月23日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
法治经纬
5 4/5 3 4 5 > >| PDF版
本版面文章
· 与孩子聊天的AI人设是“出轨对象”
· 法律监管+技术人工审核:提升AI内容输出可控性
· “AI换脸”新类型侵权案件不断涌现

法律监管+技术人工审核:提升AI内容输出可控性

( 2024-11-23 ) 稿件来源: 法治日报法治经纬
  □ 范永开

  AI聊天角色在回答中可能出现色情擦边、暴力对话等情况,主要与“数据来源的混杂性、商业模式的诱导性、监管机制的滞后性”这三大关键因素有关。
  从数据来源维度剖析,AI剧情聊天软件背后的大语言模型,其训练数据主要来源于对话式小说或提取自小说的文本内容。然而,网络小说数量巨大且质量参差不齐,其中不乏包含色情、擦边以及暴力的内容。如果这些内容没有被有效过滤,模型在输出时就容易出现问题。
  从商业模式视角审视,部分AI剧情聊天软件为吸引用户,即便在青少年模式中,仍存在允许“擦边对话”的现象。例如通过设定极富想象力的剧情和风格迥异的人物角色来打动用户,这种商业模式不仅推动了用户黏性增长,但也容易诱导用户实施不适当行为。
  从监管角度考量,目前针对AI生成内容的监管机制尚不完善,许多平台也可能缺乏有效的内容过滤技术措施,导致一些含有色情、暴力等不当内容的对话能够顺利输出给用户。
  虽然相关企业通常会实施内容修订流程等操作,甚至建立用户反馈机制,根据用户的年龄段、身份特征等因素,限制未成年用户访问包含敏感或禁止内容在内的数据源,但实际上,受制于商业利益、技术不足等因素,全面的内容审查与控制难以实现。
  为了应对这种情况,可进一步优化大语言模型的筛选机制,以降低甚至杜绝涉黄、暴力或侮辱性内容的输出。比如对于隐蔽或隐喻等内容,可通过开发长记忆链技术来更好地捕捉语言中的长距离依赖关系,提高模型对不当内容的识别和过滤能力;或者利用词嵌入、序列模型与注意力机制等技术,来增强模型对文本内容的深度剖析能力。通过强化技术手段,模型能够更精确地理解文本中的上下文关系,从而更准确地判别文本是否包含不当内容。
  但需明确的是,技术不能解决所有的问题,还需要法律及人工介入等多种方式协同解决内容输出控制的问题。从法律角度,对用于训练大语言模型的数据进行严格的筛选与分类,确保数据源合法且内容健康,坚决剔除包含色情、暴力等不当元素的文本数据。对于现有的模型,可运用数据遗忘等技术手段,消除已有模型的不当内容输出或在干净数据上的重新训练,生成优质大模型。此外,引入人工审核机制是一种必要的手段,对自动化系统标记为敏感或禁止的内容进行人工复核,推动开放研究、社区合作、线索举报等多种措施,进一步优化大语言模型的筛选机制,最大限度减少或消除不良内容的输出。
  不良内容的输出,会对受众的思想行为产生较为严重的负面影响。更深远的影响在于,通过AI大模型的使用去改变受众的认知,影响认知安全。
  维护认知安全,需要从多个层面入手加强防护措施:首先,在技术研发阶段就应充分考虑伦理道德因素,并建立健全配套的监管机制;其次,加大对网络空间中各类信息的审核力度,及时发现并清除有害内容;再次,提升公众的信息素养教育水平,增强其辨别真伪信息的能力;最后,构建一个开放透明且富有责任感的AI生态系统,鼓励各方积极参与、共同维护良好的数字环境。
  (作者系中国传媒大学媒体融合与传播国家重点实验室、计算机与网络空间安全学院教授)

   
相关文章: