促进人工智能拟人化互动服务崇法向善

  □ 林楠特
  
  近年来,多模态等人工智能技术迭代突破,推动陪伴型AI快速发展,拟人化互动服务已成为重要应用方向,在适幼照护、适老陪伴等领域展现出巨大潜力,同时也带来了诸多风险。近日,国家互联网信息办公室等部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),为人工智能拟人化互动服务健康发展和规范应用提供明确指引。
  从智能伙伴陪伴老人,到情感助手慰藉心灵,技术正以“类人”姿态打破人机隔阂,为人们带来全新体验与社会价值。但技术红利也暗藏风险:AI的无条件迎合易导致用户认知扭曲,尤其让孤独群体产生深度依赖,脱离现实人际关系;价值观尚未成熟的青少年长期与不具备真实情感智慧的AI互动,可能影响其情感耐受力和社会认知,削弱现实社交能力;当算法被注入恶意生成不良内容,更可能成为诱导自伤的隐形推手……这些风险警示我们,技术发展必须坚守安全底线、以人为本,绝不能以侵蚀人的自主性与身心健康为代价。
  拟人化互动服务的生命力,在于有温度更有尺度,够智能更守规矩。我国网络安全法、数据安全法、个人信息保护法、《未成年人网络保护条例》等已对人工智能安全发展作出规定。《办法》立足拟人化互动服务的特点,聚焦情感互动边界、用户依赖干预、数据安全、未成年人网络保护等关键环节,进一步落实法律规定,明确要求服务提供者建立健全算法机制机理审核、科技伦理审查、信息内容管理、网络和数据安全、风险预案和应急处置等管理制度;在特定情形下履行干预提醒义务,并对未成年人、老年人等群体强化特殊保护。《办法》既划定“不可为”的红线,也明确“鼓励为”的方向,是对技术创新的有力护航,也是对用户权益和公共利益的坚实守护。

  下转第二版
  上接第一版

  人工智能的终极价值在于造福人类。技术向善,关键在人、核心在治。服务提供者要扛起安全主体责任,将伦理与法治嵌入技术研发、产品设计全流程;有关部门要强化执法协作,对违法违规行为“零容忍”,为行业筑牢法治护栏;社会公众要提升AI素养,理性看待拟人化互动服务,警惕安全风险。唯有各方合力共治,才能推动AI拟人化互动服务崇法向善、行稳致远,真正以科技温暖人心。

本网站所有内容属《法治日报》所有,未经许可不得转载。