2024年06月24日 上一期 下一期
3上一篇  4下一篇  
返回本版列表    点击率:  字体: 放大  默认  缩小  
环球法治
9 5/9 4 5 6 > >| PDF版
本版面文章
· 废除“撞火枪托”禁令背后党争色彩深厚
· 司法工具化戳穿美国宪政虚伪外衣
· 仅靠行业自律无法解决多重风险

13名人工智能技术专业人士联名公开信发出警告
仅靠行业自律无法解决多重风险

( 2024-06-24 ) 稿件来源: 法治日报环球法治
  当地时间2021年4月20日,德国爱尔福特,一只机器狗在广场行走。 CFP供图
  □ 本报记者 吴琼

  伴随着人工智能发展突飞猛进,与这一行业相关的伦理和法律问题逐渐涌现。近日,来自美国开放人工智能研究中心(OpenAI)和谷歌旗下人工智能公司“深层思维”(DeepMind)的13名现任及离职员工成为揭露这一行业内幕的“吹哨人”。在OpenAI前工程师丹尼尔·齐格勒和前员工丹尼尔·科科塔耶罗牵头下,上述13人发表联名公开信,警示人工智能企业及整个行业缺乏有效监管,人工智能行业的“吹哨人”缺乏法律保护,这一行业在这样的境况下快速发展存在多重风险,令人担忧。
“吹哨人”揭露行业内幕
  据多家外媒报道,这封公开信刊载在righttowarn.ai网站上,标题为“对先进人工智能发出警告的权利”,呼吁对人工智能行业进行全面改革,包括加强监管和保护“吹哨人”。
  “人工智能技术有潜力为人类带来前所未有的福祉,与此同时这些技术也带来严峻挑战,全球各国政府、人工智能专家及人工智能企业都已意识到了这些风险。”公开信指出,人工智能企业监管缺失,然而受利益驱使,这类企业极力避免接受有效监管,而目前的企业治理架构也不足以改变现状。
  “吹哨人”还在信件中充满担忧地指出,不受监管的人工智能会导致虚假信息传播、人工智能系统丧失独立性、社会阶层不平等深化等多重风险。
  与此同时,人工智能行业“吹哨人”缺乏法律保护。而且,受保密协议所限,人工智能企业员工往往无法对外实质性披露所在企业实际掌握的人工智能实力。
  为此,联名公开信要求OpenAI及所有人工智能企业都不得签订或执行避免批评人工智能风险的保密协议,不能通过损害“吹哨人”的既得经济利益来打击报复,而且要为现任和前任员工提供“可验证的匿名流程”,以便其向公司董事会、监管机构和具有相关专业知识的独立组织提出与人工智能风险相关的担忧,前提是“吹哨人”需要对公司的商业机密和其他知识产权利益进行适当保护。
  据了解,被誉为“人工智能教父”的杰弗里·辛顿、因开创性人工智能研究获得图灵奖的约书亚·本吉奥以及人工智能安全领域知名学者斯图尔特·罗素都为这封联名公开信做了背书。
OpenAI回应并未平息争议
  随着人工智能技术的快速发展,各类与此息息相关的伦理和法律问题如雨后春笋般涌现。
  加拿大全球新闻网近日报道称,一份来自加拿大魁北克人工智能研究所的最新报告指出,人工智能可能呈现各种各样的发展轨迹,囊括非常积极和非常消极的结果,包括人工智能可能通过虚假信息、欺诈以及网络攻击造成伤害,甚至人类可能失去对人工智能的控制。
  不少美国媒体还曾担忧,OpenAI的ChatGPT和Dall·E(美国图像生成系统。由OpenAI于2021年1月推出)可能被用于通过虚假新闻报道以及由计算机生成的图像和视频来操纵选民。
  正因如此,公开信的发布,不仅在人工智能行业引发震荡,还引起全球范围广泛关注。
  6月4日,即公开信发布当天,OpenAI迅速作出回应,声称已设立匿名举报热线及安全委员会,以保护人工智能行业的“吹哨人”,相信“能以科学方法应对风险”。
  不过,这一表态并未平息外界的争议及担忧。即便在OpenAI内部,与此相关的不同意见也还在持续。
  实际上,早在上个月,因不满忽视潜在风险和问题,OpenAI就出现内部动荡,核心安全团队解散。
  5月14日,OpenAI联合创始人兼首席科学家伊利亚·苏茨克韦尔宣布离职。有报道援引消息人士的话称,OpenAI内部注重人工智能系统安全的员工已经对首席执行官萨姆·奥尔特曼的领导失去信心;5月15日,OpenAI原核心安全团队“超级对齐”负责人杨·莱克在社交网络发文,宣布他本人已辞职,此后这一团队的其他多名核心成员陆续离职,团队就此解散。杨·莱克5月17日还在推文中怒斥OpenAI“在追求华而不实的产品”,质疑OpenAI“不再关心安全”。他表示,过去几年,安全文化和流程已经让位于“闪耀的产品”。这也是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。
弥补监管缺失迫在眉睫
  分析人士指出,13位“吹哨人”联名的公开信警示人工智能监管缺失风险,给各国政府和立法机构敲响了警钟:仅仅依靠行业自律显然无法解决人工智能快速发展的同时触发的多重风险。
  为推动全球人工智能产业健康有序发展,不少专家建议,各国政府应该尽快推进人工智能法的制定和出台,以人工智能法及配套的监管工具为核心,形成完整的人工智能技术法律体系。
  近几年来,欧盟、美国等全球多个国家和地区,都出台了一系列人工智能监管法律法规,主要涉及隐私保护、数据安全、算法反歧视等方面。然而,人工智能监管仍然存在法律空白,且目前的监管法律也需要随着人工智能行业的发展与时俱进。
  值得一提的是,充分认识人工智能带来的风险,还需要各国政府、立法机构与科技界、产业界紧密合作,后者向前者坦诚介绍人工智能的发展状况和风险,帮助其了解和理解,进而制定规范,调动资源,有效监管,如此才谈得上有效控制风险。
  正如曾领导创建联合国人工智能和机器人中心的人工智能专家伊莱克利·伯利兹所言:“我们要全方面地了解人工智能。有效监管的目的就是要让国际社会以及社区中的每一个人都能够享受到这种技术带来的好处,并想办法规避它的风险。”
  公开信的牵头人之一丹尼尔·齐格勒近日也指出,他们发表这一公开信的目的并非为了指责OpenAI等人工智能企业,而是希望借此机会让全部人工智能前沿企业切实投入,强化监管、增加透明度,增进公众信任。

   
相关文章: