智能工具不是决策主导者
□ 肖 芃
最近,杭州互联网法院审结的全国首例“AI幻觉”侵权诉讼案件,受到了社会高度关注。案情并不复杂:梁某使用某生成式AI应用询问某高校报考信息,得到了关于该高校校区的不准确信息。即便梁某及时对AI进行了纠正,AI仍坚称存在这一校区,甚至承诺若有误将赔偿10万元,并建议起诉。随后,梁某以该AI大模型的研发、部署公司为被告提起诉讼,要求赔偿损失。最终法院依法驳回其诉讼请求。
法院裁判理由有以下三点:其一,我国法律未赋予人工智能以民事主体资格,AI不能独立作出有法律约束力的意思表示,因此AI作出的“赔偿”表示,不构成法律意义上的“承诺”;其二,基于“人类负责制”的原则,人工智能系统带来的利益和风险,应由AI模型的研发、部署者承担,而AI服务不属于产品,应适用过错责任原则,需根据服务类型、风险场景等对服务提供者的注意义务作出类型化区分,兼顾权益保护与技术发展,案件中被告公司已尽到相关注意义务,不具有过错;其三,根据无损害不赔偿的原则,梁某在案件中并未产生实际损失,被告公司不需要赔偿。
这起案件备受瞩目,不仅因其是全国首例“AI幻觉”侵权案,深入阐释了AI生成内容的性质、服务提供者的责任边界以及侵权构成要件等核心问题,为类似纠纷处理提供了重要裁判指引,更在于其警示意义,为全社会理性看待AI敲响警钟。
当前,以大型语言模型为代表的生成式AI,凭借高效的信息整合与流畅的内容生成能力,广泛应用于教育、办公、咨询等领域,大幅提升了人们的工作效率,拓宽了创新空间。但技术便利的背后,潜藏着认知偏差:部分使用者逐渐将AI工具权威化、人格化,甚至将其视为可完全托付重要决策的“专家”。这种认知恰恰忽略了AI的技术本质——它仅是一种统计模型,基于海量语料训练生成内容,输出的是概率关联下的语言序列,而非基于事实认知的“真知”。
“AI幻觉”正是这一技术局限的典型表现。从媒体报道和用户反馈看,大模型生成内容虽常呈现结构完整、语气笃定的特点,却时常包含虚构事实、逻辑矛盾或过时信息。这类输出极具迷惑性,使用者若不加以甄别,极易被误导,进而引发不良后果。如何与AI良性共存,让其真正为人所用,最大限度避免其带来的风险和误判,已成为摆在大众面前的重要命题。
对普通使用者而言,首要任务是确立“AI是工具,而非主体”的核心认知。要清醒认识到,在当前技术条件下,AI仅是一种高度智能的工具,是生产生活中的文本辅助生成器与信息查询辅助工具,它不懂事实的本质,只遵循概率的逻辑,其价值在于节省时间、提供思路、整合信息,但工具的局限性决定了它难免出现错误,绝不能将AI当作“决策替代者”。因此,最终的审核权、决策权必须掌握在使用者手中——人才是自身行为与决策的最终把关者。在使用AI时,必须保持审慎怀疑的态度,切勿盲目轻信,应通过多方验证,审慎决定是否采纳相关信息。
有评论者认为,这一判决将对我国法院审理类似案件产生重要参考价值,有助于我国AI行业的发展与创新。从行业层面说,《生成式人工智能服务管理暂行办法》已为AI行业划定了法治红线。但面对快速迭代的技术与日益复杂的应用场景,除了充分发挥司法裁判的引领、规范作用之外,还需要推动制度持续完善细化。比如,进一步规范AI的研发、部署与使用的全流程,从算法、算力、数据集等多个层面明确服务提供者的必要、合理注意义务,进一步完善训练数据质量规范,健全错误内容发现、纠偏与反馈机制,从制度层面防范“AI幻觉”引发的侵权风险。尤其要结合AI的应用场景、风险程度等,分类型、有区别地制定提高内容准确性的规则与标准,对影响人身安全、社会信任和伦理底线的“高风险”领域,采取更为严格的标准要求。
无论技术如何迭代发展,AI始终是工具,人始终是技术的主宰者与决策的主导者。数字时代,我们既要主动拥抱技术带来的效率革新,也要时刻保持清醒头脑与独立判断。唯有具备识别风险、验证信息、独立判断的能力,才能真正实现为人所用,在技术进步与风险防控之间找到精准平衡,让AI真正成为推动社会发展的有益助力。
(作者系杭州互联网法院跨境贸易法庭庭长)