AI医疗须依法分类分级治理

本版制图/高岳
□ 曹艳林
今年《政府工作报告》明确提出,深化拓展“人工智能+”。国家卫生健康委员会把今年“世界卫生日”我国宣传主题确定为“共享科技创新,携手共促健康”,凸显了科技在医疗健康中的积极作用。
近年来,“AI+医疗”加速渗透到诊疗全流程,从分导诊、病历生成等基础服务,到肺结节、糖尿病、视网膜病变等疾病的影像辅助诊断,再到手术机器人、个性化治疗方案生成等高端应用,AI医疗应用正深刻改变着传统医疗服务模式,为提升医疗效率、优化资源配置、补足基层医疗短板提供了新路径。
与此同时,AI医疗应用的同质化、无序化问题也日益凸显:部分AI产品未经严格评估便投入临床,存在算法偏差、数据失真等隐患。对不同风险等级的AI医疗应用如采用“一刀切”监管模式,既会制约低风险AI医疗应用的快速落地,也难以防范高风险AI医疗应用的安全隐患。笔者认为,对AI医疗应用进行分类分级治理,既是破解当前AI医疗应用监管难题、防范安全风险的关键抓手,也是推动AI医疗应用与医疗卫生事业深度融合、实现高质量发展的制度保障,更是卫生健康法治建设适配科技进步的重要实践。
由于AI医疗应用具有多样性与复杂性,需要结合AI医疗应用的临床场景、风险程度、技术属性,将其划分为不同类别。对此,笔者建议根据“按场景分类、按功能定性、按风险归位”的原则,将AI医疗应用分为医疗技术服务和医疗器械产品两类。在上述基本分类的基础上,每种分类下可以根据应用场景分为管理服务、科研教学、药物研发、健康管理、辅助诊断、临床诊疗等多种具体应用。这种分类方式的合理性,在于贴合AI医疗应用的实际,实现“分类精准、权责清晰”,更搭建起AI医疗应用与现有法治体系的衔接桥梁。
从法律视角看,分类管理的本质是差别化监管,AI医疗服务由卫健部门、网信部门监管,AI医疗器械产品则由药监部门、卫健部门监管,这一逻辑与我国卫生健康法治、数据法治的立法精神相契合,是将抽象法律原则转化为具体监管实践的关键载体。通过明确不同类别AI医疗应用的监管重点与责任主体,既可避免“一放就乱、一管就死”的监管困境,也能让AI医疗应用的法治约束有清晰落点。
如果说分类管理是AI医疗应用治理的“基础框架”,那么分级准入就是守护AI医疗应用安全的“关键闸门”。笔者认为应在分类管理的基础上,构建起“风险分级、梯度准入”的准入体系,即根据不同类别AI医疗应用的风险等级,设定差异化的准入标准、审查流程与监管要求,实现“高风险严准入、低风险宽准入”。这正体现了医疗法治“预防为主、风险防控”原则。
在分级准入的具体设计看,可将AI医疗应用的风险等级划分为高、中、低三个层级,明确不同层级的准入要求。例如,高风险AI医疗应用主要包括直接参与疾病诊断、治疗决策的应用,如AI辅助手术系统、AI精准治疗方案生成系统等,这类应用直接影响患者生命健康,需经过多学科联合评估、严格的临床验证,同时建立常态化的风险监测与熔断机制,一旦出现安全隐患,立即停止应用并开展整改;中风险AI医疗应用包括AI影像辅助诊断、处方审核等应用,需经过医疗机构内部评估与相当层级的卫生健康行政部门备案,重点审查算法的准确性与数据安全性;低风险AI医疗应用包括智能分诊、病历录入辅助等应用,可由医疗机构自行评估后投入使用。
这种分级准入体系有利于实现监管效能与发展活力的平衡,并促进分类管理与法治监管的深度融合。一方面,通过对高风险AI医疗应用的严格准入,筑牢患者生命健康安全防线,遏制以往高风险AI医疗应用“野蛮生长”的乱象。另一方面,对低风险AI医疗应用简化准入流程,既为技术快速落地提供便利,也符合法治监管的比例原则,避免过度监管制约创新,鼓励AI在优化服务流程、提升管理效率中发挥作用,最终让患者受益。
科技向善,法治护航。AI医疗应用的发展,既要释放科技红利,也要守住安全底线,而分类分级治理与法治的深度衔接,正是实现这一目标的关键路径。通过科学的分类明确监管边界,借助合理的分级把控风险程度,便能在鼓励创新与保障安全之间建立起动态平衡。这不仅是对现有监管框架的优化升级,更是对未来“人工智能+医疗”深度融合的前瞻性布局。当然,分类分级治理落地实施仍面临诸多法治挑战,需要进一步完善配套制度、强化协同监管,确保“分类科学、分级合理、监管到位”,最终让AI医疗在安全可信的轨道上行稳致远,惠及每一个公众。
(作者系中国医学科学院医学信息研究所医疗卫生法制研究室主任、中国卫生法学会学术委员会副主任)