“AI医生”不具备处方权
转自:法治日报
□ 本报记者 赵丽 □ 本报实习生 陈颖 近期,湖南省医疗保障局发布《关于进一步加强基本医疗保障定点零售药店管理的通知》明确,严禁使用人工智能等自动生成处方。一时间,“湖南严禁用AI生成处方”话题冲上热搜榜。 《法治日报》记者采访发现,有不少医生已经在医院系统里正式用上了AI辅助诊疗技术。那么,用AI辅助诊疗时能不能自动生成处方呢? 中国卫生法学会副会长郑雪倩告诉记者,AI处方是指在一定范围内,依托互联网大数据技术深度整合数据资源,对患者描述的症状进行分析比对,筛选总结该症状的疾病类型归属,以及适用的治疗方式等,综合向患者提供临床诊断及用药建议。 “处方药必须凭执业医师或执业助理医师处方才可调配、购买和使用。开处方背后涉及‘责任主体’‘职业权力’等一系列复杂因素,‘AI医生’首先是机器,而非人,因此不可能具备处方权。”中国卫生法学会常务理事、北京市华卫律师事务所副主任邓利强说,医生可以利用AI进行辅助医疗,但绝不能直接利用AI开处方。 在郑雪倩看来,如果想利用好AI处方,目前存在较多问题需要解决。 首先,AI处方依赖于历史数据进行训练,而这些数据来源存在区域局限性,不能保证每一个病种的反应和治疗都能计入大数据并被AI系统搜集到。 其次,AI处方缺乏医生对患者个体情况的全面诊疗能力。AI通过分析患者的病情、病史和体征等数据按照一般规律生成处方,其诊断能力和个性化判断有限。 AI在“望闻问切”中的局限性十分明显,无法像医生一样面对面交流、体格检查,仅能通过患者的问诊数据进行分析,无法像医生一样进行“切诊”,即无法对患者直接进行实体诊查。特别需要指出的是,如果患者输入的发病诱因、发病的体征、症状、完整过程等关键要素的真实性和准确性有误,得出的诊断结论和诊治方案可能会出现误差,甚至误诊。因此患者本人也可能成为医疗损害的责任人之一。 最后,AI缺乏医生与患者之间深度的思维沟通和情感交流。医生在诊疗过程中会结合临床经验、病情进展以及患者的个体差异进行必要的提问再进行综合判断,这种能力是AI难以完全模拟的。 如果患者因使用AI处方导致出现误诊、漏诊等医疗事故,谁来担责? 在郑雪倩看来,AI处方出现问题后责任归属较为复杂。根据现行法律,应当遵循“谁开处方谁负责”的原则,但AI作为工具无法独立承担法律责任,此时需要具体讨论该AI机器的所有权人、使用人、管理人的法律责任问题。但AI生成的处方在法律属性和责任主体方面仍存在诸多争议。例如,AI是否具备法律主体资格?其责任应由生产商、计算机平台,还是由使用该系统的医院或其他方承担?这些问题都需要进一步讨论和明确。 “而且,患者的损害后果与AI医疗是否存在因果关系,还需要由鉴定机构或专家对此进行专业鉴定,进而处理赔偿问题,对此可参照《医疗事故处理条例》相关规定解决。对于造成患者损害的AI医疗行为是否属于非法行医、是否构成医疗事故等问题都值得未来继续探讨。”郑雪倩说。 采访中,有从业者提出,以前线下药店的处方药违规销售问题尚未完全根治,AI技术的介入可能使这一顽疾以更隐蔽的方式扩散,自动生成处方系统若被滥用,可能催生一个新的处方药滥用灰色链条。 邓利强说:“如果可以随意用AI生成处方,可能会导致药物滥用的情况加剧,会让我们的用药安全受到威胁,所以湖南省严禁使用人工智能自动生成处方是非常正确的决定。” “所谓的处方药通常会具有一定的药理作用,比如可能会对人体产生较大的副作用或依赖性,因此其用药方法、剂量和时间都有特殊要求,必须在医生的指导下使用。而AI虽然可以处理海量数据,但难以像人类医生那样对复杂情况作出精准的判断。”邓利强说,禁用AI开处方表面看是保守,其实是将安全红线拉满,医疗关乎生命健康,容不得半点马虎。