杨冰
阅读量:365
2025年3月,上海某三甲医院发生的一起AI辅助诊断误诊事件,将医疗AI的责任归属问题推上风口浪尖。患者李某因持续胸痛就诊,医生使用院内AI辅助诊断系统后,系统建议“排除急性心肌梗死可能”,医生据此未采取紧急介入治疗。然而,李某次日突发心梗猝死,家属起诉医院、AI系统开发商及算法工程师,要求赔偿127万元。这起全国首例AI辅助诊断误诊司法案件,不仅引发社会对医疗AI可靠性的广泛讨论,更暴露出技术、法律与伦理交织的深层矛盾。

AI辅助诊断的核心是算法模型,其准确性高度依赖训练数据的完整性与代表性。在此案中,AI系统漏诊的关键原因在于训练数据存在显著偏差:系统开发者为降低成本,未纳入足够数量的老年患者及合并症案例,导致算法对复杂病例的识别能力不足。例如,李某虽无典型心梗症状,但合并糖尿病、高血压等基础疾病,其病理特征与训练数据中的“标准案例”存在差异,最终被算法误判为“低风险”。
此外,算法本身的缺陷亦不容忽视。涉事AI系统采用深度学习中的卷积神经网络(CNN)架构,但模型未嵌入“可解释性模块”,医生无法追溯其决策逻辑。例如,系统在分析李某的心电图时,仅输出“ST段轻度抬高”的模糊结论,却未明确提示“需结合肌钙蛋白检测综合判断”,这种“黑箱式”输出直接导致医生误判。
医疗AI的“黑箱”特性,使得算法决策过程难以被医生完全理解。在此案中,主诊医生王某在庭审中陈述:“AI报告显示‘排除心梗’,我基于系统过往准确率(宣称98.3%)选择信任,未进一步核查。”然而,法院委托的第三方技术鉴定显示,涉事系统在复杂病例中的实际准确率仅76%,且存在“过度依赖单一指标”的算法缺陷。这种技术透明度的缺失,导致医生与算法之间形成“信息不对称”,最终酿成悲剧。
更严峻的是,AI系统的“自动化偏见”可能放大医疗资源分配的不公。例如,若训练数据中农村患者样本不足,算法可能对基层医院上传的影像诊断产生系统性误判,进一步加剧城乡医疗差距。
我国《民法典》第1223条明确规定:“因药品、消毒产品、医疗器械的缺陷,或者输入不合格的血液造成患者损害的,患者可以向生产者、血液提供机构请求赔偿,也可以向医疗机构请求赔偿。”然而,AI辅助诊断系统是否属于“医疗器械”存在争议。涉事AI开发商主张其产品为“辅助决策软件”,应适用《互联网诊疗监管细则》第12条中“医生对AI结果负最终审核义务”的规定;而医院则援引《医疗器械监督管理条例》第96条,强调系统已通过国家药监局注册,属于“辅助诊断类医疗器械”,开发商应承担产品责任。
司法实践中,法院最终采纳“混合过错”原则,认定三方均需担责:
医生责任:未履行《医师法》第22条规定的“专业注意义务”,未对AI建议进行人工复核,承担30%责任;
医院责任:作为系统使用方,未建立“AI决策复核机制”,违反《医疗机构管理条例》第25条,承担20%责任;
开发商责任:算法存在设计缺陷,未达到《AI医疗器械分类目录》要求的安全标准,承担50%责任。
在AI医疗纠纷中,患者往往面临举证困难。例如,李某家属需证明“AI误诊”与“死亡结果”之间的因果关系,但算法的复杂性使得传统医疗鉴定方法失效。本案中,法院委托的专家团队采用“对抗测试法”,通过输入1000例模拟数据,发现涉事系统在“非典型心梗”病例中的误诊率高达23%,远超行业平均水平(8%),从而锁定算法缺陷证据。
此外,法官在判决书中强调:“算法透明义务是开发商的核心责任。”依据最高人民法院《关于审理医疗损害责任案件适用法律解释(五)》(征求意见稿)第18条,开发商需提供“可解释性报告”,包括决策逻辑、置信度数值等关键信息,否则推定其存在过错。

此案促使医疗机构重新审视AI辅助诊断的应用边界。上海瑞金医院率先推出“AI双签字制度”:所有AI诊断结果需经主诊医生与副高以上医师共同审核,并在病历中记录复核过程。同时,医院与保险公司合作推出“AI医疗责任险”,将算法误诊纳入保障范围,分散潜在赔偿风险。
技术层面,医院开始要求开发商嵌入“置信度阈值警告”功能。例如,当AI对某一诊断的置信度低于85%时,系统自动弹窗提示“建议人工复核”,并限制医生直接采纳结果。
面对法律压力,AI医疗企业开始主动公开算法细节。涉事开发商在判决后发布《技术透明度白皮书》,披露其模型训练数据来源、特征选择逻辑及误差分析方法。同时,企业与高校合作建立“算法审计实验室”,定期接受第三方机构的安全评估。
政策层面,国家卫健委于2025年8月发布《医疗人工智能应用管理条例》,明确要求:
数据合规:训练数据需覆盖不同年龄、性别、种族及地域群体,且敏感信息必须脱敏处理;
算法备案:所有医疗AI系统需在国家药监局备案,更新版本需重新通过临床验证;
责任保险:高风险AI诊断工具(如癌症筛查系统)必须投保,保额不低于500万元。
此案暴露出医生群体对AI的过度依赖问题。中华医学会调查显示,62%的肿瘤科医生无法独立解读全基因组检测报告,78%的放射科医生未接受过AI影像分析的专项培训。为此,国家卫健委将“人工智能医学应用”纳入住院医师规范化培训核心课程,要求医生掌握算法局限性、数据偏差识别及紧急情况下的手动干预技能。
例如,北京协和医院开发的“AI诊疗模拟系统”,通过虚拟病例训练医生在AI误诊时的应急处理能力。系统记录显示,经过培训的医生在复杂病例中的诊断准确率提升41%,且更倾向于对AI建议保持审慎态度。

AI辅助诊断的权责之困,本质是技术创新与人文关怀的博弈。上海首例司法案件的判决,标志着我国医疗AI治理从“野蛮生长”迈向“规范发展”阶段。未来,需构建“政府-医院-企业-患者”四方共治格局:
政府:完善专项立法,建立算法审计体系,强制披露关键信息;
医院:优化人机协同流程,提升医生技术素养,建立风险共担机制;
企业:开放算法黑箱,强化数据伦理,将安全性纳入产品核心指标;
患者:提升数字素养,主动参与诊疗决策,通过知情同意书明确权利边界。
正如判决书中所述:“AI的价值在于延伸人类智慧,而非取代医者仁心。”当算法的精准与医学的温度相向而行,我们方能在技术狂飙的时代,守护住生命最后的防线。
寻找优质医疗资源  伴您走上康复之路