摘要:据不完全公开统计,仅春节期间DeepSeek发布以来,已有天津医科大学总医院、复旦大学附属华山医院等近百家医院宣布已本地化部署、接入DeepSeek,多家医疗领域上市公司宣布接入DeepSeek,加速公司智能化转型,已经有不少医生在医院系统里正式用上了AI。在
随着Deepseek持续火热,部分医生和患者纷纷在线种草。但在近日,「AI 误诊,患者获赔127万」的消息在各大社交平台迅速传播、引起争议。
图源:社交平台
不过,我们尚未在官方法律文书网查询到相关判例文件,业内资深医法律师对于该新闻也表示:从未听过。
关于AI误诊的医疗判决,真的出现了吗?当下医生和AI的共处,情况到底如何,其中又暗藏着哪些风险?
有人用它写病历,有人担心误诊
据不完全公开统计,仅春节期间DeepSeek发布以来,已有天津医科大学总医院、复旦大学附属华山医院等近百家医院宣布已本地化部署、接入DeepSeek,多家医疗领域上市公司宣布接入DeepSeek,加速公司智能化转型,已经有不少医生在医院系统里正式用上了AI。在“未来已来”的当下,有专家认为,AI医疗有望解决医疗资源分布不均、看病难等问题;也有专家提出了患者隐私、信息安全、伦理挑战等方面的疑虑。其中一个富有争议的问题是:医院借助AI看病,误诊了谁负责?第一批在医院用上AI的医生们,真的开始用它来看病了吗?关于这个问题,目前有一些基本共识。医生作为AI设备的使用者,要对诊疗结果进行最终复核并拥有“一锤定音”的权力,要承担相应的责任。从各家医院的部署范围来看,从病例辅助分析到报告解读,甚至辅助诊断和提供治疗建议,AI都露了一手,但在不同医院和科室中,实际使用情况却存在较大的差异。一位西安某三甲医院外科医生成了第一波AI写病历的受益者:半个月前刚接入医院系统的AI助手,可根据关键指令和信息自动生成手术记录、出院记录,医生只需稍加修改或直接最后把关即可,由此获得更多时间和精力投入到繁忙的手术中。
对于部分内科医生来说,AI则是借助其强大的引擎补足了诊断思路、让治疗方式与患者全周期管理更加全面。但在某些诊室,尽管AI给出的建议已经十分全面,部分医生依旧鲜少使用接入到医院系统的智能助手。
在浙江某三甲医院消化内科医生王成(化名)的科室内,尽管医院已经接入了 AI,医生们依旧基本不用:消化内科很多患者的症状都较为类似、但诊断却大不相同;就算是同一个病,根据不同年龄、基础情况,诊疗都会有所差异。在这样的情况下想用AI进行辅助诊断,需要输入很详细的资料、并且毫无病史隐瞒,反而一定程度上增加了医生的负担。此前,浙江大学医学院附属第二医院胸外科范军强教授曾在社交平台分享了Deepseek测评,但在实际看诊中却较少使用,在他看来,AI更像是一本字典、引导医生们拓宽诊疗思路,但对于在临床一线有几十年诊疗经验积累的成熟医生来说,参考实在有限。不同于诊疗经验碾压AI,天津大学泰达医院神经内科主任医师赵伟则是担心误诊的发生:虽然AI虽然可以基于症状、辅助检查结果给出多种诊断的可能,但如果只让其给出一个具体的诊断考虑时,则时常会出错。就在前几日,赵伟将一位确诊为平山病(又名青少年上肢远端肌萎缩症)的病案信息输入Deepseek、并让其给出最主要考虑的诊断,得到的回答却是肌萎缩侧索硬化症:这两类疾病虽然都以肌萎缩、肌无力为表现,在病因、诊疗上却存在较大差异。
从某些角度讲,Deepseek目前在医疗中的角色更像是高级版的百度,如果患者甚至医生过度依赖它,很可能导致误诊的发生。赵伟表示,当患者从医生和 DeepSeek这里得到的诊断建议不一致时,也加大了医患治疗的沟通难度和信任成本、可能导致延误治疗。
AI误诊,谁来担责?
AI医疗的法律风险被业内人士多次提及。北京航空航天大学法学院副教授赵精武解释,AI医疗在法律与合规上面临的挑战,主要包括对AI误诊的责任界定和相应法律纠纷的处理办法,以及如何平衡患者隐私保护与数据共享之间的矛盾等等。在AI医疗应用较多的海淀医院,据院长张福春介绍,“即便有AI的辅助,医生仍是最后把关人,所以如果AI诊疗出现错误,最终还是由医生担责。”中国卫生杂志也曾在文章《AI看病,误诊了谁负责?》中表示:如果AI诊疗设备被证明存在系统性缺陷并最终导致了不良后果,那么患者或医疗机构可依据《中华人民共和国民法典》第一千二百二十三条,要求其生产者进行赔偿。法律界人士指出,涉及AI诊疗的医患纠纷,责任应“人机共担”。据报道,2024年,某地一名患者因AI误诊延误治疗,法院判决医院承担70%责任,AI供应商承担30%。欧盟医疗AI误诊诉讼案中,法院也首次判定算法开发者需承担30%连带责任。这样的归责原则看似与一般医疗器械没什么两样,实际上,根据《医疗器械监督管理条例》和国家药监局发布的《人工智能医疗器械注册审查指导原则》,AI诊疗设备也确属医疗器械范畴。但与一般医疗器械不同的是,“AI医生”往往是综合患者体征指标,通过算法和“经验”直接给出“答案”,尤其在面对复杂病情时,其运算过程可能已复杂到难以被人类完全理解。这种“技术黑箱”的存在,使相关方很难证明AI产品缺陷与治疗失败的因果关系,其责任划分也就很难像一般医疗器械那样“桥归桥、路归路”。明确技术边界与责任归属,是AI医疗发展中一个绕不开的话题。当AI广泛应用于医疗,每0.1%的失误都将成为解剖技术文明缺陷的手术刀。有人说,这个时代的责任划定,实质是在人机协同的迷雾中重新标定人性的坐标;甚至有观点认为,医疗责任划分这块“绊脚石”,将使AI在短时间内难以在医疗领域大展拳脚。从技术层面看,医疗机构与高校、科研院所开展合作,培养“懂算法的医生”和“懂医学的算法工程师”,或许是解决问题的一个思路。打造AI时代的医工结合平台,将有助于提升AI决策的透明度和可解释性。这不仅是医疗责任划分的需要,也是AI诊疗工具完善和迭代的内在要求。从法律层面看,在“AI医生”走进医院之前要制定好规范,实施算法治理。立法者在制定《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《互联网信息服务算法推荐管理规定》等法律法规时,都意识到了AI技术中算法提供者的责任与义务问题。未来针对AI诊疗的算法治理,应更加聚焦于通过技术和法律等手段,规范算法设计、开发、部署及使用的系统性管理框架,确保算法公平、透明、可问责。不过,天津大学泰达医院神经内科主任医师赵伟则表示:一把优质的手术刀可以救人,也可以杀人;现阶段在医学诊疗中,AI作为一种工具的出现无疑是一种进步,是否会成为患者的夺命刀还取决于它是否被握在庸医手中;AI导致误诊,不应成为医生个人医术不精的借口。
来源:许晓锐x