【导读】o1-preview在医疗诊断中远超人类,赛博看病指日可待?
「根据(关于)OpenAI的最新论文,o1-preview在推理任务上远远优于医生,甚至天壤之别。AI对143项困难的NEJM CPC诊断结果分别为约80%到30%。现在相信你的医生而不咨询人工智能模型是危险的。」
Deedy的言论引来百万围观。
事实究竟如何?
在解决复杂的信息学、数学和工程问题以及医疗问答方面,o1-preview模型显示出优于 GPT-4 的能力。
医疗决策远非问答,o1-preview在医学上是否已全面超越人类?
哈佛、斯坦福、微软等机构的多名医学、AI专家联手,在医学推理任务中评估了OpenAI的o1-preview。
结果显示,模型在鉴别诊断、诊断临床推理和管理推理方面,已经超越人类;建议使用更好和更有意义的评估策略,跟上自动化系统在医疗推理基准上的进步。
文章推测要使用大语言模型辅助医生,需要集成AI系统的临床试验和劳动力(再)训练。
论文链接:https://www.arxiv.org/abs/2412.10849
AI辅助诊断工具评估
在医学顶刊《JAMA》、《JAMA·内科》和《NPJ·数字医学》,有论文已指出大语言模型已在诊断基准测试中超越了人类,包括医科学生、住院医师和主治医师。
此次,针对鉴别诊断生成、推理报告、概率推理和管理推理任务,联合团队评估了o1-preview的临床多步推理能力。
与医生、已有的大语言模型相比, o1-preview在鉴别诊断以及诊断和管理推理的质量都有明显提高。
鉴别诊断
自20世纪50年代以来,评估鉴别诊断生成器的首要标准是《新英格兰医学杂志》(NEJM)发表的临床病理学会议(CPCs)病例。这是也是评估o1-preview的第一个基准。
两位医生同时评估o1-preview的鉴别诊断质量,且在143个案例中有120个结果一致。
o1-preview在鉴别诊断中准确率高达78.3%(见图1)。
图1中的o1-preview的数据是基于在《新英格兰医学杂志》(NEJM)发表的临床病理学会议(CPCs)病例。其他大语言模型或DDx生成器的数据是从文献中获得的。
o1-preview的建议的首次诊断的正确率为52%。
o1-preview在预训练截止日期前的准确率为79.8%,之后为73.5%,没有显著差异。
表1展示了o1-preview可以解决而ChatGPT4无法解决的复杂案例。
表1中Bond Score的范围是从0到5, 其中5分表示鉴别诊断列表中包含了正确的目标诊断,而0分表示鉴别诊断列表中没有接近目标的选项。
o1-preview在88.6%的病例中得出了准确或非常接近准确的诊断结果,而GPT-4只有72.9%(见图 2A)。
两名医生根据CPC中描述的患者实际治疗情况,对o1-preview提出的检查计划进行了评分,总计132例,其中113例两人的评分一致。
在87.5%的病例中,o1-preview选择了正确的检查项目,另有11%的病例中,两位医生认为所选的检查方案是有用的,只有1.5%的病例认为是没用的(图 3)。相关例子见表2。
在实验中两名医生使用「无用(unhelpful)」、「有用(helpful)」和「完全正确(exactly right)」的李克特量表对预测结果进行了测量。
并从全部病例中剔除了7个病例,因为这些病例要求进行下一次检查是不合理的。
表2中案例得分为2分,表明测试比较好,与案例计划几乎完全相同。1分表示所建议的诊断本来是有帮助的,或者可以通过病例中没有使用的测试得出诊断结果。0分表示所建议的诊断方法没有帮助。
NEJM Healer诊断案例
为评估临床推理,NEJM Healer案例专门设计了虚拟患者遭遇。
两位医生分别评估o1-preview的临床推理质量,在80个案例中,有79个案例达成了一致(约占99%)。
在80个案例中,o1-preview在78个案例中达到了完美的R-IDEA评分,其表现远超GPT-4、主治医师和住院医师,如图4A所示。
图B中的总样本量为70,其中包括来自主治医师、GPT-4和o1-preview的18个回答,以及来自住院医师的16个回答。
o1-preview在初诊报告( initial triage presentation)中识别“不能错过”的诊断的比例见图4B,包含「不能错过」的诊断的中位数比例为0.92,与GPT-4、主治医师或住院医师没有显著差异。
灰质管理案例
在真实案例基础上,25位医生专家利用共识方法开发了5个临床实例(clinical vignettes)。
测试中先将临床实例呈现给模型,然后向其提出关于下一步管理的一系列问题。
两位医生对o1-preview的五个案例的回应进行了评分,一致性相当大。
o1-preview每个案例的中位数评分为86%(图5A),优于GPT-4、使用GPT-4的医生和使用传统资源的医生。
图A共包括五个案例。o1-preview为每个案例生成一个响应,GPT-4为每个案例生成五个响应,使用GPT-4的医生总有176个响应,使用传统资源的医生总有199个响应。
使用混合效应模型估计,o1-preview比单独的GPT-4高出41.6%,比使用GPT-4的医生高出42.5%,比使用传统资源的医生高出49.0%。
标志性诊断案例
两位内科医生对o1-preview在六个诊断推理案例中的回答进行了评分,评价结果较为一致。o1-preview的中位数评分为97% (图5B)。
与历史控制数据相比,比GPT-4的得分为92%,使用GPT-4的医师得分为76%,而使用传统资源的医师为74%。
使用混合效应模型估计,o1-preview与GPT-4相比表现相当(高出4.4%),比使用GPT-4的医师高18.6%,比使用传统资源的医师高20.2%。
诊断概率推理案例
在诊断概率推理中,总使用了五个初级保健主题的案例。
以科学参考概率(scientific reference probabilities)为基准,比较了o1-preview,GPT-4和人类的概率推理能力。
其中人类由553名具有全国代表性的医疗从业者组成,包括290名住院医师、202名主治医师和61名护士或医生助理。
只有冠状动脉疾病的压力测试中,o1-preview的预测密度比模型和人类更接近参考范围。
研究的局限性
此研究也有四处主要的局限性。
首先,o1-preview有啰嗦的倾向,可能会在试验中取得更高得分。
其次,目前的研究只反映了模型性能,但现实中离不开人机交互。人机交互对开发临床决策辅助工具至关重要,下一步应该确定大语言模型(比如o1-preview)能否增强人机交互。
但人类与计算机之间的交互或许是不可预测的,甚至表现良好的模型与人类交互中可能出现退化。
第三,研究只考察了临床推理的五个方面;但已经发现了几十个其他任务,它们可能对实际的临床护理有更大影响。
第四,研究案例集中在内科,但并不代表更广泛的医疗实践,包括多个亚专业,这些专业需要各种技能,如外科决策。研究也没有考虑诊断、患者特征或就医地点的差异。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。