当AI进入临床决策:OpenEvidence如何重做医学搜索

AI PM 编辑部 · 2025年09月05日 · 7 阅读 · AI/人工智能

正在加载视频...

视频章节

在No Priors这期访谈中,OpenEvidence创始人Daniel Nadler谈到一个被多数AI团队“主动回避”的高风险领域:临床决策支持。他分享了为何医学AI的本质是语义搜索、为什么指南医学仍然依赖Google,以及他如何把这一切打造成医生眼中的“专业工具”。

当AI进入临床决策:OpenEvidence如何重做医学搜索

在No Priors这期访谈中,OpenEvidence创始人Daniel Nadler谈到一个被多数AI团队“主动回避”的高风险领域:临床决策支持。他分享了为何医学AI的本质是语义搜索、为什么指南医学仍然依赖Google,以及他如何把这一切打造成医生眼中的“专业工具”。

为什么大多数AI团队不敢碰临床决策

这一段对话的重要性在于,它解释了医学AI为什么进展缓慢,也点出了OpenEvidence选择这条路的勇气。节目一开始,主持人就提到“高风险临床决策”在AI圈里几乎是一个自我筛选掉的方向。Daniel Nadler并没有否认这一点,而是直言不讳地指出:很多人觉得这件事“太有野心”,失败成本也极高。

他形容,大多数从AI视角出发的人,都会刻意避开直接影响患者诊断和治疗的场景。但医学世界的现实是,医生每天都在做高 stakes 的信息判断,而工具却长期停留在搜索引擎和静态指南层面。这种反差,正是OpenEvidence存在的前提。

Daniel在这里抛出一个很有分量的判断:如果AI只能做低风险、边缘性的辅助工作,那它永远无法真正改变医疗体系。这种对“难而正确之事”的坚持,也为后面关于产品设计和技术取舍埋下了伏笔。

从诊断到推荐,本质其实是一个搜索问题

这一节之所以关键,是因为Daniel给出了一个反直觉但极具解释力的技术视角:临床决策并不神秘,它的底层是搜索。他说得很直接:“one way to simplify it down is… at its foundation it’s a search problem, but it’s a very semantic search problem.”

这里的“语义搜索”,指的不是简单的关键词匹配,而是理解医学语境下的含义、条件和限制。例如,同一个症状在不同人群、不同既往史中意味着完全不同的决策路径。OpenEvidence试图解决的,就是如何在这种复杂语义中找到最相关、最可靠的信息。

Daniel特别强调,他并不试图让模型在所有不确定性中自由发挥。在医学信息领域,有大量“预先烘焙好的”临床指南(pre-baked clinical guidelines),这些是共识、是边界,也是系统设计时必须尊重的结构性事实。这种克制,反而让AI更接近医生真实的工作方式。

指南、最新研究与来源透明:医生为什么愿意用

这一部分回答了一个现实问题:为什么医生会信任一个AI工具。Daniel提到,医学信息大致来自两个层面:一是已经写入指南的成熟知识,二是“recently published”的新研究成果,两者都“very useful”。

关键在于,OpenEvidence并没有把结果包装成一个黑箱。Daniel反复提到,用户“do look at source material some of the time”,甚至在某些场景下是“all the time”。这意味着,AI给出的并不是一个不可质疑的结论,而是一条可追溯的证据路径。

这种设计最终叠加成一种体验——Daniel用的词很朴素:“it feels just like a pro tool”。不是面向大众的聊天机器人,而是一个默认你具备专业判断力、并愿意验证来源的工具。这一点,也把它和很多消费级AI应用明确区分开来。

现实很残酷:指南医学仍然在用Google

在访谈中,最有现实冲击力的一句话,反而来自对现状的描述。Daniel坦言:“the reality… is that people are basically using Google, especially where guideline based medicine is concerned.”

这句话点出了一个被长期忽视的事实:即便在高度专业的医疗体系中,信息获取工具依然非常原始。医生需要在搜索结果、PDF指南和零散研究之间反复跳转,效率低且认知负担极高。

也正因为如此,Daniel并不认为AI会在短期内彻底取代现有流程。他提到,即使未来发生变化,使用这类工具的仍然会是“the minority”。但正是这部分少数用户,往往也是最愿意尝试新工具、并推动实践演化的人。

AI对医学训练的意外好处

访谈后半段,话题转向未来和教育,这一节的价值在于它揭示了AI的“副作用式”收益。主持人追问,如果AI介入临床信息获取,会不会改变住院医师培训(residency)的本质?

Daniel并没有给出激进的答案,但他承认,这可能是当下AI一个“real clear silver lining”。当部分信息检索和整理工作被工具承担,年轻医生反而能把精力投入到理解、判断和反思中。

他还提到,从更广义的消费者视角看,人们如何“productively”使用这类AI,可能会形成新的思维习惯,甚至“new neural pathways”。这让OpenEvidence不再只是一个工具问题,而是一个长期认知结构的变化问题。

总结

这期No Priors的价值,不在于炫目的模型参数,而在于Daniel Nadler对医学AI边界的清醒认知。他把临床决策还原为语义搜索,尊重指南与来源透明,也坦承现实仍被Google主导。对读者而言,最大的启发是:真正有价值的AI应用,往往选择最难、最不性感,但最贴近真实工作的那条路。


关键词: OpenEvidence, 医学AI, 语义搜索, 临床决策, Google

事实核查备注: 人物:Daniel Nadler(OpenEvidence创始人);节目:No Priors Ep.130;核心判断:临床决策是语义搜索问题;引用原话包括“at its foundation it’s a search problem”“pre-baked clinical guidelines”“people are basically using Google”;涉及公司:Google;未提及具体模型名称或量化数据。