从假新闻检测到Med-PaLM 2:Karan Singhal谈医疗大模型的责任边界

AI PM 编辑部 · 2023年05月18日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

Google研究员Karan Singhal回顾了自己从青少年时期的AI项目,到主导Med-PaLM 2医疗大模型的关键转折。这期对话不仅解释了为什么医疗AI不能“直接套用”通用大模型,也系统阐述了预训练、微调、评估与真实医疗工作流之间的张力。

从假新闻检测到Med-PaLM 2:Karan Singhal谈医疗大模型的责任边界

Google研究员Karan Singhal回顾了自己从青少年时期的AI项目,到主导Med-PaLM 2医疗大模型的关键转折。这期对话不仅解释了为什么医疗AI不能“直接套用”通用大模型,也系统阐述了预训练、微调、评估与真实医疗工作流之间的张力。

为什么医疗AI一开始就必须“不一样”

要理解Med‑PaLM的意义,首先要明白一个前提:医疗不是一个可以容忍“差不多”的领域。Karan Singhal在节目一开始就反复强调,他和团队关注的并不是“模型能不能答对更多题”,而是“能不能以负责任的方式被使用”。他形容Med‑PaLM 2的目标是探索一条“responsible path to generative AI in healthcare”。这句话背后,其实隐含着对通用大语言模型的一种警惕。

在通用场景中,大模型可以通过概率上最合理的方式生成答案;但在医疗场景里,一个看似合理却不严谨的回答,可能就意味着真实风险。因此,Singhal认为不能简单地把PaLM或PaLM 2“直接拿来用”,而是要系统性地重新对齐模型的目标、数据和评估方式。正是在这样的背景下,Med‑PaLM被定义为一次有意识的偏离:不是追求更大的参数规模,而是追求更可控、更可验证的行为。

这一判断之所以重要,是因为它决定了后续所有技术路线的选择——从是否需要领域特定数据,到如何设计人类评估,再到模型最终可以进入哪些真实工作流。

一个19岁做假新闻检测的年轻人,如何走到医疗AI前沿

与许多“学院派”研究者不同,Karan Singhal进入AI领域的动机一开始就带有明显的社会议题色彩。他在节目中回忆,自己19岁时做的早期项目之一,是尝试用AI检测假新闻。他直言,当时吸引他的并不是算法本身,而是“AI could be used in socially responsible ways”。

这个早期经历,后来成为他职业选择的一条隐形主线。加入Google之后,他并没有立即进入医疗方向,而是在多个团队中学习和积累,逐步接触到更大规模的语言模型研究。直到后来参与PaLM相关工作,并看到这些模型在复杂推理和语言理解上的潜力,他才真正意识到:如果要在高风险领域使用生成式AI,就必须从一开始就把责任问题纳入设计。

他将自己在Google的成长形容为“learning from an excellent team”,但这并不是一句客套话。对他而言,团队文化决定了研究的边界:哪些事情可以快速试错,哪些事情必须极度谨慎。医疗AI恰恰属于后者。

从PaLM到PaLM 2:预训练之外,为什么还需要Med‑PaLM

在节目中,Singhal花了相当多时间解释PaLM、PaLM 2与Med‑PaLM之间的关系。PaLM 2在多语言推理和编程能力上的提升,为下游应用提供了更强的基础,但他明确指出:更强的基础模型,并不自动等于更安全的医疗模型。

关键差异在于“对齐方式”。通用模型的预训练(pre‑training)目标,是在大规模通用语料上学习语言和世界知识;而医疗模型需要额外考虑专业术语、临床推理习惯,以及对不确定性的表达方式。正因如此,Med‑PaLM被视为一次针对医疗领域的系统性对齐尝试,而不仅仅是一次简单的微调(fine‑tuning)。

Singhal在讨论中提到,当你面对一个已经完成预训练的强大模型时,真正困难的问题是:你是继续追加领域数据,还是重新思考整个训练和评估流程?这个选择,直接影响模型在真实医疗场景中的可靠性。

评估与工作流:模型“看起来很好”远远不够

如果说模型训练解决的是“能力上限”,那么评估和工作流决定的就是“是否可以被使用”。Singhal特别强调,医疗AI的评估不能只依赖单一群体。他们同时引入医生和非专业人员的反馈,以理解模型在不同知识水平下会如何被解读。

这一点背后的逻辑很现实:医疗模型的输出,往往不仅被医生看到,也可能被患者或普通用户间接接触。如果模型在语言上过于自信,或者在不确定问题上给出确定答案,就可能产生误导。因此,评估标准本身就必须高于“答对率”。

在谈到未来工作流时,Singhal保持了明显的克制。他并没有描绘一个短期内全面替代医生的愿景,而是讨论哪些辅助型场景可能在中短期内落地。这种谨慎,恰恰反映了他一贯的立场:在医疗领域,进展的速度必须服从于安全和信任。

总结

这期对话的价值,不在于披露了多少技术细节,而在于清晰展现了一种医疗AI的思考范式:从动机、训练到评估,每一步都围绕“责任”展开。Karan Singhal的经历提醒我们,大模型进入高风险行业时,真正的挑战往往不在模型规模,而在边界意识。对所有从事生成式AI的人来说,这是一种值得反复参考的视角。


关键词: Med-PaLM 2, PaLM 2, 医疗AI, 生成式AI, Google

事实核查备注: Karan Singhal:Google研究员;Med-PaLM 2:Google医疗大模型;PaLM 2:Google发布的新一代语言模型;时间:视频发布于2023-05-18;引语包括“responsible path to generative AI in healthcare”“AI could be used in socially responsible ways”“learning from an excellent team”。