Databricks首席科学家:别急着造新模型,企业AI更难的选择题在这里
正在加载视频...
视频章节
Databricks 首席 AI 科学家 Jonathan Frankle 结合 Mosaic 与 Databricks 服务 1.2 万家企业的经验,系统讲清了一个被严重低估的问题:企业到底该预训练、微调,还是只做提示工程?他还分享了对新模型架构、Anthropic“计算机使用”、以及 AI 在医疗和自动驾驶中如何被社会接受的真实看法。
Databricks首席科学家:别急着造新模型,企业AI更难的选择题在这里
Databricks 首席 AI 科学家 Jonathan Frankle 结合 Mosaic 与 Databricks 服务 1.2 万家企业的经验,系统讲清了一个被严重低估的问题:企业到底该预训练、微调,还是只做提示工程?他还分享了对新模型架构、Anthropic“计算机使用”、以及 AI 在医疗和自动驾驶中如何被社会接受的真实看法。
为什么“要不要自己训模型”是企业AI的第一道坎
对大多数企业来说,是否要训练自己的模型,远比“选哪个大模型”更关键。Jonathan Frankle 在对话一开始就点出了一个现实背景:Databricks 目前服务着大约 12,000 家客户,而真正从头训练模型的公司,其实是极少数。
他的核心判断非常克制:多数企业低估了模型训练的复杂度,也高估了它带来的边际收益。基于他在 Mosaic 和 Databricks 的实践经验,企业通常会在三种路径中犹豫——直接用基础模型做提示工程、在现有模型上微调,或者完全预训练一个自有模型。
Jonathan 强调,这不是“技术先进性”的问题,而是“投入产出比”的问题。他在节目中直言,很多场景下企业真正需要的是“a better cost quality tradeoff(更好的成本—质量权衡)”,而不是一个参数更多、但并不能显著提升业务指标的模型。
这也是为什么 Databricks 内部在与客户共创方案时,往往会先从最轻量的方式入手:如果提示工程能解决问题,就没必要微调;如果微调足够,就不必预训练。这种自下而上的决策顺序,几乎成为他们服务企业 AI 的默认方法论。
从 Mosaic 到 Databricks:哪些场景“公司专属模型”真的值得做
Jonathan 被反复追问的一个问题是:什么时候公司特有的数据,真的值得用来训练或微调模型?这是 Mosaic 当年最核心的价值主张之一,也是它被 Databricks 收购的重要原因。
他的回答并不理想化。Jonathan 观察到,学术界和工业界对“领域模型”的态度差异很大。在论文中,领域模型几乎总是更优;但在真实企业环境中,数据质量、标注一致性、持续维护成本,往往才是决定成败的关键。
他提到,Mosaic 的很多工作之所以“对客户产生了巨大差异”,并不是因为模型多复杂,而是让客户第一次能够系统性地评估:公司数据是否真的提供了不可替代的信息增量。如果这些数据只是通用模式的重复,那么微调带来的收益通常有限。
在节目中他总结道,有“很多情况”公司特定模型是合理的,但前提是:它们必须在成本、推理效率或可控性上,明确优于直接使用通用模型。否则,这类项目很容易在上线后,变成一个持续消耗资源却难以证明价值的技术负担。
新模型架构不会频繁出现,真正的竞争在评估与使用
在一个容易被标题党放大的话题上,Jonathan 的态度异常冷静:他并不认为“全新的模型架构”会在短期内频繁出现。相反,现有范式还有大量潜力,关键在于如何训练、评估和使用。
这也是为什么他在对话中多次提到 Databricks 即将推出的“evaluations(评估)产品”。在他看来,企业 AI 的瓶颈已经从“模型够不够强”,转移到“我们是否真的知道它在业务中表现如何”。
他用一种半开玩笑的方式回忆模型上线前的冲刺阶段,称那两周像是在打“King of the Hill(擂台赛)”,模型不断被新版本挑战、替换。这种经历让他更加确信:没有系统化评估,就谈不上可控的模型迭代。
与其期待颠覆性的结构创新,他更看好工具链的成熟——包括可重复的评测、对不同任务的基准,以及让非研究员也能理解模型行为的可视化。这些能力,才是企业真正规模化使用 AI 的前提。
从 Anthropic 到自动驾驶:AI 最终是社会选择题
对话的后半段明显从技术转向了更宏观的问题。Jonathan 被问及对 Anthropic “computer use”相关工作的看法时,并没有陷入细节,而是把话题拉回到一个更大的判断:AI 的边界,最终由社会决定。
他提到,无论是医疗、自动驾驶,还是更广泛的高风险场景,真正的问题不是“模型能不能做到”,而是“我们愿意在什么条件下使用它”。他原话说的是:“you have to figure out kind of what we are comfortable with(我们必须搞清楚自己到底能接受什么)。”
这也是他看待 AI 政策的核心立场——政策不是为了阻止技术,而是为了让社会建立信任。当激励机制、责任划分和透明度设计合理时,人们才会愿意把关键决策交给系统。
在 Jonathan 看来,这个过程并不悲观,反而“really exciting”。因为它意味着,AI 的下一阶段不只属于模型研究者,也属于产品经理、法律专家,以及每一个需要对结果负责的人。
总结
Jonathan Frankle 的分享之所以有价值,不在于给出标准答案,而在于揭示了企业 AI 的真实约束:资源有限、风险真实、回报必须可解释。从“别急着训练模型”,到强调评估与社会接受度,他反复提醒一个事实——AI 的成熟,更多来自选择的克制,而不是技术的激进。对每一个正在思考 AI 落地的团队来说,这可能比任何模型参数都重要。
关键词: Databricks, Mosaic, 模型微调, 企业AI, AI政策
事实核查备注: Jonathan Frankle:Databricks 首席 AI 科学家,经 Mosaic 收购加入;Databricks 客户数量:约 12,000 家(视频提及);核心话题:预训练 vs 微调 vs 提示工程、无监督学习、模型评估、AI 政策;涉及公司:Anthropic(computer use 相关工作,未展开技术细节);引用短语来源于播客原话或近似原话,如“better cost quality tradeoff”“King of the Hill”“figure out what we are comfortable with”。