正在加载视频...
视频章节
Reflection AI 联合创始人 Misha Laskin 在一次访谈中提出,大模型行业真正的突破不在于“更大、更广”,而在于是否能解决“深度问题”。这篇文章梳理了他对 LLM 下一阶段演进的判断、背后的个人经历,以及为何他认为行业正站在类似 AlphaGo 之前的关键门槛。
Misha Laskin:大模型的“AlphaGo时刻”不在规模,而在深度
Reflection AI 联合创始人 Misha Laskin 在一次访谈中提出,大模型行业真正的突破不在于“更大、更广”,而在于是否能解决“深度问题”。这篇文章梳理了他对 LLM 下一阶段演进的判断、背后的个人经历,以及为何他认为行业正站在类似 AlphaGo 之前的关键门槛。
为什么“大模型的深度”成了核心问题
在访谈一开始,Misha Laskin 就抛出了一个与主流叙事不同的判断:当前大模型领域在“广度”上已经取得了惊人的进展,但“深度问题”仍然没有被真正解决。这一点之所以重要,是因为它直接决定了 LLM 是否能从“好用的工具”进化为“真正可靠的智能系统”。
他用非常直白的话概括了这一矛盾:“大型实验室一直在做广度,这很了不起,也确实解锁了巨大的市场价值……但也必须有人去解决深度问题。”这里的“广度”,指的是覆盖更多任务、语言、场景;而“深度”,则是模型在复杂问题上的持续推理、长期规划和自我纠错能力。
Misha 的隐含判断是:如果只靠堆数据和参数规模,模型会越来越像一个反应极快、知识极多的“助手”,但在需要多步推理、长期一致性或真正理解因果关系的任务上,仍然会频繁失误。这也是他反复强调“深度”不是锦上添花,而是下一阶段的瓶颈所在。
从学术训练到创业:对“缺失信息”的敏感
Misha 在访谈中回顾了自己进入 AI 领域的路径:接受系统的学术训练、完成博士研究、逐步深入这一方向。但真正促使他反思现有路线的,并不是能力不足,而是他意识到“有一些关键信息自己并不知道”。
在他看来,很多研究路径在单一维度上都高度优化,却回避了更难的问题:模型是否真的在“思考”。他提到,在受教育和研究过程中,自己逐渐意识到,光有更强的函数逼近能力,并不能自动带来更高层次的智能。
这种“意识到缺失”的经历,成为他后来与联合创始人创办 Reflection AI 的心理起点。相比继续参与主流的规模竞赛,他更关心的是:是否存在一种训练或系统设计方式,能让模型在内部形成更可控、更可反思的推理过程。
AlphaGo 时刻的真正含义:不是胜利,而是方法论
视频标题中的“AlphaGo 时刻”并不是噱头,而是 Misha 用来类比当前 LLM 处境的关键隐喻。AlphaGo 的意义,并不只是击败人类棋手,而在于它展示了一种全新的问题解决范式:通过搜索、评估和自我对弈,把“深度推理”系统性地引入模型。
Misha 认为,大语言模型尚未迎来属于自己的这一刻。今天的主流训练范式仍然高度依赖预训练(pre-training),而他在访谈中直言:“我有点觉得,预训练本身……”——这里他话锋一转,暗示单靠预训练并不足以把模型带入真正的“博弈式思考”。
在他看来,LLM 的 AlphaGo 时刻,将发生在模型不再只是一次性生成答案,而是能在内部反复推演、评估不同路径,并对自己的输出负责。那将是从“语言流畅”到“认知可靠”的质变。
对行业的隐含批评:广度是市场选择,深度是技术选择
Misha 的观点之所以尖锐,是因为它隐含着对整个行业激励结构的反思。他并不否认广度路线的价值,甚至明确表示“there’s a big market for that”。覆盖更多用户需求、更多语言和产品形态,本身就是合理的商业选择。
但问题在于,当几乎所有顶级资源都被投入到同一方向时,深度问题就被系统性地推迟了。他多次强调,这不是谁对谁错,而是“必须有人去做”的事情。
这种分工式的判断,也解释了 Reflection AI 的定位:不是去复制已有模型能力,而是尝试补上那块最难、最慢、但也最关键的拼图。如果这个判断成立,那么下一次行业级跃迁,可能不会来自最大模型,而是来自最“想得最深”的模型。
总结
Misha Laskin 在这次访谈中传递的核心信息并不复杂,却足够尖锐:大模型的下一次飞跃,不会自然地从规模中“涌现”,而需要有人正面解决深度推理这一难题。对从业者来说,这是一次关于研究方向的提醒;对创业者来说,这是一次关于差异化的启发;而对普通读者而言,这或许解释了为什么 LLM 看起来越来越聪明,却仍会在关键时刻犯错。真正的 AlphaGo 时刻,可能还在前方。
关键词: 大语言模型, AlphaGo时刻, 推理深度, Reflection AI, 预训练
事实核查备注: 人物:Misha Laskin(Reflection AI CEO & Co-founder);视频标题中使用 AlphaGo 类比;核心观点:广度 vs 深度;术语:Large Language Models, pre-training;频道:Sequoia AI Ascent;发布时间:2024-07-16