正在加载视频...
视频章节
这期 Every 的对话抛出一个刺耳但重要的观点:LLM 的问题不是不够强,而是它天生就在“猜”。而有一类模型,从设计之初就拒绝猜答案。它不是下一代大模型,而是另一条路线。
当大模型开始“猜答案”,另一种AI正悄悄崛起
这期 Every 的对话抛出一个刺耳但重要的观点:LLM 的问题不是不够强,而是它天生就在“猜”。而有一类模型,从设计之初就拒绝猜答案。它不是下一代大模型,而是另一条路线。
一个让大模型粉丝不舒服的判断:LLM 天生不追求“确定性”
在节目一开始,嘉宾就点破了一个很多从业者心里隐约知道、却很少明说的问题:大语言模型是自回归的,本质是在做概率补全。它输出的不是“确定正确”,而是“看起来最合理”。
这在写文案、写代码草稿时没问题,但一旦涉及“是否真的成立”“是否真的符合世界规则”,问题就来了。节目中反复强调一个词:guessing game。LLM 再强,也是在玩猜谜。
而只要你关心 correctness——结果是否真的对、是否真的能在现实中成立——这种机制就会开始显得不可靠。这不是工程优化能完全解决的问题,而是范式层面的差异。
EBM 是什么?不是更大的模型,而是完全不同的路线
这时候,Energy-Based Model(能量模型)被请上了台面。
嘉宾给出的定义非常克制:EBM 不是生成下一个 token,而是定义一个“能量函数”,用来判断一个状态在多大程度上符合世界的“规则”。低能量代表更合理,高能量代表不可能或不成立。
关键点在于:EBM 是天然非自回归的。它不是一步步猜下去,而是评估整体是否成立。这也是为什么对方反复强调,EBM“不玩 guessing game”。
你可以把它理解为:LLM 在补句子,EBM 在判断这个世界“能不能这样”。一个擅长语言,一个擅长规则。
为什么说这是 LLM 的“补位者”,而不是竞争对手
节目里一个很重要但容易被忽略的判断是:这不是谁取代谁的问题。
当你需要通过语言与人交互、快速生成可能性空间,LLM 几乎无可替代;但当你关心的是“是否一定正确”“是否符合物理、逻辑或系统约束”,你就不该指望语言模型单打独斗。
嘉宾提到,EBM 的优势之一,是有可能用更少的数据学习到世界的规则。先学规则,再在能量地形中导航,而不是从海量样本里统计相似性。
这也是为什么他们认为,在 LLM 进展开始 plateau 的当下,关注 alternative forms of AI,反而是一个积极信号。
一个落地感极强的例子:为什么他偏爱 Granola
为了避免讨论停留在理论层面,节目中给了一个很生活化的例子:Granola,一款 AI 驱动的 notepad。
它并不是炫技式地“写得像人”,而是帮助你把零散信息组织成更符合逻辑、更有结构的状态。这恰恰呼应了前面的观点:当 AI 的任务不是表演语言,而是帮助人类理解、判断和约束复杂信息时,是否“符合规则”比“像不像人”更重要。
这也是整期对话最有现实意味的地方:EBM 思想并不遥远,它已经在一些工具里悄悄体现出来了。
总结
这期节目真正想传达的,不是“LLM 不行了”,而是一个更成熟的判断:语言模型不是万能接口。未来重要的 AI 系统,很可能是多种范式的组合——LLM 负责表达,EBM 或类似模型负责约束与验证。
对从业者来说,takeaway 很直接:如果你做的是高风险、高确定性要求的系统,别再只问“能不能用大模型”,而要问“哪一部分不该让它猜”。当你开始这样拆问题,你已经比大多数人更懂行了。
关键词: 能量模型, EBM, 大语言模型, AI范式, AI应用
事实核查备注: 需核查:视频完整时长;Energy-Based Model 的具体技术定义是否与原话一致;Granola 的产品定位表述是否与视频一致;关于 LLM 进展 plateau 的原始语境。