2026年的AI真相:模型不再单选,DeepSeek只是开始
正在加载视频...
视频章节
如果你还在纠结“哪个大模型会赢到最后”,这期 Lex Fridman 的对话可能会直接颠覆你的默认认知。在 Sebastian Raschka 和 Nathan Lambert 看来,2026 年的 AI 竞争,赢家不是某一个模型,而是一整套新的玩法:开源与闭源并存、速度与智能取舍、后训练比架构更重要,以及一个被低估的关键词——“多模型时代”。
2026年的AI真相:模型不再单选,DeepSeek只是开始
如果你还在纠结“哪个大模型会赢到最后”,这期 Lex Fridman 的对话可能会直接颠覆你的默认认知。在 Sebastian Raschka 和 Nathan Lambert 看来,2026 年的 AI 竞争,赢家不是某一个模型,而是一整套新的玩法:开源与闭源并存、速度与智能取舍、后训练比架构更重要,以及一个被低估的关键词——“多模型时代”。
真正的“DeepSeek 时刻”:不是性能,而是人心
在这期对话里,一个被反复提及的关键词是 DeepSeek。但有意思的是,讨论的重点并不在榜单分数,而在“为什么它能被大量使用”。Nathan Lambert 给了一个非常现实的视角:在中国以及很多市场,人们历史上就不习惯为软件付高价。
这直接解释了为什么 open weight(开放权重)模型 会“得到人民的爱”。不是因为它们一定更聪明,而是因为它们更可控、更便宜、更容易被本地化。DeepSeek 被当成一个“时刻”,象征的是:当模型能力接近时,分发方式、授权和可用性开始决定命运。
这也隐含了一个重要变化:未来不太可能只有一个通吃世界的模型。Sebastian 说得很直接——“I think the future is multiple ones.” 多模型并存,将成为常态,而不是妥协方案。
2024 谁赢了已经不重要,2025 拼的是“捡地上的钱”
当 Lex 抛出那个经典问题:“你觉得 2024 年谁赢了?2025 年谁会赢?”答案并没有落在某个具体名字上,而是指向了一种趋势:模型进步正在大量来自 low-hanging fruit(低垂果实)的优化。
这句话很关键。它意味着:我们并没有等来颠覆式的新架构,而是在现有范式下,通过更好的训练策略、更精细的调参、更成熟的工程,把潜力一点点榨出来。
换句话说,今天模型之间的差距,越来越像是“工程差距”而不是“理论差距”。这也是为什么你会看到:
- 不同模型在不同任务上各有优势
- 很难再出现“全面碾压”的单一王者
- 实际使用体验,往往比排行榜更重要
智能 vs 速度:为什么高手都在“混用模型”
一个非常“行内”的细节是:两位嘉宾都坦承,自己同时使用很多不同模型。原因只有一个:智能和速度之间存在明确的 trade-off。
有的模型更聪明,但慢;有的模型反应极快,但推理深度有限。Nathan 甚至提到自己会用 Grok-3 Heavy 来做 debugging——“Fun, but I don't go back to them.” 这句话听起来随意,却点出了一个现实:
模型正在变成工具,而不是信仰。
对开发者来说,这意味着一个重要转变:选模型不再是站队,而是配工具箱。不同阶段、不同任务,用不同的模型,反而是效率最高的做法。
真正的战场在后训练,而不是新 Transformer
如果你期待听到“下一代架构即将登场”,这期播客可能会让你失望。但如果你关心现实进展,它反而非常诚实。
几位嘉宾明确提到:相比架构创新,更多突破发生在 algorithmic side 和 post-training。也就是:
- supervised fine-tuning
- 各种形式的后训练策略
- 更贴近真实使用场景的优化
Transformer 依然是核心,但它不再是讨论焦点。真正拉开差距的,是谁更懂得如何把模型“调教”成一个好用的系统,而不只是一个会答题的神经网络。
闭源、开源、算力与现实的冷水
对话后半段也触及了一个不可回避的现实:算力规模正在走向极端。从外界报道来看,xAI 被认为正冲向 gigawatt 级别的算力规模。
但有一个非常清醒的判断是:即便如此,我们距离“全自动研究员”仍然很远。有人直言,即使花到 100 billion 美元,进展也未必如想象中快。
这让“闭源 vs 开源”的讨论回到本质:这不仅是商业模式之争,更是谁能让知识更可获得的问题。正如结尾所说,这一切的价值,最终体现在:人类是否更容易使用、理解和扩展这些系统。
总结
如果用一句话总结这期对话:2026 年的 AI,不属于单一模型,而属于会“组合拳”的人。对从业者来说,最重要的不是押注谁赢,而是理解这些变化意味着什么——模型会越来越像基础设施,优势来自工程、后训练和使用方式。真正该做的,是尽早适应多模型协作、理解开源与闭源的边界,并把注意力放在“如何用好”,而不是“谁最强”。接下来一年,问自己一个问题:如果没有绝对王者,你的技术选择还站得住吗?
关键词: DeepSeek, 开源模型, 大语言模型, 后训练, Transformer
事实核查备注: 需要核查:1)Lex Fridman Podcast #490 的发布时间是否为 2026-01-31;2)关于 xAI 达到 gigawatt 级算力的表述为“reported”,非官方确认;3)Grok-3 Heavy 的具体定位与名称;4)关于 DeepSeek 在中国市场的使用与授权描述是否完全来自嘉宾原话。