从“Garlic”到IPO前夜:大模型竞赛正在重回底层

AI PM 编辑部 · 2025年12月04日 · 13 阅读 · AI/人工智能

正在加载视频...

视频章节

这期《AI Daily Brief》揭示了一个被忽视却至关重要的转折点:在Gemini 3与Claude Opus 4.5的压力下,OpenAI似乎终于修复了预训练瓶颈,而Anthropic则在产品、收入和资本市场三线并进。大模型竞争,正在从“调参和包装”回到真正的基础能力比拼。

从“Garlic”到IPO前夜:大模型竞赛正在重回底层

这期《AI Daily Brief》揭示了一个被忽视却至关重要的转折点:在Gemini 3与Claude Opus 4.5的压力下,OpenAI似乎终于修复了预训练瓶颈,而Anthropic则在产品、收入和资本市场三线并进。大模型竞争,正在从“调参和包装”回到真正的基础能力比拼。

为什么“Garlic”不是一次普通的模型发布

这一段新闻之所以重要,并不只是因为OpenAI要发新模型,而是因为它触及了一个过去一年一直被业内私下讨论、却很少被正面承认的问题:OpenAI是否已经“卡在”预训练上。

视频中提到,代号为“Garlic”的模型来自一次全新的预训练(pre-training)跑数。预训练指的是在海量通用数据上,从零开始训练基础模型的阶段,是决定模型上限的关键。OpenAI首席研究官Mark Chen告诉内部员工,Garlic在内部基准测试中,已经可以正面对标Google的Gemini 3 Pro和Anthropic的Opus 4.5,尤其在代码生成和推理任务上表现突出。

更关键的一句话是:Garlic“改进了OpenAI此前最好、但规模更大的预训练模型GPT-4.5”。这意味着,进步并非来自参数规模,而是来自训练本身的质量修复。此前,SemiAnalysis曾指出,OpenAI自2024年5月的GPT-4.0之后,尚未完成一次真正成功的全尺度基础模型训练。如果这一判断属实,那么Garlic的意义在于:OpenAI可能终于解决了预训练流程中的系统性问题。

视频中特别强调,Garlic吸收了此前“Shallow Pete”预训练中首次部署的bug修复。这是一个非常工程化、也非常现实的故事:在外界只看到模型名更替时,内部其实在与数据管线、稳定性和收敛问题反复搏斗。一旦这些问题被清理干净,进步就不再只能依赖强化学习(RL),而是重新回到底座模型的跃迁。

别搞混了:Code Red、新模型与真正的“下一代基础模型”

视频的第二个关键转折,是对时间线的“纠偏”。在OpenAI高调进入“Code Red”状态后,很多人猜测Garlic会是短期内发布的主角,但业内消息人士给出了更复杂的版本。

推特用户Chris ChatGPT21明确表示:“下周发布的模型不是Garlic。”他说,Garlic是一个表现很强的模型,但真正“深度烹饪、在预训练上有实质创新、并且在所有维度都很强”的新模型,预计在2026年初,也就是1到3月之间亮相。

这背后反映的是OpenAI当前的双轨策略:一条线是短期内通过新推理模型稳定产品和舆论,另一条线则是更慢、更重,但决定长期竞争力的基础模型复兴。对外界来说,这解释了为什么OpenAI在节奏上显得有些碎片化;对内部来说,则是一次押注——只要预训练问题真的解决,后续的跃迁空间会重新打开。

这也是为什么Garlic被描述为“与Shallow Pete不同的模型”。Shallow Pete更像是一次应急反击,用来回应Gemini 3的市场冲击;而Garlic以及其后的模型,才是试图重新建立技术叙事的关键拼图。

Opus 4.5:让开发者第一次感到“软件工程真的要变了”

如果说OpenAI的故事是“内部修复”,那Anthropic的Opus 4.5则是一次彻底的外部口碑爆发,而且主要发生在开发者群体中。

视频中连续引用了多位开发者的原话,这种密集、情绪化的反馈本身就是一个信号。有人说:“The more I try Opus 4.5, the more I feel like Anthropic is right about software engineering dying.”还有人更直接:“Opus 4.5 feels like the biggest jump in coding models I've seen to date。”

最具画面感的故事来自Stuart Cheney。他表示,Opus 4.5已经可以让他“一次性外包8到10个线性工单”,在代码合并前几乎不需要人类介入。这不是跑分,而是生产流程的改变。正如另一位用户的评价:“Opus 4.5 is Alien Tech.”

这些反馈解释了为什么Anthropic近期的一系列动作都围绕“开发者栈”展开。收购Bun并非单纯买一个更快的JavaScript运行时,而是要把运行时、打包、测试这些基础设施,全部纳入一个AI优先的开发体系中。Anthropic自己写道,Bun已经成为“AI原生软件工程的关键基础设施”。

当模型能力足够强时,真正的护城河开始下沉到工具链和工作流。这正是Opus 4.5带来的最现实变化。

从模型到资本市场:Anthropic与OpenAI的下一场竞赛

视频的后半段把视角从模型拉到了资本层面。根据《金融时报》,Anthropic正在为2026年的IPO做准备,同时谈判一轮估值超过3000亿美元的私募融资,最高可能达到3500亿美元,其中包括微软和英伟达上月承诺的150亿美元。

Anthropic的官方回应非常克制:“在我们这样的规模和收入水平下,按上市公司标准运作是常态。”但报道明确指出,投资人希望Anthropic能“抢在更大的竞争对手OpenAI之前上市”。这让原本的技术竞赛,延伸成了一场资本市场的先手博弈。

与此同时,Anthropic还披露了一个极具冲击力的数据:Claude Code在6个月内实现了10亿美元ARR。无论从产品成熟度还是商业化速度来看,这都为IPO叙事提供了扎实支撑。

视频最后提到的Mistral 3,则从另一个角度提醒观众:并非所有进步都来自超级规模。Mistral用仅3000张NVIDIA H200训练出6750亿参数、41亿激活参数的MoE模型,并强调“小模型的普及性”才是下一波AI的关键。这种路线虽然暂时缺席最前沿的推理能力,但在企业落地、隐私和成本上,提供了完全不同的解法。

总结

这期视频串起的,不只是几条新闻,而是一条清晰的行业脉络:OpenAI试图修复预训练根基,Anthropic在开发者与商业化上全面加速,而开源阵营则押注“更小、更广”的未来。大模型竞争正在回到最难、也最真实的地方——基础能力、工程细节和真实使用场景。对读者来说,真正值得关注的,不是下一个模型名,而是谁能把这些底层优势,持续转化为可复用的生产力。


关键词: OpenAI, Garlic模型, Claude Opus 4.5, 预训练, AI IPO

事实核查备注: Garlic为OpenAI内部代号模型;Mark Chen为OpenAI首席研究官;Garlic在内部benchmark中对标Gemini 3 Pro与Opus 4.5;Shallow Pete来自Sam Altman 10月内部备忘;Claude Opus 4.5获得开发者高度评价;Anthropic收购Bun,Bun保持开源;Claude Code ARR达10亿美元,用时6个月;Anthropic拟于2026年IPO,估值区间3000–3500亿美元;Mistral 3 Large为675B参数、41B激活参数,训练使用约3000张NVIDIA H200。