当“堆算力”失灵:谷歌、OpenAI与AI增长放缓的真实信号
正在加载视频...
视频章节
从OpenAI到Google,前沿大模型正同时撞上“规模化红利递减”的天花板。本篇文章基于The AI Daily Brief视频内容,梳理AI模型放缓的关键证据、核心人物的态度转变,以及行业正在探索的下一条技术路线。
当“堆算力”失灵:谷歌、OpenAI与AI增长放缓的真实信号
从OpenAI到Google,前沿大模型正同时撞上“规模化红利递减”的天花板。本篇文章基于The AI Daily Brief视频内容,梳理AI模型放缓的关键证据、核心人物的态度转变,以及行业正在探索的下一条技术路线。
规模化神话正在被打破:谷歌也没能例外
这一轮关于“AI是否正在放缓”的讨论之所以重要,是因为它第一次同时击中了OpenAI和Google这两家最具算力与数据优势的公司。视频中提到,据《The Information》报道,OpenAI内部的Orion模型并未复现GPT-3到GPT-4那样的性能飞跃,这迫使OpenAI转而“加码推理与微调”,寻找新的性能突破口。更值得注意的是,Google也出现了几乎一模一样的问题。
消息人士称,Google的旗舰模型Gemini在最新一代训练中,并没有像过去那样,通过简单增加数据量和计算资源实现线性提升。过去被称为“缩放定律(scaling laws)”的核心假设——只要数据更多、算力更强,模型就会持续变聪明——正在经受现实检验。对Google而言,这尤其刺痛:外界原本认为,凭借其在算力和基础设施上的长期积累,Google有机会在这一代模型中反超OpenAI,但现在看,这种“纯靠堆资源实现跃迁”的窗口正在关闭。
这并不是一次孤立的技术受挫,而是对整个行业方法论的挑战。因为当连Google都无法通过规模化取得明显优势时,意味着“更大模型=更强能力”这条直觉路径,正在失效。
从堆数据到“教模型思考”:DeepMind的转向
当规模化不再奏效,为什么“推理”成了新的希望?视频给出了一个非常具体的故事:Google DeepMind已经组建了一支专门的推理模型团队,由首席研究科学家Jack Rae和Character.AI创始人Noam Shazeer共同领导。这个人选本身就说明了战略优先级——Noam Shazeer正是Transformer架构的核心提出者之一。
除了组建新团队,DeepMind的研究人员还在进行一系列“手工级别”的模型改进,包括调整超参数(hyperparameters,即控制模型如何处理信息、建立概念联系的关键变量)。他们还发现,训练数据中存在大量重复内容,这种冗余可能会拉低模型的有效学习效率。为此,Google尝试过合成数据(synthetic data),也就是让大模型生成新数据再喂回训练集中,同时引入音频和视频等多模态数据。
但令人意外的是,消息人士直言,这些方法“并没有带来显著提升”。这正是故事的转折点:那些曾被寄予厚望的技术补丁,并没有像想象中那样立竿见影。这迫使研究者重新思考一个更根本的问题——也许不是“喂得不够多”,而是“教得不对”。
两位“预言者”的合流:Ilya Sutskever与Yann LeCun
视频中最耐人寻味的部分,来自两位AI思想领袖的罕见“立场靠拢”。Meta首席AI科学家、图灵奖得主Yann LeCun多年来一直质疑单纯依赖模型规模的路线。这一次,他在Threads上略带调侃地写道:“I don’t want to say I told you so, but I told you so(我不想说我早就说过,但我确实说过)。”
更具象征意义的,是前OpenAI首席科学家Ilya Sutskever的转向。他曾是“规模化路线”的最重要倡导者之一,却在近期表示:“2010年代是规模化的时代,现在我们又回到了探索和发现的时代。现在,比以往任何时候都更重要的是‘扩展正确的东西’。”这句话在视频中被反复强调,因为它几乎标志着一个时代的结束。
LeCun随后补充道:“我们已经在‘下一件事’上工作了一段时间了。”他指的是Meta基础AI研究团队正在推进的“世界模型(world models)”——一种试图让AI理解物理世界和环境因果关系,而不仅仅是词与词之间统计关联的新架构。这条路径,正在被视为通往通用人工智能(AGI)的潜在方向。
并非所有人都认同:‘AI放缓’是不是伪命题?
当然,视频并没有把“AI放缓”描绘成行业共识。有人明确反对这种说法。评论者Vindu Reddy认为,这根本不是技术停滞,而是“基准测试饱和”的结果:“100分就是最高分,当你拿到100/100时,当然就没地方再进步了。”
这个观点点出了一个现实问题:很多我们用来衡量模型进步的指标,本身就存在上限。当模型在标准化测试中接近满分时,进步会变得不再显眼,但这并不一定意味着模型在真实世界任务中的潜力已经耗尽。
也正因为如此,视频强调,这场争论的真正价值不在于‘到底有没有放缓’,而在于它正在迫使整个行业重新审视方向:未来的突破,可能不再来自一次发布就震撼世界的大模型升级,而是来自更隐蔽、更结构性的能力提升,比如推理、世界建模,或者完全新的架构范式。
从模型到商业:Perplexity与Salesforce的另一种压力
在技术讨论之外,视频还给出了两个极具现实感的商业案例。首先是AI搜索公司Perplexity宣布开始引入广告,形式是“赞助的后续问题”,并明确表示:订阅收入不足以支撑可持续的内容分成体系,“广告是最稳定、可扩展的收入来源”。这些广告将由AI生成,而非由广告主直接撰写。
这一实验的意义远不止Perplexity本身。正如视频所说,AI搜索摘要如何冲击Google以搜索广告为核心的商业模式,仍然是一个悬而未决的问题。
最后,Salesforce CEO Marc Benioff在TechCrunch播客中直言,认为AI会冲击公司收入是“crazy talk”。他坚信AI Agent是未来,并反复强调Salesforce掌握着“230拍字节的客户数据”,以及其成熟的安全与共享模型。但视频作者也指出,即便Benioff最终是对的,AI Agent对传统按席位收费的SaaS模式所施加的压力,是真实而且短期内难以化解的。
总结
这期视频传递的最重要信号,并不是“AI不行了”,而是一个时代正在切换。规模化曾经是最确定的成功公式,但如今,连最坚定的支持者都开始寻找替代路径。无论是推理模型、世界模型,还是AI Agent与新商业模式,行业正在进入一个更不确定、但也更具创造力的阶段。对读者而言,理解这一转折,远比押注某一家公司或某一模型更重要。
关键词: 模型规模化, 推理模型, 世界模型, Gemini, GPT-4
事实核查备注: 视频提及人物:Ilya Sutskever、Yann LeCun、Noam Shazeer、Jack Rae、Marc Benioff;公司与产品:OpenAI(Orion、GPT-4)、Google(Gemini、DeepMind)、Meta、Perplexity、Salesforce、Character.AI;技术概念:缩放定律、推理模型、超参数、合成数据、多模态、世界模型、AI Agent;关键数字:Salesforce管理约230拍字节客户数据。