AI泡沫争论背后,真正稳赚的不是大模型,而是给数据中心“降温”的人

AI PM 编辑部 · 2024年08月01日 · 12 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人都在争论AI是不是被高估时,资本已经悄悄把目光移开了大模型本身。GPU还在狂飙,云厂商却喜忧参半,真正被低估的,是支撑整个AI算力狂潮的“铲子和铁锹”——尤其是数据中心的供电与散热。

AI泡沫争论背后,真正稳赚的不是大模型,而是给数据中心“降温”的人

当所有人都在争论AI是不是被高估时,资本已经悄悄把目光移开了大模型本身。GPU还在狂飙,云厂商却喜忧参半,真正被低估的,是支撑整个AI算力狂潮的“铲子和铁锹”——尤其是数据中心的供电与散热。

华尔街真正焦虑的,不是AI,而是“怎么给未来定价”

这个夏天,AI最大的分歧并不是“有没有用”,而是“值不值现在这个价”。The AI Daily Brief 一针见血地指出:市场真正不舒服的地方在于——华尔街被迫用今天能交易的股票,去给一个尚未完全成形的未来定价。

这也是为什么你会看到一种看似矛盾的局面:微软的财报显示,AI在Azure里的占比持续提升,但整体云收入却没打到预期;几乎同时,Meta却用实打实的广告收入证明,AI已经开始“变现”。这不是AI失败,而是不同商业模式对AI吸收能力的差异。

在这种不确定性里,市场情绪极度敏感。任何一句关于“资本支出不会放缓”的表态,都会被无限放大。因为大家真正关心的不是下一代模型,而是:这场AI基础设施建设,会不会突然踩刹车。

GPU狂欢继续,但信号已经不只来自NVIDIA

NVIDIA一天涨13%,表面看是情绪,背后却是“没有人敢赌算力需求会降温”。CNBC把上涨原因归结为微软和AMD释放的信号:AI服务器的多亿美元级别投入,短期内不会停。

更有意思的是AMD。CEO苏姿丰直接给出数字:今年AI芯片销售预期45亿美元,比之前上调了11%。高盛随即补刀式点评——AMD数据中心GPU的乐观前景,加上微软确认持续增加资本支出,对NVIDIA同样是利好。

这说明一件事:即便你怀疑超大规模云厂商是不是在“过度建设”,你也很难否认一个事实——至少在接下来一到两个财年,算力采购的惯性仍然极强。再叠加美联储释放的降息预期,资金更没有理由立刻离场。

真正的“卖铲人”,藏在数据中心的冷却系统里

节目中最反直觉、也最值钱的转折点在这里:如果你不确定该不该押微软、谷歌这些“台前选手”,那不妨看看数据中心里,除了芯片之外还需要什么。

高盛在5月给了一个惊人的判断:AI将推动数据中心用电需求增长160%。一个ChatGPT查询,消耗的电力大约是一次普通Google搜索的近10倍。算力的尽头,首先撞上的不是算法,而是物理世界的极限——电和热。

于是,一个长期被忽视的领域被推到前台:数据中心散热。分析师直言,这不是新问题,而是一个被算力指数级增长重新激活的老问题。空气冷却已经接近极限,水冷虽然效率是空气的24倍,但“水和电不太合得来”始终是现实挑战。

更激进的方案是介电液冷。它并不新,早在1985年的超级计算机上就出现过,但直到今天,芯片功耗出现“J曲线”式上升,它才从小众方案变成现实选项。业内已经开始讨论:2024年,是否会成为液冷真正走向主流的拐点。

当AI故事降温,基础设施故事才刚开始

这期节目的核心判断并不复杂,但极具前瞻性:无论华尔街最终如何给AI估值,它都不可能只盯着模型和平台公司。视野一定会外扩,去寻找那些“无论谁赢都必须买单”的环节。

芯片是一层,供电是一层,散热又是一层。它们不性感,却决定了AI能走多远。也正因为不在聚光灯下,这些领域往往在市场情绪最喧闹的时候,被系统性低估。

总结

如果你是AI从业者,这个故事给你的启发很直接:不要只盯着模型、参数和Benchmark。真正决定行业节奏的,往往是更“土”的东西——电力、机柜、冷却方式。

当市场还在争论AI是不是泡沫时,更聪明的做法是问自己三个问题:算力还会不会继续堆?功耗瓶颈怎么解决?哪些基础设施环节具备不可替代性?

下一波真正让人赚钱、也真正改变行业格局的机会,很可能不在发布会舞台上,而是在数据中心里嗡嗡作响、默默降温的那一层。


关键词: GPU, 数据中心, 液冷, AI基础设施, 云计算

事实核查备注: 需要核查的关键事实包括:NVIDIA股价单日上涨约13%的具体日期;AMD CEO苏姿丰提到的45亿美元AI芯片销售预期及11%上调幅度;高盛关于数据中心用电需求增长160%及ChatGPT查询耗电量约为Google搜索10倍的原始报告表述;液冷技术历史案例PR2超级计算机的年份(1985年)。