正在加载视频...

视频章节

OpenAI正从“用芯片”走向“造芯片”,甚至让模型参与芯片设计。这不仅是一笔与博通的基础设施交易,更是一次对AI算力、成本与平台控制权的长期下注。

当GPT开始设计芯片:OpenAI的算力豪赌

OpenAI正从“用芯片”走向“造芯片”,甚至让模型参与芯片设计。这不仅是一笔与博通的基础设施交易,更是一次对AI算力、成本与平台控制权的长期下注。

为什么OpenAI要亲自下场造芯片

这件事之所以重要,是因为它标志着OpenAI从算法公司,迈入了硬件定义能力的阶段。根据视频披露,OpenAI与博通(Broadcom)达成了一项多年期、非约束性的合作,共同开发定制AI芯片和网络设备,目标是部署10吉瓦(GW)的数据中心算力,并计划在明年下半年开始上架服务器机柜。

真正引发行业震动的,不只是规模,而是OpenAI给出的理由。公司表示,定制芯片能让他们“把学到的一切直接嵌入到硬件中”,从而解锁新的能力层级。OpenAI总裁Greg Brockman在随公告发布的播客中说得更直白:“我们已经到了这样一个阶段——我不认为现在这些优化是人类设计师能想出来的。通常专家事后看会说,这确实在我的清单上,但那是20项之一,至少还要一个月才能轮到。”

这句话背后,是一个极具颠覆性的事实:GPT-5正在参与下一代芯片的设计优化。模型不再只是运行在硬件之上,而是反过来塑造硬件形态。这种“模型设计模型运行的芯片”的闭环,是此前任何一家AI公司都未曾公开展示过的能力。

26吉瓦算力押注:疯狂扩张还是必要前提?

理解这笔交易的第二个关键,在于规模对比。博通合作公布后,其股价盘后上涨12%。而更惊人的数字是:在短短一个月内,OpenAI已经通过NVIDIA、AMD和博通,累计锁定了约26吉瓦的数据中心算力。

作为参照,美国当前全部数据中心的总容量估计在30到60吉瓦之间,其中只有10%到20%用于AI工作负载。无论采用哪种估算,OpenAI的规划都意味着:在未来5年内,仅这一家公司,就可能把美国AI数据中心的供给规模翻倍。

市场对这种“算力狂飙”的解读高度分化。支持者认为,这是一个代际公司在为不可逆的AI需求做准备。Sam Altman解释过,自研芯片的核心逻辑在于“跨越整个技术栈进行优化”,从而实现更高性能和更低成本。博通CEO陈福阳(Hawk Tan)则用一句更具工业气息的话总结:“如果你自己做芯片,你就能掌控自己的命运。”

质疑者则担心,这种规模可能形成自我强化的投资循环,甚至在需求兑现前就造成过剩。但视频中的判断更偏向务实:考虑到模型规模、推理需求和多模态应用的爆发,这些算力可能并非泡沫,而是刚刚好。

不只是OpenAI:亚马逊的芯片路线给了答案

为了理解定制芯片是否真有现实价值,视频给了一个现成的对照样本:亚马逊AWS。如今,AWS超过一半的AI服务已经运行在自研芯片之上,而不是NVIDIA GPU。

亚马逊的核心产品是Trainium系列AI加速器。最新的Trainium 2被视为一次成功的路线修正,相比首代产品获得了明显好评。它同时支持训练和推理,虽然性能仍不及NVIDIA的顶级芯片,但在运营成本上有显著优势。尤其值得注意的是,Trainium 2的设计非常契合Anthropic大量使用的强化学习(Reinforcement Learning)训练方式。

Trainium 3原计划于今年年底发布,但因液冷系统设计问题推迟。这一细节恰恰说明,自研芯片并非捷径,而是一条技术密度极高的长期工程。亚马逊之所以能持续投入,很大程度上依赖于Anthropic这个“锚定客户”的长期算力需求。对OpenAI而言,道理类似:只有当模型规模和使用量足够大,定制芯片的经济性才会真正成立。

算力战争之外:平台巨头的另一条战线

在重资产的芯片叙事之外,视频后半段快速扫过了一系列产品级更新,勾勒出另一条同样重要的战线:AI能力的“无感渗透”。

Google正在把图像生成模型Nano Banana嵌入几乎所有核心产品中。在搜索里,它将与Lens结合,实现即时图片编辑;在NotebookLM中,它驱动“视频概览”功能,提供六种视觉风格;未来还会进入Photos应用。策略非常清晰:不是做一个独立的AI工具,而是让生成式图像成为用户随手可用的基础能力。

Microsoft则宣布了首个自研文生图模型MAI Image 1。尽管在初步测试中排名第九,落后于OpenAI和Google,但其生成速度、写实光影和风景表现受到肯定。微软AI负责人Mustafa Suleyman强调,自给自足的模型训练能力至关重要。这与OpenAI造芯片的逻辑如出一辙——在即将到来的AI平台战争中,控制关键能力比短期性能指标更重要。

总结

这期视频真正独特的地方,不在于又一笔天量交易,而在于它揭示了AI竞争的新层级:模型、芯片和平台正在合并为一个整体。OpenAI让GPT参与芯片设计,亚马逊用自研芯片反推成本曲线,Google和Microsoft把AI能力嵌入日常产品。这些信号共同指向一个结论:未来的AI优势,不再来自单点突破,而来自对整个技术栈的掌控。对从业者而言,理解这场变化,比追逐某一代模型参数更重要。


关键词: OpenAI, 定制AI芯片, Broadcom, 数据中心算力, AI平台战争

事实核查备注: 关键事实核查点:1)OpenAI与Broadcom的多年期、非约束性合作,目标10吉瓦数据中心算力;2)Greg Brockman关于GPT-5参与芯片优化的原话;3)OpenAI近一个月累计约26吉瓦的算力交易规模;4)美国数据中心总容量30–60吉瓦、AI占比10–20%的估算;5)Hawk Tan“控制自己的命运”的原话;6)AWS超过一半AI服务运行在自研芯片上;7)Trainium 2与Trainium 3的定位与延期原因;8)Google Nano Banana的产品集成位置;9)Microsoft MAI Image 1的定位与测试排名。