做不出好芯片,不是因为工程师不够强,而是方法错了

AI PM 编辑部 · 2026年01月14日 · 10 阅读 · AI/人工智能

正在加载视频...

视频章节

这期 Sequoia 的视频抛出一个刺耳却真实的观点:AI 算力的瓶颈,不在模型、不在资金,而在芯片设计方式本身。Ricursive Intelligence 的创始人们,用他们在 Google TPU 和 AlphaChip 的经历,解释为什么“人类主导的芯片设计”正在成为 AI 发展的天花板。

做不出好芯片,不是因为工程师不够强,而是方法错了

这期 Sequoia 的视频抛出一个刺耳却真实的观点:AI 算力的瓶颈,不在模型、不在资金,而在芯片设计方式本身。Ricursive Intelligence 的创始人们,用他们在 Google TPU 和 AlphaChip 的经历,解释为什么“人类主导的芯片设计”正在成为 AI 发展的天花板。

AI 的算力瓶颈,其实卡在一个“设计节奏失衡”上

视频一上来就点破了一个行业里很少被正面讨论的问题:模型的迭代速度,已经远远超过芯片的设计周期。模型几个月就能换一代,而一颗芯片从架构、验证到流片,却往往需要几年。

这种不对称,直接导致一个结果——我们几乎没法真正做“模型 × 芯片”的协同设计(co-design)。模型团队只能假设硬件不会变,芯片团队也只能赌未来的工作负载大概长什么样。结果是:大家都很努力,但整体效率被系统性浪费。

Ricursive 的判断很激进:如果不能让芯片和模型一起进化,Scaling Laws 迟早会撞墙。真正的突破点,不是更大的集群,而是让硬件也进入快速迭代的节奏。

从 AlphaChip 到创业:他们为什么不再相信“人类直觉”

创始人们在 Google 参与过 AlphaChip,也深度参与过 TPU 项目。这段经历给了他们一个“残酷的对照视角”:在复杂到极限的芯片设计问题上,人类工程师的直觉,其实并不可靠。

以 floorplanning(芯片平面规划)为例,这是一个变量极多、目标函数又极难精确定义的问题。功耗、面积、时序、热分布,全都互相牵制。传统方法依赖规则、经验和反复试错,但评估标准本身就模糊。

AlphaChip 的出现,第一次证明了一件事:在这种搜索空间巨大的问题上,学习型系统可以找到“人类从没想过”的解,而且是数量级上的提升。这不是 10% 的优化,而是 orders of magnitude 的差距。那一刻,他们意识到:这不是工具升级,而是范式切换。

Recursive 这个名字,其实是一种野心

为什么公司叫 Ricursive(递归)?答案不是品牌故事,而是技术路线图。

他们追求的是一个自我强化的闭环:AI 用来设计芯片,而更好的芯片,又反过来训练出更强的 AI,再继续设计下一代芯片。不是一次性的自动化,而是持续自我改进的系统。

这也解释了他们和“传统 EDA 自动化”的根本区别。经典方法是把人类规则编码进去,而 Ricursive 想做的是:让系统自己学习什么样的设计更好。不是替工程师画图,而是替整个设计流程做决策。

在视频中,他们反复强调一个点:这条路的价值,不只是更快、更省,而是打开一个过去根本不存在的设计空间。

不是更强的 TPU,而是“芯片的寒武纪大爆发”

最有野心的一句话,出现在后半段:他们真正想解锁的,是全新的应用形态。

当芯片设计的成本和周期被 AI 压缩之后,定制化将不再是奢侈品。不同模型、不同场景,甚至不同物理环境(比如太空),都可以拥有“为它量身定做”的芯片。

这意味着什么?意味着未来不一定是少数几种通用加速器统治世界,而是成百上千种高度专用的芯片并存——一次真正的“芯片寒武纪大爆发”。

也正因为如此,他们并不认为大公司会“自然”在这件事上占优。即便拥有最强的 AI 模型,如果芯片设计方式不变,优势也会被迅速吃掉。

总结

这期视频真正值得 AI 从业者反复咀嚼的,不是某个具体算法,而是一个判断:AI 的下一次跃迁,很可能发生在你平时很少关注的地方——芯片设计流程本身。

如果你做模型,这意味着硬件不再只是约束条件,而是可以被共同优化的变量;如果你做系统或基础设施,这意味着“快”本身正在被重新定义;如果你在创业,这提醒你:真正的机会,往往藏在那些被默认“改不了”的环节里。

一个值得带走的问题是:当芯片也开始像模型一样自我进化,我们今天关于算力、成本和壁垒的所有判断,会有多少需要重写?


关键词: 芯片设计, AI 算力, AlphaChip, TPU, 通用人工智能

事实核查备注: 需要核查:1)Ricursive Intelligence 创始人是否明确参与过 Google AlphaChip 项目;2)视频中关于“orders of magnitude”提升的具体语境是否为定性描述;3)Sequoia Training Data 节目对算力瓶颈的原始表述;4)视频发布日期 2026-01-14。