只训练了一次大模型,却想生成分子:AlphaFold之后,AI真正的野心暴露了

AI PM 编辑部 · 2026年02月12日 · 13 阅读 · AI/人工智能

正在加载视频...

视频章节

这期 Latent Space 的对话一上来就抛出一个反直觉的事实:他们只训练过一次“大模型”,算力远远不够,但奇迹般地跑通了。更重要的是,讨论的重点已经不再是“模型多强”,而是 AI 是否真的开始理解并生成现实世界的分子与蛋白质。

只训练了一次大模型,却想生成分子:AlphaFold之后,AI真正的野心暴露了

这期 Latent Space 的对话一上来就抛出一个反直觉的事实:他们只训练过一次“大模型”,算力远远不够,但奇迹般地跑通了。更重要的是,讨论的重点已经不再是“模型多强”,而是 AI 是否真的开始理解并生成现实世界的分子与蛋白质。

“我们只训练了一次,但居然成了”——算力神话正在松动

在当前 AI 圈,“多训练几次、多砸点算力”几乎成了默认答案。但节目一开始,嘉宾却轻描淡写地说:我们只训练了那个大模型一次,因为算力就这么多,“某种意义上是个奇迹,它居然能工作”。这句话之所以炸,是因为它戳中了一个行业痛点:当算力不再无限,方法论才是真正的分水岭。

这并不是炫耀运气,而是在暗示一种变化——模型规模不再是唯一护城河。尤其是在分子生成、蛋白设计这种高度结构化的问题上,盲目 scaling 并不会线性带来收益。相反,模型是否抓住了物理约束、化学结构和中间态,才决定了“一次训练”有没有意义。

AlphaFold 2 六年后,兴奋点已经变了

对话中一个关键时间锚点被反复提到:AlphaFold 2 之后大约六年。问题不再是“还能不能复现 AlphaFold 的成功”,而是:在那次震撼之后,什么才值得继续兴奋?

嘉宾的回答很耐人寻味——真正有意思的地方,在于它和以往方法“完全不同”。AlphaFold 2 的价值,不只是把结构预测做到极致,而是证明了一件事:模型可以通过理解输入和约束来“解码”结构,而不是死记硬背数据库。这也是为什么后续提到 AlphaFold 3 时,重点放在“decoding input rather than memorizing”。

这意味着,AI 开始从一个强大的拟合器,向一个能在规则空间里推理的系统演进。

从“小分子是什么”讲起:生成比预测难得多

节目里有一个看似基础、却极其关键的澄清:什么是 small molecule?——“就是一堆通过化学键连接在一起的原子”。简单,但后果很重。

因为一旦你从“预测一个已存在的结构”,转向“生成一个从未存在过的分子”,难度就完全变了。预测是单向的,而生成意味着:你要同时满足物理稳定性、化学合理性、以及潜在的结合强度。

这也是为什么他们反复提到 coarse-grain 到 fine-grain 的过程:先用粗粒度建模探索可能性空间,再用精细优化去逼近真实物理世界。这不是工程细节,而是决定生成系统是否可扩展的核心设计。

中间态为什么重要?因为我们还不知道怎么“插手”

一个非常专业、但极有前瞻性的问题被抛出:为什么中间态(intermediate states)这么重要?答案有点残酷——因为我们并不知道如何干预系统。

在蛋白质和分子体系中,最终状态只是结果,真正决定路径的是无数中间态。但目前的模型,大多把它们当成黑箱。对话中提到,真实世界里为了理解这些过程,人类已经花费了“数以百万计的计算小时”。

如果 AI 想成为真正的科学合作者,而不是结果生成器,就必须开始显式地建模这些中间过程。这一点,也直接连接到了后面关于 agentic systems 验证的问题:你怎么知道模型给出的‘好结果’,不是靠运气撞出来的?

从“好模型”到“可用系统”,AI Agent 的现实拷问

在接近尾声时,话题自然转向了 AI Agent:当系统开始自主提出方案、评估结合强度、甚至设计新蛋白,我们该如何验证它?

这里没有给出漂亮的答案,反而点出了现实难题——你只能通过一次次 hit,看结果是否站得住。这种验证方式,和传统软件测试完全不同,更接近科学实验。

也正因为如此,所谓“行业 go-to model”并不是参数最多的那个,而是最稳定、最可解释、最能嵌入实际工作流的系统。

总结

这场对话真正传递的信息,并不是某个具体模型有多强,而是一个趋势:AI 正在从“展示能力”,走向“介入现实”。对从业者来说,takeaway 很明确——如果你还只盯着参数规模和 benchmark,可能已经慢了一拍。更值得投入精力的,是约束建模、中间态、以及系统级验证能力。一个值得思考的问题是:当生成分子和蛋白变成常态,你的技术栈,真的准备好接住这个未来了吗?


关键词: AlphaFold, 分子生成, 蛋白设计, 模型训练, AI Agent

事实核查备注: 需要核查:1)AlphaFold 2 距今约 6 年的时间表;2)视频中关于“只训练一次大模型”的原话语境;3)对 AlphaFold 3 的描述是否仅限于 decoding vs memorizing;4)是否明确提到具体模型或系统名称(如 bold gen)。