DeepMind 一次性发现220万种新材料,AI把材料科学推进了800年
正在加载视频...
视频章节
今年 AI 最被低估的一次突破,可能不在大模型,而在材料科学。Google DeepMind 用一个叫 GNoME 的模型,一口气预测出 220 万种全新晶体结构,其中 38 万种被认为“理论上稳定”。这不是论文数字游戏,而是可能直接改写电池、芯片、超导体研发方式的一次范式转移。
DeepMind 一次性发现220万种新材料,AI把材料科学推进了800年
今年 AI 最被低估的一次突破,可能不在大模型,而在材料科学。Google DeepMind 用一个叫 GNoME 的模型,一口气预测出 220 万种全新晶体结构,其中 38 万种被认为“理论上稳定”。这不是论文数字游戏,而是可能直接改写电池、芯片、超导体研发方式的一次范式转移。
从“一个 LK-99 吵翻天”,到“38 万个候选材料”
如果你还记得 2023 年夏天的 LK-99,就会明白这件事有多夸张。那只是一种“可能的室温超导体”,就足以让全球物理学界、资本市场和社交媒体集体失控。
现在,DeepMind 说:不是一个,是几十万个。
GNoME(Graph Network for Materials Exploration)这套系统,生成了 220 万种潜在的新材料组合,其中约 38 万种被预测为稳定晶体。对比一下背景数据:过去十多年里,全世界科学家用最昂贵、最严谨的计算方法,一共确认了大约 2.8 万种稳定材料。
也就是说,AI 在一次研究中,把人类材料学的“候选池”扩大了一个数量级。这也是为什么 DeepMind 直接给了一个极具挑衅意味的说法:相当于 800 年的材料学知识积累。
真正的突破点:不是“生成”,而是“可行性预测”
材料科学里最残酷的一点是:你可以在电脑里生成无数结构,但 99% 根本造不出来。
此前 AI 最大的瓶颈就在这里——稳定性预测准确率徘徊在 50% 左右,接近抛硬币。GNoME 把这个数字拉到了 80%。这不是渐进式改进,而是质变。
关键在于它的训练方式。GNoME 使用图神经网络,把晶体看成“原子之间的关系网络”,再通过 Active Learning 反复循环:
- 模型生成候选晶体
- 用密度泛函理论(DFT)进行高精度验证
- 把验证结果喂回模型
这个闭环让模型不仅能“猜新东西”,还能越来越清楚什么东西现实中站得住。这也是为什么 DeepMind 不只公布了论文,还直接把 38 万种稳定预测公开给全球研究者。
从“算得出”到“真做出来”,AI 实验室开始接管现实世界
最容易被忽略、但最关键的一点是:这些材料,已经有人做出来了。
外部实验团队已经在实验室里独立合成了 736 种 GNoME 预测的新材料。更激进的是,劳伦斯伯克利国家实验室直接配套发布了一套“自主材料实验室”:机器人 + 机器学习 + 大模型。
在 17 天不间断运行中,这个系统从 58 个目标里合成了 41 种全新化合物。失败的实验也不是浪费,而是立刻反哺模型,调整下一轮合成策略。
这意味着一件事:材料发现,第一次出现了从算法 → 机器人 → 新物质的完整自动化流水线。
为什么 AI 从业者必须关心这件事
这不是材料学的孤立胜利,而是一个信号。
GNoME 找到:
- 5.2 万种类石墨烯的层状材料(此前只有约 1000 种)
- 528 种潜在锂离子导体(比过去研究多 25 倍)
你看到的不是“某个应用”,而是一种新模式:当搜索空间巨大、人类直觉失效、验证成本极高时,AI 会直接重写科研节奏。
今天是材料,明天可能是催化剂、药物、甚至新型计算架构。与其纠结“下一个 GPT-4”,不如意识到:AI 正在成为人类探索未知世界的默认工具。
总结
DeepMind 这次真正震撼的,不是数字本身,而是它展示了一种全新的科研范式:AI 不再只是“辅助分析”,而是直接定义“该往哪里试”。
对 AI 从业者来说,这意味着机会正在从模型参数,转向“能否闭环真实世界”。如果你做模型、做系统、做平台,值得思考的是:你的 AI,能不能像 GNoME 一样,把不确定性变成可规模化的探索?
未来最值钱的,不一定是更大的模型,而是能把世界推进得更快的模型。
关键词: Google DeepMind, GNoME, 材料科学, 图神经网络, AI 科研
事实核查备注: 需要核查:GNoME 预测材料总数(220 万)、理论稳定材料数量(38 万)、稳定性预测准确率从 50% 提升至 80%、过去已知稳定材料数量(约 2.8 万)、外部实验验证数量(736 种)、“相当于 800 年知识积累”的原始表述来源