正在加载视频...
视频章节
当整个行业都在高喊“Continual Learning 是下一座金矿”时,OpenAI 的首席科学家却在播客里给这个共识降了温:这不是被忽视的问题,而是已经在路上的目标。真正让他夜不能寐的,是模型在未知情境下会“退回到什么价值”。这期对话,把 AI 对齐的焦点从口号拉回了硬骨头。
OpenAI首席科学家泼冷水:持续学习没被低估,真正难的是价值泛化
当整个行业都在高喊“Continual Learning 是下一座金矿”时,OpenAI 的首席科学家却在播客里给这个共识降了温:这不是被忽视的问题,而是已经在路上的目标。真正让他夜不能寐的,是模型在未知情境下会“退回到什么价值”。这期对话,把 AI 对齐的焦点从口号拉回了硬骨头。
持续学习并不神秘,它本来就是主线任务
播客一开场,主持人把问题抛给了当下最热的概念之一:Continual Learning。几乎所有人都在说,大模型的下一步一定是“不断学、不断适应”。但 OpenAI 首席科学家的回应却出奇冷静——他同意持续学习“非常重要”,但不同意它是一个被忽视、被低估的方向。
他的原话大意是:这恰恰就是现在正在构建的东西,而不是一条偏离主航道的支线。这句话的潜台词很重——如果你觉得 Continual Learning 是“下一代架构的颠覆式创新”,那可能高估了它的独立性。对 OpenAI 来说,持续学习不是一个单独的研究标签,而是规模化训练、部署、反馈循环自然演进的结果。
这也解释了为什么在真实系统里,你很少看到“纯粹”的持续学习算法被单独拎出来炫耀。它更多是以工程形态存在:更频繁的更新、更复杂的分布迁移、更长的模型记忆,而不是一篇可以单点解决问题的论文。
对齐的终极难题,不是规则,而是模型会“回到哪里”
当话题转向 Alignment,讨论立刻变得锋利起来。主持人问:在众多对齐研究方向中,哪些是他最关注、也最有希望的?
他的回答几乎没有提具体算法,而是直接点名一个长期难题:泛化。不是性能泛化,而是价值泛化。
他说得很直白:真正困难的问题在于——当模型进入我们没有明确训练过的情境时,它会依赖什么?它“回退”到的默认价值观是什么?
这句话击中了当前对齐讨论中最容易被忽略的盲区。我们可以在已知分布上通过监督、RLHF、规则约束让模型表现得很“乖”,但一旦进入模糊地带,模型并不会暂停等待人类指令,它会继续行动。而那时起作用的,不是显式奖励,而是隐含在模型内部的偏好结构。
这也是为什么他反复强调,对齐不是一次性的校准,而是关于模型在长期、跨域使用中的行为稳定性。
强化学习不该只写代码,它迟早要走进真实世界
在中段讨论中,一个有意思的转向出现了:强化学习(RL)的边界。
过去几年,RL 在代码生成、数学推理等封闭任务中取得了漂亮成绩,但首席科学家显然并不满足于此。他多次提到,真正值得投入的,是 RL 如何在“非代码域”中发挥作用——那些反馈稀疏、目标模糊、评价昂贵的环境。
这其实是一种隐性的行业判断:如果 RL 只能在可自动评测的领域里刷分,那它永远只是训练技巧;只有当它能在复杂现实决策中稳定工作,它才会成为通用智能的重要支柱。
但问题也随之而来:你如何知道模型真的学会了?当奖励函数本身就不完整时,什么才算“对齐”?这些问题,在播客里没有被轻松带过,反而被反复强调为长期瓶颈。
算力可以买,但评估和对齐不能外包
在后半段,对话不可避免地触及现实问题:算力、规模、资源。
首席科学家坦言,OpenAI 确实在购买大量计算资源,这是事实。但他紧接着强调了一点容易被忽视的事情:算力解决不了评估问题。
模型变得越来越大、越来越通用,但我们对它们的理解速度却跟不上。很多时候,我们只能在模型“已经表现出某种行为”之后,才意识到评估指标失效了。
这也是为什么他对 evaluation 和 harness(测试框架)的实现细节投入了大量关注。不是为了榜单排名,而是为了在模型真正“出界”之前,捕捉到信号。对齐在这里不再是哲学问题,而是一整套工程与研究交织的系统能力。
动量很强,但这不是可以乐观的赛道
临近尾声时,主持人提到一个感受:整个领域似乎有着巨大的动量,模型越来越强,应用越来越多。
首席科学家没有否认这种势头,但他的语气明显更谨慎。他承认现在已经能看到一些“变革性”的迹象,但这并不意味着方向已经锁定。恰恰相反,越是接近通用能力,对齐的代价就越高,失误的后果也越严重。
在他看来,未来的关键不在于某个单点突破,而在于能否持续、系统性地评估和修正模型行为。这是一条无法靠短期兴奋支撑的长跑。
总结
这期播客最有价值的地方,不在于给出了多少答案,而在于它重新校准了问题的重心:持续学习不是银弹,算力不是护身符,真正棘手的是模型在未知情境下会成为什么样的“决策者”。
对 AI 从业者来说,直接的 takeaway 是:如果你只盯着训练指标和短期效果,很可能已经落后于真正的风险曲线。无论你在做模型、产品还是研究,都该开始思考一个问题——当你的系统被用在你没预料到的场景里,它会依据什么做决定?
下一个阶段的竞争,或许不在于谁的模型更大,而在于谁更早理解并驯服了这种“价值泛化”的不确定性。
关键词: OpenAI, AI对齐, 持续学习, 强化学习, 模型评估
事实核查备注: 需要核查:1)播客中 OpenAI 首席科学家的具体姓名与职称;2)视频发布时间是否为 2026-04-09;3)关于 Continual Learning 与 Alignment 的关键原话措辞;4)播客频道 Unsupervised Learning: Redpoint's AI Podcast 的官方信息。