OpenAI首席科学家泼冷水:持续学习没被低估,真正难的是价值泛化
当整个行业都在高喊“Continual Learning 是下一座金矿”时,OpenAI 的首席科学家却在播客里给这个共识降了温:这不是被忽视的问题,而是已经在路上的目标。真正让他夜不能寐的,是模型在未知情境下会“退回到什么价值”。这期对话,把 AI 对齐的焦点从口号拉回了硬骨头。
当整个行业都在高喊“Continual Learning 是下一座金矿”时,OpenAI 的首席科学家却在播客里给这个共识降了温:这不是被忽视的问题,而是已经在路上的目标。真正让他夜不能寐的,是模型在未知情境下会“退回到什么价值”。这期对话,把 AI 对齐的焦点从口号拉回了硬骨头。
Anthropic 发布了迄今最强模型 Mythos,但真正引爆讨论的不是性能,而是它“不对公众开放”。系统卡里的安全表述、能力展示的边界、以及行业内截然不同的反应,让 Mythos 成为一次关于 AI 权力、风险与节制的现实压力测试。
很多人以为 AI Agent 失控,是模型不够聪明。但这场分享直接给出一个刺痛从业者的结论:真正让系统崩溃的,往往是你随手接入的第三方工具。Nimrod Hauser 用一个 MCP Server 的真实演示,讲清楚了 Agent 时代最容易被忽视、却最致命的一环。
如果你还在讨论“AI能不能提升效率”,Jack Dorsey已经往前走了三步:他认为,真正的变化是——公司本身要变成一种智能体。这期对谈里,他几乎推翻了我们对组织、CEO、董事会乃至“公司存在意义”的全部默认认知。
这不是一堂普通的Figma教学。Figma官方在一次教育工作坊里,用“约束、自动布局和网格”讲清了一个反直觉的事实:真正决定系统是否稳定的,不是缩放能力,而是对齐规则。这套逻辑,正在和AI领域的“对齐问题”产生惊人的共鸣。
美国“战争部”将 Anthropic 认定为供应链风险,这不是一次普通的政企摩擦,而是一次提前上演的高风险博弈。Dwarkesh Patel 在视频中直言:政府正在用前所未有的杠杆,逼迫AI公司在价值观与生存之间站队,而这,可能比我们想象得更危险。
如果连 Anthropic 都开始松动 AI 安全底线,那这个行业到底还剩下什么“刹车”?在这期 TBPN 中,嘉宾们围绕 Anthropic 最新安全政策展开激烈讨论:竞争压力、国防合作、模型越狱、核战争模拟……一连串细节拼在一起,呈现出一个远比“是否重视安全”更复杂的现实。
一边是企业疯狂买 Token、没人要退款,另一边却有 80% 的公司“从 AI 中得不到价值”。TBPN 这期节目把几条看似不相关的新闻串成了一条残酷主线:AI 已经无处不在,但我们可能正在用错方式理解它、投资它,甚至约束它。
如果你还在用SWE-Bench Verified的0.1%提升判断模型编码能力,这个结论可能已经过期了。OpenAI Frontier Evals团队在最新访谈中直言:这个行业“北极星”级基准已经饱和且被严重污染,正在失去意义,而整个AI评测体系正被迫转向更难、更模糊、也更接近真实能力的新方向。
当所有人都在为电力、数据中心和芯片发愁时,马斯克抛出一个反直觉判断:36个月内,部署AI最便宜的地方将是太空。这不是科幻,而是一套从物理极限、能源约束到AI推理形态的完整逻辑。听完这场超长对话,你会重新理解AI的终局战场。