为什么前沿模型正在分化:RL环境、评测失真与“模型品味”
在这期对谈中,Edwin从一线视角讲述了前沿大模型为何开始走向分化:评测指标如何误导优化方向、RL环境为何成为新共识,以及真正决定模型上限的“品味”与文化。
在这期对谈中,Edwin从一线视角讲述了前沿大模型为何开始走向分化:评测指标如何误导优化方向、RL环境为何成为新共识,以及真正决定模型上限的“品味”与文化。
这场演讲并不是一次常规的模型发布,而是一份关于“如何把小模型做成好用Agent”的方法论说明。Olive Song从开发者体验出发,解释了Miniax M2为何以10B参数,却在真实编码与Agent任务中赢得社区认可。
这是一场来自一线实践者的反思演讲。Nik Pash 回顾了在构建 AI 编程代理过程中走过的弯路:从用工程技巧掩盖模型不足,到意识到评测与强化学习才是通往下一代能力的关键,并由此推出全新的基准体系。
这场演讲不是在重复“强化学习很重要”,而是讲清楚一件更现实的事:当RL从研究走向企业生产环境,什么地方一定会坏、为什么GPU会被浪费,以及他们如何用异步RL把训练效率拉回可控区间。
这场演讲并不只是谈如何“把RL环境做大”,而是重新定义了环境在强化学习中的角色:它既是研究瓶颈,也是打开人才与创新速度的钥匙。Will Brown分享了他对RL规模化的独特视角,以及为什么“环境设计”正在成为下一阶段的核心竞争力。
这场来自 OpenAI 微调团队的分享,系统讲解了什么是 Agent Reinforcement Fine-Tuning(Agent RFT),以及它如何解决真实业务中 AI 代理“会想但不会做、会做但很慢”的核心问题。通过多个一线客户案例,演讲者展示了 Agent RFT 在工具调用、延迟控制和少样本学习上的独特价值。
Harvey 联合创始人兼总裁 Gabe Pereyra 在 No Priors 访谈中,系统讲述了 AI 如何从“律师 Copilot”进化为重塑法律组织的核心基础设施。这不仅是效率工具的故事,更是关于企业级治理、Agent 工作流和法律行业未来结构的深度思考。
这期《AI Daily Brief》揭示了一个被忽视却至关重要的转折点:在Gemini 3与Claude Opus 4.5的压力下,OpenAI似乎终于修复了预训练瓶颈,而Anthropic则在产品、收入和资本市场三线并进。大模型竞争,正在从“调参和包装”回到真正的基础能力比拼。
Anthropic 首位产品经理 Diane 在访谈中系统讲述了 Opus 4.5 背后的产品与研究逻辑:模型能力如何规划、脚手架为何正在变成“智能放大器”,以及为什么安全不是成本而是竞争壁垒。这篇文章提炼了视频中最具启发性的判断与真实案例。
在这期访谈中,DeepMind研究员谭捷系统讲述了他如何从计算机图形学与强化学习出发,走到通用机器人研究前沿。他分享了机器人为何长期缺乏“常识”、数据墙如何限制进展,以及Gemini Robotics 1.5试图用世界模型和Thinking能力打开新局面的真实思路。