比微调更猛的路线:YC 正在押注一种“让模型自己变聪明”的方法
当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。
当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。
如果你还把AI写代码当成“高级自动补全”,那你已经落后了一整年。Claude Code刚满一岁,却已经做到年化25亿美元收入、重塑Anthropic命运,甚至引发资本市场恐慌。这不是工具进化,而是软件工程的一次相变。
如果你以为 AI 的指数增长已经开始放缓,Dario Amodei 可能会同意你一半,但反对你另一半。在这场对话中,他一边承认我们正逼近某些极限,一边又抛出一个更危险的判断:真正决定胜负的,不再是算力,而是验证、强化学习,以及谁能活到下一轮。
当所有人还在迷信“更大参数=更强智能”时,Jeff Dean 在这期 Latent Space 里反复强调一个反直觉结论:AI 的胜负,早就从规模竞赛转向了“帕累托前沿”的争夺。更小、更快、更便宜,反而才是下一阶段的核心战场。
当所有人还在讨论模型规模和算力时,Prime Intellect 的两位研究者抛出一个反直觉判断:真正卡住 AI 研究的,已经不是数据,而是“环境”和“评估”。他们正在做的事情,可能会重塑强化学习、后训练和 AI Agent 的整个工作方式。
如果你以为AI的瓶颈是电力、是算力价格、甚至是模型算法,那这场访谈会让你重新校准认知。Dylan Patel在一次看似闲聊的长访谈中,抛出了几个足以颠覆行业直觉的判断:GPU天生就会大量失败、能源根本不是核心约束,甚至——未来1%的数据中心可能在太空。
如果你以为AGI只差算力和数据,那这期播客会让你清醒。前OpenAI研究副总裁Jerry Twerk首次系统谈及离职原因、他眼中真实的AGI时间表,以及一个让很多从业者不安的判断:强化学习和Scaling Laws,正在逼近天花板。
在这期 TBPN 里,一组数字让所有人安静了:中国一年进口约3500亿美元的半导体,同时却在全球疯狂“买品牌”。从 MG、沃尔沃到 TikTok 的去向,再到 Sam Altman 被反复提及的 AGI 争论,这不是杂谈,而是一张正在成形的科技权力地图。
如果你还以为AGI只是个营销词,那这期对谈会让你不安。Yi Tay 亲口承认:把“AGI”写进团队名字并不是玩笑;而在IMO金牌、On-Policy RL、AI编程全面可用的背后,一条新的技术主线已经浮出水面。
这期对话围绕“通用机器人”展开,Physical Intelligence 的 Karol Hausman 与 Tobi Springenberg 分享了他们对机器人基础模型、智能层瓶颈以及强化学习角色的判断。文章提炼访谈中的关键洞见,解释为什么他们认为机器人距离大规模部署已不再遥远。