OpenAI 内部坦白局:把大模型做强,90%的人第一步就走错了
在 OpenAI 首届开发者大会上,一场看似“基础”的分享却抛出了一个让无数团队踩坑的真相:微调不是万能钥匙,甚至常常是最后一步。这场45分钟的技术演讲,实际上给出了一个极其清醒、反直觉的 LLM 性能优化路线图。
在 OpenAI 首届开发者大会上,一场看似“基础”的分享却抛出了一个让无数团队踩坑的真相:微调不是万能钥匙,甚至常常是最后一步。这场45分钟的技术演讲,实际上给出了一个极其清醒、反直觉的 LLM 性能优化路线图。
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
很多人以为 AI 改变职业的方式是“取代你”,但这期《AI Daily Brief》讲了一个更反直觉的事实:AI 没有先消灭岗位,而是先创造了两个新职业,而且一个比一个更抢手。从不会写代码的普通员工,到年薪数十万美元的 AI Engineer,这条路径已经被走通了。
大多数人聊企业级大模型,第一反应是“选哪个模型”“是不是 GPT-4”。但在 Stripe AI Day 上,Dust 联合创始人 Gabriel Hubert 用一场并不炫技的 Demo,抛出了一个更刺耳的观点:真正拖慢 AI 落地的,从来不是模型本身。
在这期《No Priors》中,Sarah Guo 与 Elad Gil 讨论了一个反直觉但极具操作性的观点:AI 的 10 倍、100 倍进步,并不一定来自更大的模型,而是来自对现有模型的系统级增强。他们用大量具体技术路径,拆解了真正拉开差距的地方。
如果你还觉得AI时代最难的是模型效果,这条新闻会让你清醒:微软AI研究员一个配置失误,38TB敏感数据直接“裸奔”在GitHub。更魔幻的是,同一周里,AI安全圆桌聊成了政治交锋,而软银正准备把几十亿美元继续砸向AI。这不是科幻,是正在发生的行业现实。
很多人第一次用 ChatGPT 时都有一种错觉:语言智能的问题,好像已经被解决了。但一篇由剑桥、UCL、Meta AI 等机构联合完成的论文却泼了一盆冷水——我们可能才刚刚站在起点。真正的挑战,不是“模型不够大”,而是一整套尚未被驯服的复杂系统问题。
插件不是给ChatGPT“加功能”,而是把它从聊天机器人推向“可执行系统”。从买菜、订机票,到金融研究、代码分析,这一波插件真正改变的,是AI与现实世界的连接方式。
在这期 No Priors 播客中,Google Brain 研究科学家 Kelvin Guu 回顾了自己从数学、统计走向自然语言处理的路径,并系统讲述了他在检索增强生成(RAG)、模块化模型和指令跟随方面的核心思考。这是一场关于“如何让模型更像工具而非黑箱”的深度对话。
这场演讲讲述了YouTube团队如何尝试让Gemini真正理解YouTube世界,并将大语言模型用于视频推荐与检索。核心不在于炫技,而是在规模、约束和产品现实下,重新思考LLM能做什么、不能做什么。