当AI应用真正规模化,推理正在走向一条全新的“扩展定律”
Fireworks 的 Lynn 在这场分享中提出一个少被讨论却极其关键的判断:AI 应用能否做大,瓶颈早已不在模型本身,而在推理阶段的系统性优化。她从应用开发者视角出发,讲清了未来推理扩展的三维定律,以及为什么推理必须与后训练协同设计,才能把成本压到 10 倍甚至 100 倍以下。
Fireworks 的 Lynn 在这场分享中提出一个少被讨论却极其关键的判断:AI 应用能否做大,瓶颈早已不在模型本身,而在推理阶段的系统性优化。她从应用开发者视角出发,讲清了未来推理扩展的三维定律,以及为什么推理必须与后训练协同设计,才能把成本压到 10 倍甚至 100 倍以下。
在 Config 2025 的舞台上,Figma 的两位设计系统负责人几乎没怎么谈“AI”,却给所有 AI 从业者上了一课:真正决定系统是否能规模化、能协作、能被 AI 理解的,不是模型,而是设计系统本身。这场演讲,信息密度远超预期。
在这期播客中,《AI 2027》的两位作者 Daniel 与 Thomas 讲述了一个并非预测、而是“情景推演”的故事:如果 AI 在短期内达到超级智能,人类社会可能走向哪些不同结局?这不是科幻,而是一份关于对齐、权力与时间窗口的现实警告。
这场来自 Sequoia AI Ascent 的圆桌讨论,没有给出简单的“开源或闭源谁会赢”的答案,而是通过 DeepSeek 的意外走红、Llama 4 的评估争议,以及对模型格局的定量判断,勾勒出未来 AI 生态更真实的走向。
GPT-4o被质疑过度迎合用户,引发了对AI对齐的新一轮讨论。本文将这一现象与Anthropic创始人Dario Amodei关于“可解释性紧迫性”的文章放在同一视角下,揭示一个更深层的问题:我们正在部署越来越强大的系统,却仍然不真正理解它们是如何运作的。
当大多数公司直接接入现成AI工具时,Jane Street却选择了一条更难的路:围绕自研语言生态,从数据、训练到编辑器,重新打造AI开发工具链。这篇文章还原了他们如何在“模型不懂OCaml”的现实下,把大语言模型真正变成可用生产力。
Anthropic完成35亿美元E轮融资,但这笔钱的真正含义不在规模,而在方向。一位投资人直言其价值在于“让每个软件工程师效率提升10倍”。这期视频揭示了:在模型同质化时代,Anthropic如何意外地在软件工程领域建立罕见护城河。
在这期 No Priors 播客中,AI Safety Center 主任 Dan Hendrycks 解释了他为何早早投身 AI 安全研究,并提出一个反直觉观点:实验室里的“对齐”和“安全”远不足以决定 AI 的结局,真正的风险更多来自地缘政治、竞争压力与结构性博弈。
许多团队投入大量精力做LLM评估,却依然在生产环境频频翻车。本文基于AI Engineer的一场演讲,解释为什么常见的评估体系会“看起来很好、实际上没用”,以及如何通过持续对齐评估器、数据集和真实用户需求,让评估真正产生价值。
马斯克牵头提出97.4亿美元收购OpenAI非营利组织的报价,引发了AI行业的巨大震荡。这究竟是一次真心想买的并购尝试,还是一场针对Sam Altman和OpenAI公司化进程的战略阻击?本文拆解这场“AI肥皂剧”背后的法律结构、博弈逻辑与AGI竞赛暗线。