“RAG 已死”之后,IBM 掏出 OpenRAG,把复杂问题摆上了台面
上下文窗口越来越大,很多人开始断言 RAG 已经过时。但在这场来自 IBM 的分享里,演讲者几乎是正面“开怼”:RAG 不但没死,而且远比你想象得复杂。更关键的是,他们把这些复杂性做成了一个开源栈——OpenRAG。
上下文窗口越来越大,很多人开始断言 RAG 已经过时。但在这场来自 IBM 的分享里,演讲者几乎是正面“开怼”:RAG 不但没死,而且远比你想象得复杂。更关键的是,他们把这些复杂性做成了一个开源栈——OpenRAG。
你可能以为,大语言模型变强靠的是更多数据、更大参数。但这场演讲抛出一个反直觉结论:真正的突破,来自让模型在强化学习环境里“自由游走”。从 OpenAI o1 到可验证的推理环境,LLM 训练正在换一套底层逻辑。
当市场还在盯着“下一个模型”“下一个参数规模”时,AI 行业已经悄悄进入一个更危险、也更关键的阶段:表面平静,底层剧烈变化。从 OpenAI 的资金传闻、领导层动态,到 Anthropic 的策略转向,再到 Google 在开源上的反常加速,一场 AGI 风暴前的“静默期”正在成形。
如果你还以为 AI 公司内部比拼的是代码质量,那你已经落后了。Meta 工程师现在被公开排名的不是绩效、不是影响力,而是——你花了多少 token。更疯狂的是,这可能只是一个更大变化的前奏:token,正在变成新时代的“眼球”。
在这场由 OpenAI 官方发布的论坛对谈中,Sam Altman 并没有沉浸在“AI 多强”的自我庆祝里,而是反复把话题拉回一个更危险、也更现实的问题:当超级智能真的出现,人类的制度、韧性与分配机制,准备好了吗?这不是一次技术发布,而是一场对未来社会的压力测试。
在这期 Latent Space 的对谈中,OpenAI Frontier 团队的 Ryan Lopopolo 抛出一个反直觉观点:当 AI Agent 足够强时,真正的瓶颈不再是模型,而是“人”。为了突破这一点,他们开始把整个软件工程流程本身,交给 AI 来执行。
如果你以为谷歌在AI竞赛中只是“后来追赶”,Sundar Pichai会当场否定你。在这场罕见的长谈中,他首次把Transformer、Search、LaMDA、Gemini,以及1750亿美元级别的资本投入,串成一条完整的AI时间线。
纽约时报称“史上首个一人打造的十亿美元公司”,但TBPN这期节目直接拆台:利润率可能只有15%,还收到了FDA警告信。更狠的是,他们把这件事放进了更大的背景——AI融资失速、中国2030技术路线、以及独立开发者如何真的跑赢大厂。
如果你以为顶级 AI 团队靠的是厚厚的 PRD 和严密流程,那 Codex 团队会让你大跌眼镜。Alex 和 Romain 在这期访谈里透露:他们几乎不写规格说明,却把 Codex 做成 OpenAI 内部的“开发基石”。更重要的是,他们展示了一种正在悄悄改变软件开发方式的新范式。
Anthropic 再次“手滑”泄露 Claude Code 源码,有人只是围观,而 Riley Brown 直接下载、拆解、改人格、换UI,甚至做成桌面应用。这不是黑客炫技,而是一堂关于“AI Agent到底是怎么被造出来的”公开课。