支撑顶级AI应用的隐形力量:Turbopuffer如何重塑搜索范式
这篇文章基于RedpointAI的一期播客访谈,讲述高速增长的向量数据库Turbopuffer为何诞生、它试图解决什么根本问题,以及在超大规模上下文和AI搜索时代,数据库架构正在发生的深刻变化。
这篇文章基于RedpointAI的一期播客访谈,讲述高速增长的向量数据库Turbopuffer为何诞生、它试图解决什么根本问题,以及在超大规模上下文和AI搜索时代,数据库架构正在发生的深刻变化。
Zep创始成员Daniel Chalef提出一个尖锐观点:AI Agent的记忆问题不在于检索不够聪明,而在于记忆建模从一开始就错了。他通过真实演示说明,单纯用向量数据库和RAG存“事实”,只会让无关信息污染记忆,最终放大幻觉。
这场演讲从一个现实问题出发:在复杂、密集的企业知识中,单纯依赖向量检索的RAG正在失效。Sam Julien结合真实系统演进过程,讲述了他们为何转向Graph-based RAG,以及这一转折带来的方法论启示。
这场演讲展示了一种全新的阅读范式:书不再只是静态文字,而是能听、能问、能理解上下文的互动体验。演讲者通过真实的个人困惑出发,讲述了如何用AI重构阅读,并分享了隐藏AI、强调人类审美的产品方法论。
在这场Recsys主题演讲中,Eugene Yan没有讨论“要不要用大模型”,而是回答了“该怎么用”。他用一系列真实案例,提出了三条正在落地的路径:语义化ID、基于大模型的数据增强,以及统一模型,展示了推荐与搜索系统在LLM时代的真实进化方式。
这是一场专为Web开发者准备的演讲:Ishan Anand用大约600行原生JavaScript,从零跑起一个GPT‑2级别的语言模型。文章还原他在现场的讲解路径,带你理解Token、Embedding、MLP和Language Head如何串起来,以及为什么ChatGPT并不“神秘”。
这是一次来自Google DeepMind一线的内部复盘。Logan Kilpatrick用不到12分钟,讲清了Gemini过去一年真正的转折点:为什么2.5 Pro意义重大,DeepMind为何从“纯研究”转向“研究+交付”,以及他们眼中多模态、Agent和“无限上下文”的下一站。
Nir Gazit用一次真实的RAG机器人优化实验,挑战了“提示工程是一门手艺”的共识。他没有手工打磨prompt,而是用评估器和Agent把效果从0.4推到0.9,给出了一条更像工程、也更可扩展的路径。
MongoDB旗下Voyage AI的Frank Liu,用10多分钟梳理了AI搜索与检索的现状与未来。他不仅回顾了从BM25到Embedding的技术演进,更明确指出:真正拉开差距的不是“用不用向量”,而是Embedding质量、多模态能力,以及是否具备指令理解与推理能力。
MongoDB收购的创业公司CEO、斯坦福教师腾宇·马,从一线实践出发,讲述RAG在2025年的真实状态:为什么它仍然不可替代、哪些改进已经被验证有效,以及多模态Embedding将把RAG带向哪里。