GraphRAG如何重塑LLM上下文:微软的结构化记忆实验
微软研究院Graph团队负责人Jonathan Larson,通过一系列真实演示展示了GraphRAG如何用“结构化记忆”解决大模型在复杂代码库和长上下文中的根本瓶颈。这场分享不仅关乎检索增强生成,更揭示了AI Agent走向可执行软件工程的关键路径。
微软研究院Graph团队负责人Jonathan Larson,通过一系列真实演示展示了GraphRAG如何用“结构化记忆”解决大模型在复杂代码库和长上下文中的根本瓶颈。这场分享不仅关乎检索增强生成,更揭示了AI Agent走向可执行软件工程的关键路径。
这场来自 Neo4j 的分享,展示了“Graph Intelligence”如何在大模型时代补齐推理与检索的短板。演讲者通过现场演示说明:与其一味扩大模型,不如用图结构组织知识、驱动问题,并放大已有数据的价值。
这是一场不太像传统技术分享的演讲。Mark Bain 从个人经历出发,把 AI Agent 的“记忆问题”放进更大的数学、物理和生物学框架中重新审视,并提出:只有把记忆当成结构化的关系网络,而不是简单存储,AI 才可能真正走向自治与协作。
Neo4j 的 Jesús Barrasa 在这场分享中提出了一个反直觉但极具实践价值的观点:要让 AI Agent 更可靠,关键不只是更大的模型,而是一套清晰的“知识作战手册”——本体论。通过将本体论引入 Graph RAG,他展示了如何在构建和检索两个阶段显著提升 AI 应用的质量与可控性。
MongoDB 的 Apoorva Joshi 用一场近 90 分钟的演讲,系统拆解了如何从零构建多模态 AI Agent,更重要的是,她反复强调一个被忽视的问题:什么时候真的需要 Agent,什么时候反而不该用。
这场演讲给出了一个清晰判断:未来 AI Agent 的竞争核心不在提示词,而在记忆。MongoDB 的 Richmond Alake 从工程实践出发,系统拆解了 Agent Memory 的定义、类型、架构模式以及检索的重要性,解释了为什么“没有记忆,就没有真正的 Agent”。
MongoDB旗下Voyage AI的Frank Liu,用10多分钟梳理了AI搜索与检索的现状与未来。他不仅回顾了从BM25到Embedding的技术演进,更明确指出:真正拉开差距的不是“用不用向量”,而是Embedding质量、多模态能力,以及是否具备指令理解与推理能力。
MongoDB收购的创业公司CEO、斯坦福教师腾宇·马,从一线实践出发,讲述RAG在2025年的真实状态:为什么它仍然不可替代、哪些改进已经被验证有效,以及多模态Embedding将把RAG带向哪里。
Charles Frye 用现场基准测试回答了一个被反复讨论却少有数据支撑的问题:今天的 LLM 推理引擎到底有多快?这场分享不讲抽象趋势,而是用真实模型、真实接口、真实延迟,说明为什么“自托管”在 2025 年终于变得合理。
这场来自微软的技术演讲,并没有停留在“AI Agent是什么”的概念层面,而是用完整的工程实践,展示了如何用Azure AI Agent Service真正构建、运行和约束一个Agent系统。文章将带你理解2025年Agent浪潮背后的方法论,以及微软在工程化上的关键取舍。