GraphRAG如何重塑LLM上下文:微软的结构化记忆实验
微软研究院Graph团队负责人Jonathan Larson,通过一系列真实演示展示了GraphRAG如何用“结构化记忆”解决大模型在复杂代码库和长上下文中的根本瓶颈。这场分享不仅关乎检索增强生成,更揭示了AI Agent走向可执行软件工程的关键路径。
微软研究院Graph团队负责人Jonathan Larson,通过一系列真实演示展示了GraphRAG如何用“结构化记忆”解决大模型在复杂代码库和长上下文中的根本瓶颈。这场分享不仅关乎检索增强生成,更揭示了AI Agent走向可执行软件工程的关键路径。
MongoDB收购的创业公司CEO、斯坦福教师腾宇·马,从一线实践出发,讲述RAG在2025年的真实状态:为什么它仍然不可替代、哪些改进已经被验证有效,以及多模态Embedding将把RAG带向哪里。
很多人以为,设计转代码的关键是模型够不够强。但 Figma 在这次 Q&A 里反复强调的却是另一件事:上下文怎么给,比模型本身更重要。从“不要一次性丢整屏设计”到 MCP 只读策略背后的安全考量,这是一场关于 AI Agent 如何真正融入生产环境的深度对话。
当企业纷纷押注“智能体时代”,真正的分歧才刚刚开始:是构建高度协作的多智能体系统,还是打磨一个上下文完整、足够可靠的单智能体?Anthropic与Cognition给出了几乎相反的答案,而这场分歧,决定了AI系统能走多远。
Anthropic 产品经理 Theodora Chu 亲述 MCP 的起源与野心:它并不是又一个工具调用协议,而是一场围绕“模型自主性”的长期赌注。从工程师反复复制上下文的痛点,到 Cursor、Google、OpenAI 的集体采用,这次演讲给了创业者非常具体的判断框架:接下来该往哪里建。
Wordware CEO Filip Kozera 直言:聊天式 AI 天生不适合构建可复用、可扩展的系统。真正能把自然语言转化为代码、并催生后台智能体(Agents)的,是结构化文档与人类在环的协作方式。
大模型Agent的失败,往往不是模型不够聪明,而是工具太“愚蠢”。Wordware联合创始人Robert Chandler结合自动驾驶与AI Agent实践,提出一个反直觉但关键的观点:不要让Agent被低级工具拖累,而是让工具本身具备更多“代理性”,真正学会替人思考和行动。
这篇文章讲述了AI编程如何真正跨过“玩具级应用”,走进企业核心系统。通过摩根士丹利重写COBOL遗留系统的真实案例,文章揭示了AI编码从“提高效率”到“解决不可能问题”的关键转变。
Peter Yang通过一系列真实演示,对ChatGPT、Claude和Gemini在2025年的核心能力进行了正面对比。这不是一场“谁最强”的评测,而是一份清晰的使用指南:在不同场景下,如何选到最合适、性价比最高、最省心的AI。
一次看似不可能的任务:两周内分析一万通销售电话。Charlie Guo 通过大语言模型、工程化系统设计和成本控制,把原本需要两年的人力工作,变成单人可完成的AI项目。这篇文章还原了其中最关键的技术决策、踩过的坑,以及对企业数据价值的深刻启示。