Agent 记忆架构:让 AI 从“会说话”走向“可信任”的关键一步
这场演讲给出了一个清晰判断:未来 AI Agent 的竞争核心不在提示词,而在记忆。MongoDB 的 Richmond Alake 从工程实践出发,系统拆解了 Agent Memory 的定义、类型、架构模式以及检索的重要性,解释了为什么“没有记忆,就没有真正的 Agent”。
这场演讲给出了一个清晰判断:未来 AI Agent 的竞争核心不在提示词,而在记忆。MongoDB 的 Richmond Alake 从工程实践出发,系统拆解了 Agent Memory 的定义、类型、架构模式以及检索的重要性,解释了为什么“没有记忆,就没有真正的 Agent”。
当AI大幅加速写代码的“内循环”,测试、评审、合并、部署的“外循环”正在成为新的瓶颈。Graphite联合创始人Tomas Reimers分享了他们如何用AI解决AI带来的问题,以及为什么未来的开发工具必须是“AI原生”的。
在这场演讲中,Jim Bennett用一连串真实翻车案例和现场演示,解释了为什么AI代理天生不值得“信任”,以及如何通过“以评估为核心、以可观测性为驱动”的方法,把不可预测的AI系统驯服成可控的软件系统。
这场演讲不是在讲“为什么要做评估”,而是直面一个更残酷的问题:当LLM真正进入生产环境,评估体系该如何跟上复杂度和速度?Dat Ngo结合大量真实落地经验,给出了一套围绕可观测性、信号设计和工程化迭代的评估方法论。
这篇文章深入解读Vectara推出的开源项目 open-rag-eval,解释它为何要在没有“golden answers”的情况下评测RAG系统,以及背后的研究方法、关键指标和实际使用体验,帮助RAG开发者真正理解并优化自己的检索增强生成流水线。
一次看似不可能的任务:两周内分析一万通销售电话。Charlie Guo 通过大语言模型、工程化系统设计和成本控制,把原本需要两年的人力工作,变成单人可完成的AI项目。这篇文章还原了其中最关键的技术决策、踩过的坑,以及对企业数据价值的深刻启示。
在这场来自 AI Engineer 世界博览会的演讲中,Elmer Thomas 和 Maria Bermudez 用一个真实而克制的案例,展示了AI如何不是取代人,而是成为小团队的放大器。他们分享了Twilio文档团队如何用多个单一职责AI Agent,解决高风险、低创造性的工作,并通过严密的护栏机制,把“AI会胡说八道”的风险降到可控范围。
AWS首席应用AI架构师Justin Mohler基于多年一线经验指出:生成式AI无法规模化,最大瓶颈不是模型,而是评估体系。本文通过真实失败与逆袭案例,系统拆解他提出的“高效GenAI评估七大习惯”,解释为什么评估不是打分工具,而是发现问题、驱动成功的核心引擎。
这场演讲分享了Cato在构建云架构AI Copilot过程中的真实探索:为什么传统自动化不够用,以及如何通过多智能体、图结构和严谨评估,让AI参与复杂的架构推理与决策。
这是一堂来自Meta一线工程师的“浓缩版AI产品课”。Adam Loving结合大量真实案例,讲清楚了Prompt、Evals、RAG与Fine-tuning之间的取舍逻辑,以及为什么开源模型Llama正在改变企业构建AI产品的方式。