LangChain创始人谈AI Agent:为什么“编排层”才是关键战场

AI PM 编辑部 · 2024年06月18日 · 6 阅读 · AI/人工智能

正在加载视频...

视频章节

在这期Training Data访谈中,LangChain创始人Harrison Chase系统阐述了他对AI Agent的定义、误区与未来方向。他认为,真正的突破不在于“更通用的智能体”,而在于清晰的认知架构与编排层设计,这也是LangChain存在的核心价值。

LangChain创始人谈AI Agent:为什么“编排层”才是关键战场

在这期Training Data访谈中,LangChain创始人Harrison Chase系统阐述了他对AI Agent的定义、误区与未来方向。他认为,真正的突破不在于“更通用的智能体”,而在于清晰的认知架构与编排层设计,这也是LangChain存在的核心价值。

AI Agent究竟是什么?从“能生成”到“能决策”

理解AI Agent为什么重要,首先要搞清楚它到底是什么。Harrison Chase给出了一个非常工程化、也极具区分度的定义:当一个大语言模型(LLM)开始“决定应用的控制流”,它才真正成为一个Agent。他在视频中直接说:“to me when I think of an agent it's really having an llm decide the control flow of your application。”这句话点出了Agent与传统LLM应用的本质差异。

在普通的LLM应用中,流程通常是写死的:用户输入→模型生成→返回结果。而Agent则不同,它会根据当前状态、历史信息和目标,动态决定下一步是调用工具、查询数据库、向用户追问,还是继续推理。这意味着模型不只是“回答问题”,而是在参与决策。

Harrison还强调,Agent天然与“行动”绑定。“I've always thought about agents as sort of action taking。”模型负责决策,但真正执行动作的,往往是模型之外的一整套系统。这也解释了为什么Agent从一开始就不是一个“纯模型问题”,而是一个系统工程问题。

从AutoGPT的狂热到冷静:通用Agent为什么行不通

为什么这几年Agent看起来声量巨大,但落地却异常艰难?Harrison给出的答案,来自一次集体性的“失败体验”。他直言,AutoGPT之所以没能走向大规模实用,是因为它“very general and very unconstrained”。

AutoGPT在早期确实点燃了行业想象力:一个Agent,给定目标后就能自己拆解任务、循环执行。但在真实世界中,这种过度通用的架构问题重重:目标漂移、无限循环、成本不可控、结果不可预测。Harrison总结道,现实中的Agent并不是一个统一范式,而是“much more custom cognitive architectures”。

这里的“认知架构”(cognitive architecture)并不是学术名词,而是一个极其实用的工程视角:从用户输入到用户输出,中间经历了哪些步骤?如何规划?何时反思?哪里允许人类介入?这些问题没有标准答案,只能因场景而异。这也是通用Agent难以成功的根本原因。

LangChain的定位:不是模型,也不是Agent,而是编排层

在Agent生态中,LangChain究竟扮演什么角色?Harrison的回答非常克制,也非常清晰:LangChain专注于“中间地带”,也就是编排层(orchestration layer)。他说,LangChain的目标是“making it easy for people to create something in the middle of that spectrum”。

这个“中间地带”指的是介于完全手写逻辑和完全自主Agent之间的区域。开发者既不想把一切交给模型,也不想自己处理所有状态和流程。LangChain提供的,正是将LLM、工具、记忆、规划与执行串联起来的基础设施。

这也是为什么LangChain后来推出了LangGraph和LangSmith。前者用于构建更明确的流程图式Agent,后者则解决可观测性与调试问题。Harrison提到,开发者当前最大的痛点之一,是不知道Agent“为什么会这样做”,而没有可观测性,就谈不上测试,更谈不上上线。

哪些Agent已经可用?哪些仍然很难

Agent是否已经准备好大规模部署?Harrison的态度依然是务实而谨慎。他承认,“we've simultaneously made a ton of progress on agents”,但也明确指出:通用Agent依然非常困难。

真正开始产生价值的,是高度受约束的场景型Agent。例如客户支持和编程领域。他提到,一些Agent已经可以“automate a lot of the functions”,在明确流程和边界内表现稳定。这些成功案例的共同点是:任务清晰、失败成本可控、可以随时引入人工。

相比之下,试图让一个Agent在开放世界中长期自主运行,依然远未达到可靠阈值。这也呼应了他对未来模型能力的判断:模型会越来越擅长规划,但“domain specific reasoning”仍然难以被塞进一个通用模型里。

给Builder的建议:架构、UX与“人类在环”

在访谈后半段,Harrison将话题拉回到Builder本身。他认为,缩短“从想法到执行”的距离,是Agent时代最重要的能力之一。这不仅是模型问题,更是架构和产品设计问题。

他特别提到两点常被忽视的因素:一是UX,二是人类在环(human in the loop)。例如,让Agent在规划阶段可以被“rewind”,或者给它一个“inbox”,在不确定时主动向人类求助。这些设计并不炫酷,却极大提升了系统的可用性。

在访谈结尾,当被问到给AI从业者的一条建议时,他的回答极其简单:“just build”。在一个仍然极早期的领域,真正的理解只能来自实践。

总结

这次访谈最有价值的地方,不在于对Agent未来的宏大预测,而在于Harrison Chase反复强调的工程现实:Agent不是魔法,而是系统;不是通用智能,而是认知架构的组合。LangChain选择做编排层,本质上是在为这个混乱而早期的时代提供“地基”。对开发者而言,与其等待完美的通用Agent,不如从受约束的场景出发,亲手搭建、观察、迭代。


关键词: AI Agent, LangChain, 认知架构, 编排层, AutoGPT

事实核查备注: 视频来源:Sequoia AI Ascent《Training Data》;受访者:Harrison Chase(LangChain);关键产品:LangChain、LangGraph、LangSmith、AutoGPT;核心定义引用:“LLM deciding the control flow of an application”;发布时间:2024-06-18