从提示到环境:为什么“上下文工程”正在重塑AI能力边界
正在加载视频...
视频章节
这期《AI Daily Brief》提出了一个正在快速升温的新概念:上下文工程。它不再纠结一句提示词怎么写,而是关注如何为大模型和智能体持续、系统地提供正确的信息环境。文章将解释它为何出现、与提示工程的本质差异,以及它为什么可能成为下一阶段AI应用的核心能力。
从提示到环境:为什么“上下文工程”正在重塑AI能力边界
这期《AI Daily Brief》提出了一个正在快速升温的新概念:上下文工程。它不再纠结一句提示词怎么写,而是关注如何为大模型和智能体持续、系统地提供正确的信息环境。文章将解释它为何出现、与提示工程的本质差异,以及它为什么可能成为下一阶段AI应用的核心能力。
为什么“上下文工程”会在此时被反复提起?
要理解上下文工程,首先要回答一个问题:为什么这个词偏偏在现在开始频繁出现?节目一开始,主持人就提到,这个概念最近不仅在播客里被反复讨论,也开始在 X(原 Twitter)和技术文章中密集出现。一个重要引子来自 Shopify CEO Toby Lutke 转发并评论的一条推文,其中提到:未来的上下文工程,将包括为智能体提供工具、运行环境和护栏,让大模型“自己去找到所需的上下文”。
这句话之所以重要,是因为它揭示了一个行业层面的转折:我们正在从“人类一次性把问题讲清楚”,走向“系统持续为模型维护认知环境”。主持人点出,这并不是一个语义上的新包装,而是因为 AI Agent(智能体)正在成为主流形态。与一次性问答不同,Agent 往往要在一个任务中运行数十甚至上百轮,对话跨度长、状态复杂,如果仍然依赖简单的上下文拼接,很快就会失效。
节目中有一句总结式的判断非常有代表性:“这不是因为大家突然喜欢发明新词,而是因为旧的方法已经开始不够用了。”当模型能力增强、任务链条变长、应用从 Demo 走向生产环境,上下文不再是一个 prompt 的附属品,而变成了需要被设计、维护和优化的系统资产。
从提示工程到上下文工程:真正的分水岭在哪里
在 ChatGPT 刚出现的早期,“提示工程”几乎成了所有人讨论的核心。主持人在节目中回顾了这一点:从一开始,大家就试图通过更聪明的提问方式,榨取更多模型能力。但他随即指出,一个正在发生的变化是,产品本身已经开始“替你写提示词”。
节目里有一个非常直白的说法:“工具本身正在尝试提炼你想要的本质,然后生成一个比你自己写得更好的 prompt。”这意味着,单纯在提示词层面做文章的空间正在被平台吸收。而上下文工程关注的是提示词之外的那一整段价值链——模型在回答问题前,究竟看到了哪些信息。
主持人对“上下文”的定义非常具体:它是所有你提供给大模型、用来帮助它更准确回答问题的信息集合。这可以包括历史对话、外部文档、工具返回的结果,甚至是对当前任务状态的压缩描述。更关键的是,这已经不只是内容选择问题,而是“如何在更复杂的系统中传递上下文”的工程问题。这也是提示工程与上下文工程的真正分水岭:前者优化一句话,后者设计一个持续运转的信息管道。
智能体时代的真实挑战:上下文如何被压缩与继承
为了说明上下文工程为何会成为“重要问题的一部分”,节目引用了 Cognition(开发 Devin 的公司)此前一篇颇具争议的文章《Don't Build Multi-Agents》。不论你是否同意他们的结论,主持人强调,这篇文章本身已经很好地展示了上下文工程的现实意义。
在这个案例中,Cognition 描述了一种策略:避免多个 Agent 同时并行工作,而是让单一 Agent 在多个子任务之间顺序推进。关键不在于架构选择本身,而在于他们如何处理上下文——通过对已完成工作的“压缩上下文”,来指导下一个子任务。主持人特别指出,“正是这种被压缩后的上下文,构成了下一步工作的输入”。
这背后隐藏的是一个非常现实的工程难题:Agent 对话可能跨越数百轮,模型上下文窗口却是有限的。如果不进行有意识的筛选、总结和继承,系统要么成本失控,要么性能迅速下降。正如节目中所说:“Agent 往往会进行跨越数百轮的对话,这就要求我们采取非常谨慎的上下文管理策略。”这已经远远超出了写好提示词的范畴。
一个正在成形的新技能:如何“给什么”和“怎么给”
在节目的后半部分,主持人提到了一篇与 Cognition 文章同日发布的博客,来自 LangChain,标题直截了当:《The Rise of Context Engineering》。他评价这是一个“非常贴切的新术语”,因为它准确描述了一种正在变得关键的能力。
主持人将上下文工程拆解为两个不同但相关的领域。第一,是“如何给模型上下文”:包括什么时候注入信息、是否需要压缩、如何在不同工具和子任务之间传递。第二,是“给模型什么样的上下文”:是原始数据、结构化摘要,还是经过筛选的关键信号。这种区分之所以重要,是因为很多系统并不是败在模型能力上,而是败在给了模型错误或过量的信息。
他在结尾给出了一个明确判断:“这是一个极其动态的领域,很可能会变得至少和提示工程一样重要,甚至更重要。”当模型本身逐渐商品化,真正拉开差距的,将是你如何构建和维护模型所处的上下文环境。
总结
这期节目传达的核心信息并不复杂,但意义深远:AI 能力的上限,正在从“模型有多聪明”转向“你为它设计了怎样的上下文”。上下文工程的兴起,既是 Agent 普及的必然结果,也是提示工程红利逐渐消退后的自然演进。对开发者和产品团队来说,下一阶段的关键问题不再是“怎么问”,而是“如何让模型始终站在正确的信息位置上做决定”。
关键词: 上下文工程, 提示工程, AI Agent, 大语言模型, LangChain
事实核查备注: 视频来源:《AI Daily Brief》;概念来源:Context Engineering;引用公司:Shopify、Cognition、LangChain;涉及产品:ChatGPT、Devin;关键判断包括:上下文工程相对于提示工程的重要性、Agent 对话可能跨越数百轮、LangChain 博客《The Rise of Context Engineering》与 Cognition 博文《Don't Build Multi-Agents》。