他们现场从零写 AI Agent:真正值钱的不是模型,而是这套工作流

AI PM 编辑部 · 2024年12月28日 · 0 阅读 · AI/人工智能

正在加载视频...

视频章节

大多数人还在纠结用什么模型、什么提示词,这期 Greg Isenberg 的视频直接换了个维度:现场从零开始搭一个 AI Agent。没有玄学,没有宏大叙事,只有真实的代码生成、调试、部署和踩坑过程。看完你会发现,AI Agent 的护城河,根本不在模型。

他们现场从零写 AI Agent:真正值钱的不是模型,而是这套工作流

大多数人还在纠结用什么模型、什么提示词,这期 Greg Isenberg 的视频直接换了个维度:现场从零开始搭一个 AI Agent。没有玄学,没有宏大叙事,只有真实的代码生成、调试、部署和踩坑过程。看完你会发现,AI Agent 的护城河,根本不在模型。

最反直觉的一点:AI Agent 的难点不在“智能”

视频一上来就很反常识。没有讲什么“多智能体革命”,也没有讨论 AGI,而是直接共享屏幕开始干活。Greg 和嘉宾的共识很明确:AI Agent 的核心问题,从来不是模型够不够聪明,而是你能不能把流程跑通。

他们选择从一个极其简单的 use case 入手,刻意压低复杂度。这背后的逻辑很现实——你以为 Agent 失败是因为模型不行,实际上 80% 是工程问题:上下文传递、任务拆分、状态管理、错误处理。

一句很有分量的判断是:"directionally right is enough"。只要方向对,Agent 输出不完美是可以接受的,真正致命的是流程跑不起来。

CrewAI + Cursor:代码不是你写的,但结构必须是你想清楚的

真正进入构建环节,他们用 CrewAI 来“创建 crew”,用 Cursor 直接生成代码。这一段非常戳痛点:代码生成已经不是优势,知道“生成什么样的代码”才是。

在视频里,Crew 的配置几乎决定了 Agent 的上限:角色怎么拆、任务如何串联、输出如何校验。一旦结构定错,后面再聪明的模型也只能“稳定地犯错”。

Greg 抛出一个关键问题:既然代码是生成的,那差别在哪里?嘉宾的回答很冷静——输出在表面上可能一样,但可维护性、可扩展性完全不同。企业级和个人玩具的分水岭,就在这里。

Zapier、部署与调 Bug:真正劝退人的地方

如果你只看教程,永远看不到这一段:Bug。

视频中明确展示了 Agent "不按预期工作" 的瞬间,然后开始排查:是不是配置问题?是不是权限?是不是环境?这种真实感非常稀缺。也顺带点出 Zapier 这类工具的真实价值——不是让你“无代码”,而是帮你把 Agent 接进真实世界。

他们还提到 Enterprise 场景下的一些限制和差异:一旦规模化,稳定性、权限、日志、监控都会变成硬约束。AI Agent 从 Demo 到可用产品,中间隔着一整个工程世界。

为什么“指标”比提示词更重要

在后半段,一个容易被忽略但极其关键的点被提出来:metrics。

不是模型分数,而是 Agent 在真实流程里的表现指标——成功率、失败类型、重试成本。这些东西不性感,但决定你能不能持续迭代。

有一句话非常适合划重点:“Knowing these things sets you up for better outcomes.” 当你开始用指标看 Agent,而不是用感觉看,它才真正从玩具变成工具。

总结

这期视频最值钱的地方,不是教你“如何创建 AI Agent”,而是纠正了一个普遍幻觉:Agent 的价值不来自更聪明的模型,而来自更清晰的系统设计。

如果你是 AI 从业者,真正该做的不是追最新模型,而是:选一个极小的真实场景,用 CrewAI 之类的工具把流程跑通;敢于让 Agent 不完美,但一定要可调试、可监控;尽早建立指标,而不是沉迷提示词。

未来真正拉开差距的,不是谁的 Agent 更会“说话”,而是谁能把 Agent 接进现实,并长期跑下去。


关键词: AI Agent, CrewAI, 代码生成, 工作流设计, Agent 实战

事实核查备注: 需要核查:视频具体时长;是否明确使用 CrewAI、Cursor、Zapier 的版本;Enterprise 场景的原话表述;提到的 metrics 是否有具体示例