黄仁勋一句话点燃的OpenClaw:它不是聊天机器人,而是“新电脑”

AI PM 编辑部 · 2026年03月19日 · 32 阅读 · AI/人工智能

正在加载视频...

视频章节

黄仁勋最近抛出一个炸裂判断:每一家公司都需要一个 OpenClaw 式的 agentic system。这不是更聪明的 ChatGPT,而是一种“新电脑”。Greg Isenberg 拉着 OpenClaw 重度用户 Moritz Kram,用 64 分钟拆解了一个残酷现实:90% 的人装对了 OpenClaw,却完全没用对。

黄仁勋一句话点燃的OpenClaw:它不是聊天机器人,而是“新电脑”

黄仁勋最近抛出一个炸裂判断:每一家公司都需要一个 OpenClaw 式的 agentic system。这不是更聪明的 ChatGPT,而是一种“新电脑”。Greg Isenberg 拉着 OpenClaw 重度用户 Moritz Kram,用 64 分钟拆解了一个残酷现实:90% 的人装对了 OpenClaw,却完全没用对。

最反直觉的真相:OpenClaw 强的不是“模型”,而是“活着”

很多人第一次听 OpenClaw,会下意识把它理解成“又一个 AI 助手”。但 Moritz 直接泼了一盆冷水:如果你只把它当 ChatGPT 用,那基本等于白装。

真正的分水岭在一个词——heartbeat(心跳)。OpenClaw 每 30 分钟“醒一次”,主动做事:写入记忆、检查 cron、修复失败任务。它不是等你问,而是默认自己是个在岗员工。

对比 ChatGPT:它活在云端,是一次性对话;Claude Code:它住在你电脑里,但本质还是“你叫它,它才动”。OpenClaw 则更像一个长期在线的系统进程。Moritz 的原话很狠:“这是第一个真正意义上的个人 autonomous agent。”

也正因为这个设计,OpenClaw 才第一次让‘数字员工’这个比喻不再显得夸张。

为什么90%的人觉得 OpenClaw“很蠢”,问题其实出在你

Moritz 见过太多失败案例:安装 5 分钟,放弃 2 天。原因几乎都一样——没有 troubleshooting baseline。

他的第一步不是写 prompt,而是先建一个“OpenClawSupport 项目”,把官方文档整个喂给 Claude 或 ChatGPT。因为一旦 OpenClaw 出错,模型默认会‘编一个看起来合理的答案’。

第二个致命点是 personalization 文件:agents.md、soul.md、identity.md、user.md。这些不是装饰品,而是每次对话都会被加载的“人格层”。你嫌它不像你,大概率是你从没认真配置过。

第三个坑是记忆。OpenClaw 的记忆不是玄学,而是文件系统:memory.md 是长期记忆,memory 文件夹是每日日志。更关键的是 compaction——上下文压缩时如果不先 flush 到 memory,信息会永久丢失。

Moritz 的解决方案很工程化:在 heartbeat 里强制每 30 分钟自动写记忆。这一步,直接把‘健忘 AI’变成了‘会成长的员工’。

模型选择的现实主义:别一上来就烧 API 钱

关于“用什么模型”,Moritz 给了一个极其务实的答案:OAuth。

用你现有的 $20 ChatGPT 订阅,直接作为 OpenClaw 的主脑。这不是 hack,而是目前最稳定、性价比最高的方案。绝大多数正常使用场景,根本撞不到限额。

真正专业的做法是“多脑备份”:OpenAI 是 brain #1,Anthropic 是 fallback,再往下接 OpenRouter 这种聚合器。因为现实世界里,模型真的会挂。

这里还有一个灰色地带的行业内幕:Anthropic 官方条款并不完全允许这种用法,已经有人因此被封号。Moritz 的建议非常冷静——用小号,别把生产系统绑在一个随时可能被封的账号上。

一句话总结:别在模型上浪漫主义,在系统稳定性上现实一点。

真正拉开差距的,是你怎么“组织对话”

很多人只用一个 Telegram 对话框跟 OpenClaw 聊所有事,结果越聊越乱。Moritz 的做法更像在设计操作系统。

不同群组 = 不同职能:待办、日志、内容、客户;不同 topic = 不同子线程。更狠的是,每个 group / topic 都有专属 system prompt,明确告诉 OpenClaw:这里是干嘛的。

这相当于人为制造‘上下文隔离’,极大降低模型混线。

再往下,就是浏览器和 skills。Web fetch 负责公开信息;OpenClaw managed browser 负责“真操作”(比如自动下单);Chrome relay 则是高级但风险更高的接管方案。

Skills 更是生产力倍增器:总结视频、转录、Notion、Whisper。Moritz 的原则很简单:任何你重复做三次的事,都应该变成一个 skill。但他也提醒,现在的技能市场仍是西部荒野,必须逐条检查。

安全不是配置问题,而是“你把它当不当员工”

OpenClaw 的安全争议,本质来自一个误解:你以为它是工具,但它拿到了员工级权限。

Moritz 把风险分成两类:系统入侵(VPS > 本地 Mac 风险更高)和 prompt injection。后者并不只是理论问题,而是已经在真实世界发生。

他的防御思路并不神秘:
- 明确指令来源(agents.md 里写清‘只接受认证入口’)
- API key 放在 workspace 外的 .env
- 用更强的模型(聪明的模型更不容易中招)
- 最重要的一条:最小权限原则 + agent 专用账号

这句话值得所有人记住:“给 OpenClaw 权限的方式,应该和你 onboarding 一个新员工一模一样。”

当它跑起来之后,OpenClaw 会让你上瘾

真正让 Greg 震撼的,是 Moritz 的两个系统。

一个是“非 AI 垃圾内容系统”:自动抓 YouTube 灵感、汇总 Twitter 想法、生成脚本、发布、回收数据,再反哺选题。人只负责出镜,10 分钟拍完。

另一个是 CRM:直接对话查询跟进对象,自动读 Gmail、日历、Google Sheet,甚至代你在 WhatsApp 写跟进消息。

这些系统的共同点只有一个:不是单次自动化,而是长期自我强化。

Moritz 说得很坦白:OpenClaw 现在还很 buggy,但一旦你见过‘魔法时刻’,就再也回不去了。

总结

这期内容真正的价值,不是教你装 OpenClaw,而是教你一种新的工作范式:把 AI 当系统,而不是当聊天对象。

黄仁勋说它是“新电脑”,并不是夸张。电脑的本质从来不是算力,而是长期、可靠、可组合的自动化能力。

如果你是 AI 从业者,最值得立刻做的三件事:一,搭好 memory + heartbeat,让 agent 活起来;二,用 OAuth + fallback 保证稳定;三,从一个真实工作流开始,把它当员工培养。

未来每个人都会有 agent,但真正拉开差距的,是谁更早学会“管理它”。


关键词: OpenClaw, AI Agent, 黄仁勋, 自动化系统, 生成式AI应用

事实核查备注: 需要核查:1)黄仁勋关于“新电脑”的公开表述原话与场合;2)Anthropic 是否在 2026 年初明确封禁 OpenClaw 用法;3)OpenAI/Anthropic 模型版本号(如 GPT 5.4、Opus 4.6)的准确性;4)NemoClaw 的正式名称与发布时间。