不改模型也能10倍?Anthropic内部这套提示法,正在拉开高手差距
正在加载视频...
视频章节
很多人以为 Claude Code、Opus 4.5 的上限取决于模型版本,但 Greg Isenberg 给了一个反直觉答案:真正拉开差距的不是模型,而是你和它“合作”的方式。这套来自 Anthropic 使用者圈层的 10 条规则,正在悄悄把普通用户和高手分开。
不改模型也能10倍?Anthropic内部这套提示法,正在拉开高手差距
很多人以为 Claude Code、Opus 4.5 的上限取决于模型版本,但 Greg Isenberg 给了一个反直觉答案:真正拉开差距的不是模型,而是你和它“合作”的方式。这套来自 Anthropic 使用者圈层的 10 条规则,正在悄悄把普通用户和高手分开。
第一层分水岭:别再把 Claude 当“工具”,要当合作者
视频一上来就点破一个多数人忽略的事实:你和 Claude 的关系,决定了输出质量的上限。
第一条规则不是技术,而是“协作语气”。Greg 强调,你不是在给机器下命令,而是在和一个高能力但需要上下文的合作者工作。语气越像真实团队协作,Claude 的推理深度和稳定性就越高。
紧接着是第二、第三条:explicit explicit explicit,以及清晰边界。很多人觉得“说太细像啰嗦”,但在 LLM 世界里,模糊才是真正的浪费。明确你要什么、不需要什么、哪些是假设、哪些是不可触碰的边界,反而会显著减少返工。
这里有个反直觉点:不是 prompt 越短越高级,而是“该明确的地方极度明确,该留白的地方才留白”。这也是为什么高手的提示词,看起来往往比新手长。
真正省时间的不是快,而是一次就对
规则四听起来像流程管理:Draft → Plan → Act。但它解决的是一个真实痛点——反复 reprompt。
Greg 的观察是:很多人直接让 Claude“给我最终答案”,结果得到一个勉强可用但不稳定的输出。高手则先让模型起草、再规划、最后执行。你牺牲的是前 30 秒,换来的是后面不需要来回修。
接下来的几条规则,其实都围绕同一个目标:让模型更少“猜”。
- 规则五:强制结构化输出。你指定格式,模型就会自动补齐逻辑。
- 规则六:解释 why。不是为了说服模型,而是为了让它对目标有因果理解。
- 规则七:明确要简短还是详细。不说,模型就只能赌你的偏好。
一个很现实的结论是:你越懒得说明,模型越容易用“平均值答案”敷衍你。
高手的秘密:把思考过程外包给模型
最后三条规则,才是真正拉开差距的地方。
第八条是提供 scaffold(脚手架):示例、框架、参考路径。你不是让模型从零想,而是给它一个可攀爬的结构。
第九条是“说人话”,但不是日常人话,而是领域语言。用工程师的词和 Claude Code 说话,用产品经理的词讨论需求,用投资人的语境谈商业模型,输出质量会肉眼可见地变化。
第十条,也是最容易被忽略的一条:拆分子任务。当你要求 Claude 一次性完成复杂目标时,它必须同时规划和执行;而拆分之后,模型可以在每一步都保持高置信度。
Greg 在结尾给出的判断很直接:这些看似“微小”的提示习惯,叠加起来,输出质量就是另一个量级。
总结
这支视频真正有价值的地方,并不在于“10 条规则”本身,而在于它揭示了一个趋势:模型能力快速趋同之后,差距正在从算法,转移到使用方式。对 AI 从业者来说,下一阶段的核心竞争力,很可能不是你用什么模型,而是你是否能把复杂目标,拆解成模型最擅长的协作流程。一个可执行的行动建议是:选一个你每天都在用的 Claude 提示词,按这 10 条规则重写一次,看看差别有多大。你会发现,真正被升级的不是模型,而是你自己。
关键词: Claude Code, Claude Opus 4.5, 提示工程, 大语言模型, Anthropic
事实核查备注: 需要核查:视频实际发布时间(是否为 2025-12-10);“10×”是否为方法宣称而非官方量化指标;规则数量与表述是否与视频原意一致。