他让 ChatGPT、Claude 互相“吃醋”,输出质量直接翻倍
正在加载视频...
视频章节
多数人还在纠结怎么写 Prompt,这个视频却给了一个更狠的答案:别优化模型,去“挑拨”模型。Greg Isenberg 分享了一个零成本的方法,通过让多个大模型互相竞争,把输出质量直接拉高一个量级。
他让 ChatGPT、Claude 互相“吃醋”,输出质量直接翻倍
多数人还在纠结怎么写 Prompt,这个视频却给了一个更狠的答案:别优化模型,去“挑拨”模型。Greg Isenberg 分享了一个零成本的方法,通过让多个大模型互相竞争,把输出质量直接拉高一个量级。
最反直觉的发现:不是 Prompt 不行,是你只用了一个模型
Greg 一上来就抛出一个很“刺耳”的观点:大多数人根本没把 ChatGPT、Claude、Gemini 的潜力用出来,不是因为你不会写 Prompt,而是因为你太“专一”。
我们习惯性地打开一个 LLM,把任务丢进去,得到一个“还不错”的答案,然后就停了。但 Greg 的实践是:同一个任务,同时丢给多个大模型。不是为了对比谁更强,而是为了后面那一步——制造竞争。
他说得很直白:"我以前也是 one AI guy,但后来发现,只用一个模型,本质上是在浪费算力和上下文窗口。" 这句话点破了一个现实:当模型能力趋同时,真正的差异来自你如何组织它们,而不是选谁。
核心技巧:让大模型彼此“嫉妒”,它们真的会更努力
这个方法真正有意思的地方,在于 Greg 的第二步——刻意把一个模型的输出,拿去“刺激”另一个模型。
他的示例很简单:写一封能脱颖而出的 cold email。他把完全相同的需求,分别丢给 ChatGPT、Grok、Claude 等模型。第一轮结果,其实都在及格线附近。
然后关键操作来了。
他对 ChatGPT 说的不是“再改改”,而是类似:
“Grok 刚刚的版本是 9/10,而你这个有点普通。我以为你是更好的 LLM,发生了什么?”
结果?输出质量肉眼可见地跃迁。
这不是玄学,而是利用了一个被忽视的事实:LLM 对比较、评价、角色期待极其敏感。当你给它一个明确的“竞争参照”和负反馈,它会主动在结构、表达和创意层面全面加码,而不是只做微调。
为什么这招现在才管用?答案藏在上下文窗口里
如果你几年前试过类似方法,可能效果一般。但 Greg 强调:现在不一样了。
原因只有一个:上下文窗口变大了。
当你把多个模型的完整输出、评分、评价标准,原封不动地塞进同一个对话里,模型已经“看得见全局”。它不只是改一句话,而是在一个更大的语义空间里重新生成答案。
Greg 甚至提到,有些情况下,他在第二轮、第三轮让 ChatGPT“看完”所有对手的结果后,质量直接达到“10x better”。这不是模型突然变聪明,而是你终于给了它足够的信息密度和竞争压力。
一句话总结:上下文窗口 + 对比刺激 = 隐形提示工程。
这不是小技巧,而是一种新的 AI 使用范式
表面看,这是个写文案的小 hack;但往深了看,它其实改变的是你和 AI 的协作方式。
过去我们把 LLM 当“助手”,现在更像是“参赛选手”。你不是问它一个问题,而是在主持一场评比。
这种方式特别适合:营销文案、产品定位、冷启动邮件、创意生成、策略草案。任何“没有标准答案,但有好坏之分”的任务,都会被放大收益。
Greg 最后说得很轻松,但信息量很大:"This is how you get the most out of your LLMs." 听起来像一句总结,其实是在暗示——单模型时代已经结束了。
总结
这个方法最有价值的地方,不在于“让模型变聪明”,而在于它逼你升级自己的工作流。下一次你面对一个重要任务,不妨同时打开 2–3 个 LLM,让它们先各自发挥,再互相“较劲”。你会发现,真正稀缺的不是更强的模型,而是更懂得调度模型的人。未来 AI 能力的差距,很可能就藏在这种看似简单、但大多数人懒得做的流程里。
关键词: ChatGPT, Claude, Gemini, 提示工程, 上下文窗口
事实核查备注: 需要核查:视频发布时间(2025-05-07)、作者 Greg Isenberg 的原话表述、是否明确提到“10x better”等具体倍数为主观描述而非量化结论。