正在加载视频...
视频章节
这篇文章梳理了《The AI Daily Brief》在GPT-5刚发布阶段总结的一套全新提示工程方法论。你将看到:为什么GPT-5对提示词“异常挑剔”,哪些简单却反直觉的技巧能显著提升输出质量,以及OpenAI官方在暗示我们如何与更强大的模型协作。
GPT-5时代,为什么“会不会提问”成了最关键的能力
这篇文章梳理了《The AI Daily Brief》在GPT-5刚发布阶段总结的一套全新提示工程方法论。你将看到:为什么GPT-5对提示词“异常挑剔”,哪些简单却反直觉的技巧能显著提升输出质量,以及OpenAI官方在暗示我们如何与更强大的模型协作。
从GPT-4到GPT-5:模型更强,但更“挑剔”了
这一期视频一开始就点出一个反常识的现象:GPT-5变强了,但也变“难伺候”了。主持人直言,“GPT-5 seems to require some very specific types of prompting”,这并不是使用者的问题,而是能力跃迁后的必然结果。
在GPT-4时代,很多模糊、随意的提示依然能得到不错的结果;但在GPT-5上,同样的提示却可能表现平平,甚至显得敷衍。演讲者的判断是:模型的能力上限提高了,但是否能触达这个上限,越来越依赖人类给出的指令质量。
这也是他设置视频结构的原因——先讲“基础原则”,再进入一系列具体的提示技巧,最后补充“agentic toggles”(偏向代理式行为的开关)。这个结构本身就在传递一个信号:提示工程已经不只是技巧集合,而是一套与模型协作的心智模型。
一个很有意思的细节是,演讲者形容GPT-5在某些场景下“as if it wanted to do more work”。这句话背后暗示的是:模型并非不愿意给好答案,而是需要被明确“授权”去投入更多推理和规划。
技巧一:直接告诉模型“多想一点”
第一个提示技巧听起来几乎像玩笑,但却被演讲者郑重其事地放在首位:直接告诉模型去“think harder”。
“Which brings us to prompting technique number one… just tell it to think or work harder.” 这句原话的价值在于,它打破了很多人对大模型的想象——我们往往以为模型会自动用尽全力,但GPT-5显然不是这样。
在GPT-5中,是否展开更长的推理链条,很大程度上取决于提示是否明确要求。简单的一句“请仔细思考”、“请在回答前进行完整推理”,往往就能触发更高质量的输出。这并不是玄学,而是模型在进行“计算资源分配”时,对用户意图的响应。
演讲者并没有把它包装成高深理论,而是强调它的实用性:这是一个几乎零成本、却常常被忽略的技巧。对于刚进入GPT-5时代的用户来说,这可能是性价比最高的第一步。
规划阶段:让模型先想路线,再开始写
第二个重要技巧,是引入“planning phases”(规划阶段)。为什么这很重要?因为GPT-5在复杂任务中,往往需要先建立全局结构,才能在细节上表现稳定。
演讲者将这一点与前面的“多想一点”原则联系起来:不是让模型直接输出最终答案,而是先要求它给出一个计划、步骤列表或思路框架。这种方式,实际上是在模拟人类专家解决问题的过程。
他强调,这并不是全新的概念,但在GPT-5上效果更加明显。模型在被允许、甚至被要求先规划时,后续输出的连贯性和深度都会显著提升。
更重要的是,这种方法让用户能在“中途介入”。当你看到模型给出的计划不合理时,可以及时修正,而不是等到一大段错误输出完成后再推倒重来。这种协作感,正是GPT-5时代提示工程的核心变化之一。
显式与结构:GPT-5不再替你“脑补需求”
如果说前面的技巧是在“激活”模型能力,那么接下来的重点,就是如何避免能力被浪费。演讲者反复强调两个词:explicitness 和 structure。
“Be extremely explicit about what you want… explicitness really matters.” 这句几乎可以当作整期视频的核心金句。在GPT-5上,任何模糊之处,都会被放大成结果的不确定性。
紧接着,他提出结构的重要性。清晰的标题、分点、顺序要求,看似增加了提示长度,却在整体上降低了沟通成本。演讲者甚至坦言,这种方式“certainly plausible that it's going to be worth the trade-offs”——多写几行提示,换来更可控的结果,是非常值得的。
这一部分的隐含信息是:GPT-5不再主动替你补全需求假设。你不给边界,它就会在你没预料的方向上自由发挥。结构化提示,本质上是在帮模型理解“什么是重要的,什么是次要的”。
来自OpenAI的暗示:消除歧义,定义输出尺度
视频后半段,多次提到“comes straight from the OpenAI guide”。这不是随口一提,而是演讲者在强调:很多技巧并非民间偏方,而是官方已经明确建议的用法。
其中一个关键点,是主动消除歧义。与其让模型猜,不如在提示中直接说明假设条件、目标受众、使用场景。另一个容易被忽视的技巧,是明确说明“verbosity level”——也就是你希望回答有多详细。
演讲者提醒,现在“we are still less than a week into the GPT-5 era”。很多使用习惯还停留在旧模型时代,但GPT-5已经通过这些细节,向我们暗示了一种新的协作方式。
他的总结并不宏大,却很现实:真正的优势,不在于掌握某一个技巧,而在于理解这些技巧背后的基础原则,并能灵活组合使用。
总结
这期视频的价值,并不在于给了多少“秘籍”,而在于揭示了一个趋势:随着模型能力提升,提示工程正在从技巧层面,上升为一种与AI协作的基本素养。GPT-5并不会自动给你最好的答案,但它会非常认真地回应一个清晰、用心的提问。对每一个想长期使用AI的人来说,学会如何提问,可能比学会用哪个模型更重要。
关键词: GPT-5, 提示工程, Prompting, OpenAI, AI协作
事实核查备注: 视频来源:The AI Daily Brief;发布时间:2025-08-13;讨论模型:GPT-5;核心主题:提示工程;多次提及OpenAI官方指南;引用原话包括“GPT-5 seems to require some very specific types of prompting”“just tell it to think or work harder”“explicitness really matters”“we are still less than a week into the GPT-5 era”。