比微调更猛的路线:YC 正在押注一种“让模型自己变聪明”的方法

AI PM 编辑部 · 2026年02月27日 · 6 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。

比微调更猛的路线:YC 正在押注一种“让模型自己变聪明”的方法

当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。

最反直觉的结论:微调,可能不是最优解了

在这期 YC《Light Cone》里,最“炸”的一句话不是来自主持人,而是 Poetic 联合创始人 Ian Fischer 的判断:他们正在做的事情,“不仅比微调便宜得多,而且在很多场景下更有用”。

这句话之所以刺耳,是因为过去两年,微调几乎是 AI 应用进阶的默认选项——效果不够?那就 fine-tune。但 Poetic 选择了一条完全不同的路:不去动模型参数,而是在模型之上构建一个“递归自我改进的推理系统”。

换句话说,他们不是教模型记住更多东西,而是教模型如何更好地思考。这种思路,直接绕开了微调昂贵、周期长、难以频繁迭代的问题,也解释了为什么 YC 会把它称为“强有力的替代方案”。

不是 RL,也不是提示工程,而是“写在代码里的推理”

Ian 反复强调,Poetic 既不是传统强化学习(RL),也不只是更复杂的 prompt。

区别在哪里?RL 的核心是通过大量试错更新策略,而 Poetic 的目标是构建一种“递归自我改进”的推理框架;至于提示工程,在他们看来已经触碰到天花板——“很多真正关键的推理策略,最终会写在代码里,而不是写在 prompt 里”。

这句话点出了一个正在成形的趋势:Prompt 正在从‘魔法咒语’,变成‘接口层’。真正决定系统能力上限的,是你如何用代码组织推理流程、拆解问题、评估中间结果,并把这些结果再反馈给模型。

Ian 用了一个形象的比喻:前沿大模型就像高跷(stilts),Poetic 做的是让你的 agent 站在高跷上,看得更远、走得更稳。他们不把 GPT-5 这样的模型当竞争对手,而是当“地基”。

为什么 YC 会对这种方法格外兴奋?

如果你看过足够多 YC 的内部分享,会发现他们越来越警惕两件事:

第一,应用层团队被基础模型“掐脖子”。一旦能力来自微调,成本、节奏和迭代权往往不在自己手里。
第二,prompt 驱动的系统,规模一大就开始失控,没人能真正解释为什么这次有效、下次失效。

Poetic 的方案,正好卡在中间:不碰模型权重,但把‘推理能力’产品化、工程化。Ian 提到,他们整个团队只有 7 名研究科学家和工程师,却已经多次把这套方法跑通。

这也是 YC 兴奋的原因——它更像是一种‘可复制的能力放大器’,而不是一次性的模型魔改。对初创公司来说,这意味着更低的试错成本,以及更快找到产品—模型 fit 的可能。

从 DeepMind 到创业:一种典型但关键的转身

Ian Fischer 的背景并不陌生:在 Google DeepMind 做了十年研究,后来又通过 YC 创过移动开发工具公司。

但有意思的是,这段经历恰好解释了 Poetic 的气质。一方面,他非常清楚前沿研究能做什么、不能做什么;另一方面,他也深知创业公司等不起一年一轮的模型升级。

这或许也是他反复强调‘不要限制自己’的原因。视频开头那段看似随意的分享——用 GPT-5 在一个周末做出 iPhone App——其实是在传递一个信号:AI 的进化速度,已经让“等等看”变成了最危险的策略。

与其押注下一代模型,不如先学会把这一代模型用到极致。

总结

这期对话真正值得 AI 从业者记住的,不是 Poetic 这个名字,而是背后的范式转移:从“调模型”,到“设计推理系统”。

如果你在做 AI 应用,现在至少可以问自己三个问题:有没有哪些能力,其实不需要微调就能实现?你的 agent,是靠 prompt 硬撑,还是有清晰的推理结构?当模型能力再提升一代,你的系统会被放大,还是被替代?

未来的分水岭,可能不在谁拿到了最强模型,而在谁最早学会了——让模型自己变聪明。


关键词: AI推理, 微调替代方案, 生成式AI应用, 提示工程, Y Combinator

事实核查备注: 需要核查:1)Poetic 对自身方法“比微调更便宜”的原话语境;2)Ian Fischer 的履历(DeepMind 任职年限、YC 创业经历);3)视频中关于团队规模“7人”的具体表述;4)视频发布时间与标题信息。