开源模型正在逼近GPT-3.5:顶级投资人眼中的AI下一年

AI PM 编辑部 · 2023年04月27日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

在这期《No Priors》播客中,Sarah Guo 与 Elad Gil 罕见地放下准备稿,直接回答听众关于开源模型、AI Agent、监管与AGI的尖锐问题。他们从投资者和一线观察者视角,给出了多个清晰判断:开源大模型正在快速追赶闭源巨头,训练成本会持续下降,而真正决定格局的不是技术本身,而是谁能长期跑在前面并把领先优势变成商业结果。

开源模型正在逼近GPT-3.5:顶级投资人眼中的AI下一年

在这期《No Priors》播客中,Sarah Guo 与 Elad Gil 罕见地放下准备稿,直接回答听众关于开源模型、AI Agent、监管与AGI的尖锐问题。他们从投资者和一线观察者视角,给出了多个清晰判断:开源大模型正在快速追赶闭源巨头,训练成本会持续下降,而真正决定格局的不是技术本身,而是谁能长期跑在前面并把领先优势变成商业结果。

为什么开源大模型突然“追上来了”?

这个问题之所以重要,是因为它直接关系到AI权力是否会长期集中在少数公司手中。Sarah Guo 给出的判断非常明确:今天的开源模型还没有达到 GPT‑3.5 或 Anthropic Claude 的水平,“现在还没有任何一个开源模型,能在整体质量上等同于 GPT‑3.5”。但她紧接着强调,真正的变化发生在最近几个月。

她点名了 Meta 的 LLaMA,称它“相当不错”,以至于“很多创业公司即便存在授权问题,也在默认 Mark Zuckerberg 不会来找麻烦的情况下直接使用”。与此同时,Tomorrow 发布了新的预训练数据集,Stability AI 推出了 Diffusion XL,在图像生成领域对标 Google 的 Imagen。这些事件叠加在一起,传递出一个信号:会训练大模型的团队正在快速增多。

更关键的是成本结构的变化。Sarah 提到一个在研究者中广泛流传的经验法则:“第二次训练同样规模的模型,成本可以下降到原来的五分之一。”原因并不神秘——踩过坑、知道参数怎么选、流程怎么优化,再加上模型蒸馏(用大模型教小模型)和用模型本身来标注数据、做高级自监督学习。她因此做出一个大胆预测:“如果风险投资继续资助开源基础模型,我会赌一年之内,开源生态里会出现一个接近 GPT‑3.5 水平的模型。”

这个判断的分量在于,她坦言自己“几个月前完全不相信这会发生”。

闭源领先一到两代,会成为长期常态吗?

当开源快速逼近,真正的问题就变成了:领先优势能否守得住。主持人直接追问:是否会长期存在少数公司领先开源一到两代模型的格局?

Sarah 的回答非常现实。她认为,如果“直线外推”当前趋势,这种状态很可能持续:OpenAI 等公司跑在前面,开源在后面追。但她马上抛出更本质的问题:“你能不能一直保持领先?以及,你到底想不想为此付出代价并把它变成收入?”

这句话点出了基础模型公司的战略困境。领先意味着巨额算力投入、人才竞争和组织复杂度,而领先本身并不自动等于商业成功。她并没有低估 OpenAI 的能力,相反,她直言:“如果你有一个很强的领导者、很多资源、还有一群极其聪明的人,这是我不愿意下注失败的一种组合。”

这不是对某一家公司做判断,而是对“规模化研究型组织”本身的认可。领先并非偶然,而是一整套系统能力的产物。

AI Agent:投资圈最热,但也最容易被误解的方向

如果说开源模型是过去几个月的显性变化,那么 AI Agent 则是投资人私下讨论最多的话题之一。节目中,几位嘉宾都提到,过去几周 Autonomous Agents(自治智能体)被频繁提及。

这里的 Agent,并不是简单的聊天机器人,而是能够拆解目标、调用工具、持续执行任务的系统。它们往往基于大语言模型,但核心价值在于“行动能力”,而不是回答本身。正因为如此,这个方向被认为可能是真正释放生产力的下一步。

不过,讨论中并没有出现夸张的短期承诺。相反,语气更像是一种方向性的共识——“我觉得我们都会往这个方向走,你们听到的是第一手消息。”这句话的意味在于:Agent 不是一个立刻成熟的产品形态,而是一种几乎不可避免的演化路径。

对于创业者和投资人来说,难点不在于是否要做 Agent,而在于什么时候、以什么形态切入,才能避开纯概念化的泡沫。

从AGI到监管:真正的转折点还没到

当话题转向 AGI(通用人工智能)和监管时,讨论明显变得更加克制。嘉宾们承认,围绕 AGI 的焦虑和呼吁监管的声音正在快速增加,但他们并不认为世界已经站在一个必须立刻重锤监管的临界点。

其中一个核心观点是:监管往往在“可预见风险”和“已造成后果”之间寻找平衡,而当前的大模型仍然处在能力快速变化的阶段。过早冻结技术路线,可能会锁定错误假设。

他们更关注的是“拐点”——也就是模型能力与现实世界产生系统性、不可逆影响的那一刻。而从对话判断,这个拐点“还相当远”。这并不是否认风险,而是强调节奏感:安全、伦理和政策讨论应该跟上技术,而不是用恐惧替代判断。

这种态度,某种程度上解释了为什么一线投资人同时支持模型创新,也支持逐步推进的安全研究。

总结

这期《No Priors》的价值,不在于给出确定答案,而在于呈现了一组正在形成共识的判断:开源模型的追赶速度被严重低估,训练成本的下降正在改变参与门槛;闭源公司的领先优势依然真实,但需要持续用组织能力去捍卫;AI Agent 是方向而非捷径;而关于 AGI 和监管,真正的决策窗口还没有完全打开。对读者而言,最大的启发或许是:在AI时代,判断趋势比追逐热点更重要。


关键词: 开源模型, GPT-3.5, LLaMA, AI Agent, AGI

事实核查备注: 节目名称:No Priors Ep.14;嘉宾:Sarah Guo、Elad Gil;提及模型与产品:GPT-3.5、LLaMA、Stable Diffusion、Imagen、Diffusion XL;公司:OpenAI、Anthropic、Meta、Stability AI;关键判断:一年内出现接近GPT-3.5水平的开源模型(预测性观点);训练成本下降到原来的五分之一(研究者经验法则)。