Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

AI PM 编辑部 · 2023年05月05日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

一封来自Google内部的泄密备忘录,直言“我们没有护城河,OpenAI也没有”。更残酷的是:击败巨头的不是另一家大公司,而是一群拿着开源模型、几百美元预算的开发者。这不是情绪宣泄,而是一份冷静到刺骨的行业判决书。

Google研究员泄密:开源AI正在碾压巨头,真正的护城河不在模型里

一封来自Google内部的泄密备忘录,直言“我们没有护城河,OpenAI也没有”。更残酷的是:击败巨头的不是另一家大公司,而是一群拿着开源模型、几百美元预算的开发者。这不是情绪宣泄,而是一份冷静到刺骨的行业判决书。

“我们没有护城河”:这不是外界唱衰,而是Google自己人说的

事情的起点,是一封泄露的Google内部研究备忘录。作者只是一名研究员,并不代表公司官方立场,但正因为如此,这份文件才显得格外真实。

他抛出的核心结论极其刺耳:“Google没有护城河,OpenAI也没有。”原因不是大模型不够强,而是闭源模型正在被开源社区以不可思议的速度反超

在传统认知里,AI的优势来自三样东西:算力、数据、人才——而这三样,恰恰是Google和OpenAI最不缺的。但这封备忘录指出,一个被严重低估的力量正在改写游戏规则:大量分布式的个人开发者(tinkerers)

他们不受流程、合规、品牌风险的约束,拿到“足够好”的基础模型后,就能疯狂试错、快速迭代。结果是:原本被认为需要数亿美元、数百人团队才能推进的技术突破,正在被一群人用几周时间、几百美元预算完成。

这不是“追赶”,而是“套圈”。作者在TL;DR里用了一个毫不留情的词:Open source is lapping us(开源正在套我们一圈)

60天时间线:LLaMA泄露之后,开源世界发生了什么

这封备忘录最有杀伤力的部分,不是观点,而是一条冷静到残酷的时间线。

2月24日,Meta发布LLaMA:代码开源,权重未开源。
3月3日,完整模型权重泄露——尽管是非商用许可,但实验的大门已经被彻底撞开。
3月12日,有人让LLaMA跑在Raspberry Pi上,掀起“模型小型化”的狂潮。
3月13日,斯坦福发布Alpaca,引入指令微调——“突然之间,任何人都能微调模型做任何事”。

真正的转折点在这里:低秩适配(LoRA)。这种极低成本的微调方式,让论文开始“炫耀”自己只花了几百美元。更致命的是,LoRA权重可以独立分发,绕开原始模型的许可限制。

接下来几乎像失控一样:
- 3月18日:模型在无GPU的MacBook CPU上运行
- 3月19日:13B参数的Vicuna,被认为在部分场景下接近Bard
- 4月3日:人类难以区分Koala(开源13B模型)与ChatGPT的输出
- 4月15日:OpenAssistant开源RLHF,效果接近ChatGPT

作者的结论很直接:我们眼中“尚未解决的重大难题”,已经在社区开发者的电脑上被解决了。

手机端大模型、个人定制AI、多模态训练、一小时完成的实验——这些事情,开源社区正在用13B甚至更小的模型完成,而大公司却在540B参数、上千万美元的路径上步履沉重。

Stable Diffusion déjà vu:这不是第一次,巨头却还在犯同样的错

这位Google研究员并不认为这一切是偶然。他把这次事件称为“LLM的Stable Diffusion时刻”

当年,OpenAI的DALL·E是闭源、昂贵、可控的;而Stable Diffusion是开源、可微调、可部署的。结果并不是“谁模型更好”,而是谁激发了最多人的创造力

Stable Diffusion真正击败DALL·E的,并不是某一次技术指标,而是:
- 成千上万的微调模型
- 自发生长的插件、UI、市场和社区
- 无数“不在路线图里”的创新

备忘录指出,LLM正在复刻同样的结构性条件:
- LoRA ≈ 图像生成里的低成本微调
- Chinchilla scaling ≈ latent diffusion 的效率突破
- “足够好”的基础模型一旦开放,就会引发全球并行创新

关键一句话是:“坚持维护世界上最大的模型,反而可能成为我们的劣势。

大模型意味着慢迭代、高成本、高风险;而小模型意味着快实验、可堆叠、社区协作。作者甚至明确建议:20B参数以下,不应该再被视为‘次要路线’。

反击与反讽:OpenAI真的没有护城河吗?

这封备忘录引爆讨论后,反对意见迅速出现。

Stability AI的CEO Ahmad认为:创新本身不是护城河,数据、分发和产品才是

开发者阵营的反击更直接:
- Robert Scoble:开发者和社区本身就是护城河
- Nick Dobo:OpenAI的护城河在开发者生态,没人用Bard
- Nate Chan给了一个极其形象的比喻:“换模型,就像换掉一位创始级工程师。”

Khan Academy甚至公开表示:他们花了6个月时间做GPT模型的提示工程。这不是说换不能换,而是迁移成本高到没有人愿意轻易动手

于是形成了一个微妙的分裂:
- Google的问题,可能不是“闭源”,而是没抓住开发者心智
- OpenAI的问题,可能迟早会来,但现在还没到那一刻

讽刺的是,还有人指出:Google真的“没有护城河”吗?它掌握着搜索、邮箱、操作系统和分发渠道。真正的问题可能不是有没有,而是敢不敢、会不会用。

总结

这封泄密备忘录之所以重要,不是因为它唱衰了Google,而是因为它点破了一个正在发生的结构性变化:AI的竞争,正在从“谁的模型更大”,转向“谁能动员更多人一起改模型”。

对从业者而言,takeaway 很现实:第一,不要低估开源社区的速度;第二,LoRA、微调、模型组合能力正在成为核心技能;第三,真正的护城河,越来越可能是开发者关系、分发生态和迁移成本,而不是参数规模。

一个值得思考的问题是:当模型能力趋同、成本趋零时,你所在的位置,究竟是在“网络里”,还是在“围墙内”?


关键词: 开源模型, Google, OpenAI, LLaMA, 护城河

事实核查备注: 需要核查:1)泄密备忘录的作者身份与是否代表Google官方立场;2)LLaMA发布时间(2023-02-24)及权重泄露时间(2023-03-03);3)Koala、Vicuna与ChatGPT/Bard“接近/难以区分”的具体评测表述;4)Khan Academy关于6个月提示工程的原始引用来源;5)Stable Diffusion与DALL·E市场影响的对比是否为定性描述。