2万亿参数的奥林匹斯山:亚马逊真要正面硬刚GPT-4了

AI PM 编辑部 · 2023年11月09日 · 5 阅读 · AI/人工智能

正在加载视频...

视频章节

就在外界还在讨论亚马逊为何豪掷40亿美元押注 Anthropic 时,一条更猛的消息传出:亚马逊正在秘密训练一款代号 Olympus 的自研大模型,参数规模可能是 GPT-4 的两倍。这不仅是一场参数竞赛,更是 AWS、Bedrock、Alexa 以及整个生成式 AI 格局的关键转折点。

2万亿参数的奥林匹斯山:亚马逊真要正面硬刚GPT-4了

就在外界还在讨论亚马逊为何豪掷40亿美元押注 Anthropic 时,一条更猛的消息传出:亚马逊正在秘密训练一款代号 Olympus 的自研大模型,参数规模可能是 GPT-4 的两倍。这不仅是一场参数竞赛,更是 AWS、Bedrock、Alexa 以及整个生成式 AI 格局的关键转折点。

2万亿参数不是重点,重点是谁坐在指挥席上

如果只看数字,“Olympus 拥有 2 万亿参数”很容易被当成又一次参数军备竞赛。但真正值得 AI 从业者警惕的,是这件事在亚马逊内部的“级别”。

根据 Reuters 的信息,Olympus 项目由 Rohit Prasad 直接领导——这位前 Alexa 负责人,如今的头衔是“AGI 首席科学家”,并且直接向 CEO Andy Jassy 汇报。这不是一个边缘创新项目,而是被摆在了亚马逊战略中枢的位置。

更重要的是,Prasad 拉拢的不是一个新团队,而是整合了 Alexa AI 与 Amazon Science 的核心研究力量。这意味着 Olympus 并不是单点模型实验,而是一次“重组式下注”:把过去分散在语音助手、搜索、推荐系统里的 AI 能力,压缩成一个统一的大模型方向。

从这个角度看,Olympus 更像是亚马逊对自己过去十年 AI 投资的一次“总清算”。不是再做一个 Titan,而是要证明:我们也能训练 Frontier Model。

Bedrock 的真实焦虑:只做“模型超市”还不够

很多人会问:亚马逊不是已经有 Bedrock 了吗?接入 Anthropic、开源模型,让企业自由选择,为什么还要自己下场?

答案恰恰藏在 Bedrock 的成功里。Bedrock 的逻辑是“企业需要选择权”,这在商业上成立,但它也暴露了一个隐忧:AWS 正在成为 AI 时代的“管道工”,而不是“能力源头”。

微软的路径很清晰:Azure + OpenAI 深度绑定,GPT 系列直接变成平台能力。亚马逊如果长期没有一个真正有竞争力的自有模型,就会在高端客户、定制化需求、甚至定价权上逐渐被动。

The Information 的回顾很残酷:最早版本的 Bedrock 模型在 ChatGPT 发布前就已开发,但性能差距巨大,最终被迫转向“平台优先”。Titan 虽然上线,但市场反馈只能用“勉强可用”形容,甚至被 Hugging Face 技术负责人直言“不如主流开源模型”。

Olympus 的出现,本质上是 Bedrock 的补课:你可以继续给客户选择,但你自己不能没有一张能上桌的王牌。

参数翻倍≠能力翻倍,Yann LeCun 的冷水很关键

当“2x GPT-4”成为社交媒体热词时,Meta 首席 AI 科学家 Yann LeCun 提醒了一句行业里最容易被忽略的话:“参数更多,并不必然更好。”

原因有三层。

第一,成本。更大的模型意味着更高的推理成本、更大的显存需求,而这正是企业客户最敏感的地方。

第二,架构。GPT-4 被广泛认为采用了 Mixture of Experts(MoE),也就是说,2 万亿参数并不等于每次推理都在用 2 万亿。真正决定体验的,是“有效参数”而非“总参数”。

第三,效率曲线正在变化。正如业内观察到的那样,如今训练一个达到 GPT‑3.5 或 LLaMA 2 水平的模型,周期已经被压缩到几个月。规模优势正在被工程效率、数据质量和系统设计迅速稀释。

这也是为什么 Olympus 面临的不是一道简单的算术题,而是一座“系统工程之山”:如何在规模、成本、效果之间找到新的平衡点。

真正的压力其实来自 Google 和“下一代 GPT”

有意思的是,Olympus 的传闻,反而把聚光灯再次打到了 Google 身上。

Gemini 被认为是最有希望首次超越 GPT-4 的模型之一,但它的不断延期,正在推高市场预期。业内已经不再期待“稍微好一点的 GPT-4”,而是要求:更聪明、或更便宜、或更快、或真正原生多模态。

与此同时,竞争并没有放慢脚步:
- xAI 的 Grok 用极快迭代证明了“速度本身就是优势”;
- OpenAI 内部已经有关于 GPT-5 的训练传闻;
- Meta 持续用开源策略压缩闭源模型的护城河。

在这个背景下,Olympus 的意义不在于它是否“第一天就赢”,而在于亚马逊是否终于决定参与下一阶段的正面战争,而不是只做基础设施提供者。

总结

Olympus 不是一个“亚马逊版 GPT-4”的简单故事,而是一个信号:大模型竞争已经从“谁先做出来”,进入到“谁能长期承受”的阶段。对从业者来说,这意味着三件事:第一,别再迷信参数规模,系统设计和效率正在重新定价;第二,云平台和模型能力正在重新绑定,选型会影响长期技术路线;第三,真正的窗口期正在缩短——模型能力的代差,可能只存在几个月。一个值得思考的问题是:如果连亚马逊都不愿只做平台了,你的技术栈里,还能把“模型”当成可随时替换的黑盒吗?


关键词: Olympus, GPT-4, Amazon Bedrock, 大模型竞争, 生成式AI

事实核查备注: 需要核查:1)Olympus 参数规模为 2 万亿的来源与准确性(Reuters 报道);2)Rohit Prasad 的正式头衔及其汇报关系;3)Titan 模型的公开评价与 Hugging Face 技术负责人的具体表述;4)GPT-4 是否采用 Mixture of Experts 架构(业内传闻,非官方确认);5)Gemini 的发布时间与 Metaculus 预测数据。