OpenAI 新模型 Spark 上线即刷屏:1000 Token/秒,速度第一次成了“智商”

AI PM 编辑部 · 2026年02月12日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你还把模型强弱理解为参数规模,那这场直播会直接把你拉回现实。OpenAI 的新模型 Spark,不靠花哨能力,而是用接近 1000 Token/秒的速度,逼所有人重新思考:也许“快”,本身就是一种智能。

OpenAI 新模型 Spark 上线即刷屏:1000 Token/秒,速度第一次成了“智商”

如果你还把模型强弱理解为参数规模,那这场直播会直接把你拉回现实。OpenAI 的新模型 Spark,不靠花哨能力,而是用接近 1000 Token/秒的速度,逼所有人重新思考:也许“快”,本身就是一种智能。

最反直觉的一句话:速度,本身就是智能

这场 Live Vibe Check 里,最炸的一句话不是参数、不是能力,而是一句看似轻描淡写的判断——“speed is a form of intelligence”。在演示 Spark 时,主持人几乎是下意识地反复强调:不是它答得多深,而是“它几乎在你念头刚出现时就已经给你结果了”。

这其实击中了一个长期被忽略的点。过去两年,AI 圈默认的共识是:更大的模型、更长的推理链、更慢但更“聪明”。Spark 反着来——它不试图证明自己多会思考,而是用极端速度改变人和模型的交互方式。那种体验更像是:你还没来得及怀疑,它已经执行完了。

终端里的那一幕:Token 飞起来的感觉

在终端 Demo 里,当 Spark 开始输出时,所有人都注意到一件事:Token 不是“一个个蹦出来”,而是“直接流出来”。有人当场感叹:“I love how fast the tokens go。”

这不是情绪化的赞美。对开发者来说,Token 速度决定了你能不能把模型当成“实时协作者”,而不是“异步工具”。当延迟低到几乎不存在,你会开始不停地试、不断地追问,甚至懒得提前规划提示词——反正改一下马上就有结果。

直播里也明确提到,这是“a first step in a new paradigm of coding models that are this fast”。这句话的潜台词是:一旦速度跨过某个阈值,工作流会彻底变形。

当模型足够快:你还需要写那么多代码吗?

讨论很快进入一个更有意思的问题:当模型输出快到这种程度,我们到底该什么时候“写代码”,什么时候“直接让模型多吐点 Token”?

有人回顾了过去的做法:我们写大量 glue code、orchestrator,只是为了协调模型的慢速响应。但如果模型足够快、足够便宜,甚至可以被当成“随叫随到的执行层”,那很多原本需要工程结构解决的问题,可能直接交给模型。

这并不是说代码会消失,而是分工在变——模型变成你背后的执行引擎,而你更多在做判断、选择和方向校准。Spark 让这个问题第一次变得不是理论,而是手感上的真实。

一个被顺带提到的未来:语音,可能才是默认入口

在展示过程中,有一句看似随口的话却很耐人寻味:“it’s going to be all voice”。当 Token 快到几乎没有等待成本,键盘反而成了瓶颈。

这不是对产品形态的正式发布,而是一种自然推论:如果模型的响应速度接近人类对话节奏,那最符合直觉的输入方式,可能不再是打字。Spark 目前只是速度上的突破,但它隐约指向一个更“人体工学”的 AI 交互形态——少点等待,多点即时反馈。

总结

Spark 这次并没有用“更聪明”来震撼你,而是用“更快”逼你重新思考工作方式。对 AI 从业者来说,真正的 takeaway 是:开始用速度作为一个新的判断维度。模型一旦快到某个临界点,你的工具选择、系统设计,甚至日常思考方式都会改变。接下来值得你问自己的问题是:如果模型几乎没有延迟,我现在这套流程,还有多少是“历史包袱”?


关键词: OpenAI, Spark 模型, Token 速度, AI 编程范式, 模型交互体验

事实核查备注: 需要核查:Spark 是否为 OpenAI 官方模型名称;直播中提到的 1000 Token/秒是否为实测还是体验性描述;视频具体发布时间与时长;Codeex、OpenCloud 是否为正式产品或仅为演示环境提及。