Ilya 回归不是创业,是一次对 OpenAI 路线的正面反击

AI PM 编辑部 · 2024年06月21日 · 9 阅读 · AI/人工智能

正在加载视频...

视频章节

消失半年后,OpenAI 前首席科学家 Ilya Sutskever 终于现身——不是回归大厂,而是亲手创立一家“只做一件事”的公司:安全超级智能。没有产品、没有收入、没有妥协,这不是常规创业,而是一场对整个 AI 产业逻辑的挑战。

Ilya 回归不是创业,是一次对 OpenAI 路线的正面反击

消失半年后,OpenAI 前首席科学家 Ilya Sutskever 终于现身——不是回归大厂,而是亲手创立一家“只做一件事”的公司:安全超级智能。没有产品、没有收入、没有妥协,这不是常规创业,而是一场对整个 AI 产业逻辑的挑战。

从“政变核心”到彻底出走,Ilya 的半年空白意味着什么

过去半年,AI 圈最耐人寻味的悬念不是模型参数,而是一个人:Ilya Sutskever。作为 OpenAI 的联合创始人和首席科学家,他在 Sam Altman 去留风波中扮演了极其矛盾的角色——先投票将 Sam 请下台,又在关键时刻“倒戈”,直接促成 Sam 回归。

风波平息后,所有人都在问同一个问题:Ilya 在干嘛?Sam Altman 多次被追问,只能反复表达“希望还能继续合作”。直到 2024 年 5 月,整整六个月后,Ilya 亲自给出答案:离开 OpenAI。

这个时间点本身就很微妙。它像极了一段“冷却期”——公司完成权力重组、路线确认,而 Ilya 选择在一切稳定之后,彻底离场。现在回头看,这不像是一时冲动,更像是一次深思熟虑的分道扬镳。

SSI:一家“没有产品、没有收入、只有终点”的公司

6 月,Ilya 终于揭晓去向:创立 Safe Superintelligence Inc.(SSI)。一句话定义这家公司:只有一个目标、一个产品、一条路线——安全的超级智能。

在官方声明中,SSI 把话说得极其决绝:在实现安全超级智能之前,不做任何其他事情。这意味着什么?没有 ChatGPT,没有 API,没有企业解决方案,甚至没有“过渡性产品”。

Ilya 用了一个极具挑衅意味的比喻来重新定义“安全”——“像核安全那样的安全,而不是信任与合规层面的安全。”这句话几乎是对 OpenAI 现行路线的正面切割:当行业在一边加速能力、一边用对齐和红队‘补丁式’修安全,SSI 选择把能力与安全当成同一个工程问题,从底层一起解。

团队同样极端精简。联合创始人包括 Daniel Levy,以及连续创业者、AI 投资人 Daniel Gross。官方反复强调的不是规模,而是“small, cracked, high-trust team”——少而极强。

这是理想主义,还是一个极端理性的豪赌?

兴奋与质疑几乎同时爆发。一派认为:如果世界上有一个人能配得上“安全超级智能”这个目标,那就是 Ilya。他参与引爆了两个关键加速点:用 GPU 训练 SOTA 模型,以及早期坚定支持 Transformer 和 GPT 的规模化。

但另一派的质疑同样锋利:没有收入,怎么活?训练超级智能级别模型,算力投入可能是百亿美金级别,谁来买单?如果用别人的 GPU 集群,安全如何保证?

更现实的问题是:当 OpenAI、Anthropic、Google、Meta、Mistral 都在做“差不多的事”——继续 scale Transformer——SSI 真能走出一条不同路径吗?有人甚至讽刺:‘永远造不出来的超级智能,当然是最安全的。’

但支持者的逻辑也很冷静:这是一个极度二元的赌局。要么失败,价值为零;要么成功,回报大到足以忽略一切中间成本。在这种尺度下,短期商业化反而是干扰项。

真正的冲击:AI 行业开始分裂成两条路线

SSI 的出现,真正改变的不是算力格局,而是叙事结构。

一条路线,以 OpenAI 为代表:快速推能力、快速落地、在真实世界中不断修正安全。另一条路线,以 SSI 为标志:拒绝商业节奏,先解决“能不能安全地做到”,再谈“要不要给世界用”。

这会直接制造人才与资源的张力。已经有人断言:OpenAI 将不可避免地流失一部分对“安全优先”仍然执念极深的研究员。更重要的是,SSI 把一个很多公司刻意模糊的问题,重新摆到台面中央:如果超级智能真的近在眼前,你到底愿意为‘慢一点但更确定’付出多大代价?

总结

Ilya 的回归,并不是“又一家 AI 创业公司”的故事,而是一次价值排序的公开表态:当能力与安全发生冲突时,他选择把一切筹码押在后者。对从业者来说,这件事至少带来三个启发:第一,AI 研究正在重新分叉,技术路线背后是价值取舍;第二,安全不再只是政策或产品层问题,而可能是核心工程能力;第三,如果你真的相信超级智能不可避免,那么“如何安全抵达”可能比“多快到达”更值得投入。真正的问题留给你:如果 SSI 成功了,今天所有主流 AI 公司的路径,会不会被证明走错了?


关键词: Ilya Sutskever, 安全超级智能, AI安全, 通用人工智能, OpenAI

事实核查备注: Ilya Sutskever 离开 OpenAI 的时间(2024年5月);SSI 公司名称与使命表述;Ilya 关于“核安全式安全”的原话语境;联合创始人 Daniel Levy、Daniel Gross 的角色;视频发布时间 2024-06-21