OpenAI真正的问题不在技术,而在恐惧与速度
正在加载视频...
视频章节
这支视频并不是一次简单的“反OpenAI”吐槽,而是一次对美国AI路线的深度反思。TBPN借由OpenAI与DeepSeek的对比,指出真正拖慢创新的不是算力或模型结构,而是恐惧、监管冲动与自我设限。
OpenAI真正的问题不在技术,而在恐惧与速度
这支视频并不是一次简单的“反OpenAI”吐槽,而是一次对美国AI路线的深度反思。TBPN借由OpenAI与DeepSeek的对比,指出真正拖慢创新的不是算力或模型结构,而是恐惧、监管冲动与自我设限。
从“美国版DeepSeek”说起:竞争视角的突然转变
这一期讨论的起点颇具讽刺意味:OpenAI被形容为“美国版DeepSeek”。在节目中,主播用一种半调侃的方式介绍DeepSeek——“非常像ChatGPT,只是它在天安门话题上会卡壳”。这句话本身就点出了一个重要现实:全球最前沿的大模型竞争,已经不再是抽象的未来威胁,而是正在发生的正面对抗。
主播提到,他们已经在节目里花了“至少三个小时”深度讨论DeepSeek,而这一次的切入点,来自Ben Thompson(Stratechery作者)对OpenAI的最新评论。Ben并没有质疑OpenAI的技术能力,而是直指其“创新速度”。在他看来,OpenAI正被一整套非技术因素拖慢,包括非营利结构遗产、有效利他主义(Effective Altruism)文化,以及围绕AI末日的长期恐慌叙事。
这种叙事曾经有其历史合理性,但在真实竞争出现后,它开始显得笨重。主播总结得很直接:当你已经面对一个可以快速迭代、低成本扩张的对手时,还在反复讨论“我们要不要先停下来想清楚”,本身就是一种战略失误。这也是整期视频的主线——OpenAI并不是输在能力,而是输在犹豫。
AI末日叙事的破产:从“狼来了”到集体免疫
为什么这种犹豫会出现?视频用了一段非常生动的比喻来解释。主播说,他最近在给孩子读《狼来了》,而AI安全讨论者“真的应该读读这个故事”。过去几年里,每一次模型升级几乎都伴随着同样的警告:“GPT‑1会毁灭世界”“GPT‑2我们完了”“GPT‑3彻底结束了”。
但现实是,模型一代代发布,世界并没有崩塌。于是,一个明显的“Vibe Shift”(氛围转变)出现了。两年前,人们讨论的是AGI是否会出现;现在,主播半开玩笑地说,“大家已经普遍认为我们有AGI了,只是现在开始担心ASI(人工超级智能)”。目标不断后移,警告却不断失效,最终带来的不是安全,而是麻木。
这一点在DeepSeek R1的发布后尤为明显。围绕它的讨论更多集中在工程效率上,比如使用更高效的数据格式(节目中提到floating 8相对于FP32),而不是“它是否更危险”。主播强调,没有人说这是一次能力上的飞跃,更没人说它“更接近毁灭人类”。这与两年前形成了鲜明对比,也削弱了持续恐慌的正当性。
OpenAI停止开源:安全理由,还是策略转折?
视频中最尖锐的部分,落在OpenAI“停止全面开源”这一历史性决策上。主播明确指出,这正是AI安全讨论中“motte and bailey”(堡垒与前沿)问题的集中体现:在外层用极端风险做防御,一旦被质疑,就退回到更温和、难以反驳的说法。
节目引用了OpenAI当年的表述——他们相信“发布策略可以限制最初能做某些事情的组织数量”。听起来是安全考量,但主播的质疑在于:大量时间和精力,最终被消耗在文化战争和监管立场上,而不是竞争本身。
更具讽刺意味的是,DeepSeek R1的出现证明了一点:即便锁死“思维链”(chain of thought),也未必能形成真正的护城河。主播总结得很直白:“R1的存在说明,锁链条可能根本没那么重要。”如果核心优势并不在于封闭细节,那么OpenAI牺牲开放性换来的,究竟是什么?
是Sputnik时刻,还是Google时刻?美国该如何应对
在结尾部分,视频把视角从OpenAI拉回到整个美国科技体系。Ben Thompson提出,美国面临一个选择:要么继续加码防御——芯片禁令、许可制监管、模仿欧盟;要么承认真实竞争的存在,“给自己竞争的许可”。
主播显然更认同后者。他引用Ben的话:“停止绞尽脑汁搞监管,反而要把那些与胜利无关的企业内部CRAP砍掉。”这并不只是反政府情绪,而是一种竞争哲学:你无法靠阻止别人跑步来赢得比赛。
视频中还提到一个耐人寻味的对比——这是一次“Sputnik时刻”,还是一次“Google时刻”?前者意味着国家级动员与恐慌,后者则意味着在竞争中通过产品和速度胜出。主播倾向于认为,过度关注效率、成本和封锁,只会让美国陷入前一种心态,而真正的答案,可能仍然是最老派的那一个:跑得更快。
总结
这期视频真正尖锐之处,并不在于批评OpenAI某个具体决策,而在于揭示了一种更深层的错位:当真实竞争已经到来,美国AI叙事仍停留在“假想威胁”。恐惧曾经推动谨慎,但现在正在侵蚀速度。对读者而言,这不仅是一次公司层面的反思,也是对整个技术社会的提醒——安全很重要,但如果它成为不前进的理由,本身就会变成新的风险。
关键词: OpenAI, DeepSeek, AI安全, 开源模型, 通用人工智能
事实核查备注: 视频来源:TBPN《What Open AI Got WRONG》(2025-01-30);涉及公司:OpenAI、Google;涉及产品/模型:ChatGPT、DeepSeek、DeepSeek R1;技术名词:AGI(通用人工智能)、ASI(人工超级智能)、chain of thought、FP32、floating 8;引用观点来自Ben Thompson(Stratechery),为视频中讨论内容而非其完整原文。