OpenAI 内斗真正重要的不是八卦,而是这三件被忽略的大事
“董事会竟然是从 Twitter 上才知道 ChatGPT 的?”这句话引爆了整个科技圈。但如果你只记住了这个,你就错过了更重要的信号:OpenAI 的权力结构、AI 安全的真实处境,以及生成式 AI 正在被如何重新定义。
“董事会竟然是从 Twitter 上才知道 ChatGPT 的?”这句话引爆了整个科技圈。但如果你只记住了这个,你就错过了更重要的信号:OpenAI 的权力结构、AI 安全的真实处境,以及生成式 AI 正在被如何重新定义。
我们每天都在用的大模型,其实连创造它们的人都说不清“为什么会这样回答”。Anthropic 刚刚公布的一项研究,第一次在 Claude 3 Sonnet 里找到了数百万个可识别、可操纵的“概念特征”,这可能是理解、控制乃至治理 LLM 的真正起点。
Snapchat宣布每年砸15亿美元做AI,看起来像是巨头跟风,实际上却暴露了一个更残酷的现实:AI正在重塑商业模式、广告逻辑,甚至撕裂整个行业的价值观。从Snap到字节、从英国政府到OpenAI内部,这不是几条新闻,而是一场正在加速的分化。
所有人都在等 OpenAI 放大招,但它却选择了“慢下来”。搜索产品疑似已潜行上线,神秘 GPT-2 聊天机器人反复出现又消失,发布会被推迟,同时 OpenAI密集抛出一系列“规则、边界与检测工具”。这不是没货,而是一次耐人寻味的战略转向。
10年前,他警告全世界:AI 可能毁灭人类;10年后,他却反问:如果 AI 把一切都“修好了”,人类还剩下什么?Nick Bostrom 的新书《Deep Utopia》,不是乐观宣言,而是一枚扔进 AI 圈的思想炸弹。
就在起诉 OpenAI 的同时,Elon Musk 扔出一颗更大的炸弹:xAI 将在本周把 Grok 开源。这一决定表面上是“理想主义回归”,但放在 AI 训练成本、资本博弈和安全争论的背景下,它更像是一场精心计算的战略反击。
当 Google 的 Gemini 把中世纪英国国王画成多族裔合影、拒绝回答“哈马斯是否是恐怖组织”,很多人以为这只是一次“反政治正确”的狂欢。但真正让 AI 从业者不寒而栗的,并不是文化战争,而是:连 Google 都不知道自己在教模型做什么。
就在ChatGPT短暂“发疯”、Gemini因历史图像争议被群嘲的同一天,Google悄然丢出一颗重磅炸弹:发布首个真正意义上的开源大模型家族Gemma。这不是一次普通的模型发布,而是一次关于权力、控制权和AI未来路线的集体转向。
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
Sam Altman 刚经历“被罢免又回归”的董事会风波,OpenAI 就抛出了一套前所未有的安全准备框架。更激进的是:一旦模型风险降不下来,哪怕算力已经砸下去,也可能直接停掉。这不是公关,而是一套会真正影响模型生死的内部机制。