Gemini“政治正确”翻车背后:这不是文化战争,而是AI失控预演
当 Google 的 Gemini 把中世纪英国国王画成多族裔合影、拒绝回答“哈马斯是否是恐怖组织”,很多人以为这只是一次“反政治正确”的狂欢。但真正让 AI 从业者不寒而栗的,并不是文化战争,而是:连 Google 都不知道自己在教模型做什么。
当 Google 的 Gemini 把中世纪英国国王画成多族裔合影、拒绝回答“哈马斯是否是恐怖组织”,很多人以为这只是一次“反政治正确”的狂欢。但真正让 AI 从业者不寒而栗的,并不是文化战争,而是:连 Google 都不知道自己在教模型做什么。
就在ChatGPT短暂“发疯”、Gemini因历史图像争议被群嘲的同一天,Google悄然丢出一颗重磅炸弹:发布首个真正意义上的开源大模型家族Gemma。这不是一次普通的模型发布,而是一次关于权力、控制权和AI未来路线的集体转向。
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
Sam Altman 刚经历“被罢免又回归”的董事会风波,OpenAI 就抛出了一套前所未有的安全准备框架。更激进的是:一旦模型风险降不下来,哪怕算力已经砸下去,也可能直接停掉。这不是公关,而是一套会真正影响模型生死的内部机制。
如果你以为“更强的 AI 只能由更聪明的人来管”,那 OpenAI 刚刚发表的这篇论文,可能会让你皱眉。超级对齐团队的第一个研究结论很反直觉:一个几乎“很笨”的模型,居然能教会 GPT-4 更好地完成任务。这不是噱头,而是 OpenAI 对齐路线的一次重大转向。
Sam Altman没拿到TIME年度人物,却成了“CEO of the Year”。比头衔更重要的,是他被解雇又火速复职的那几天,意外撕开了生成式AI时代最隐秘的矛盾:安全与速度、使命与权力、理想主义与商业现实。
Sam Altman 被董事会突然解雇,又在五天后王者归来,这不是一场普通的人事风波,而是一次把 OpenAI 内部权力、AI 安全分歧和硅谷治理矛盾全部暴露在阳光下的“行业级事故”。真正的赢家和输家,其实比表面复杂得多。
OpenAI董事会刚炒掉Sam Altman,员工却集体“逼宫”,微软趁机接盘,前Twitch CEO空降掌舵——这不是宫斗八卦,而是一场关于AI控制权、算力与安全话语权的公开撕裂。读完你会明白:谁在真正决定AI的未来。
没有预告、没有缓冲,OpenAI 董事会在一个交易日内“直接动手”,把 Sam Altman 从 CEO 位置上拉了下来。公告措辞异常冷酷,市场瞬间震荡,微软市值蒸发数百亿美元。更重要的是:这不像普通的高管更替,而像一次对“AI 未来方向”的强制纠偏。
ChatGPT 的成功,并不是一次“技术碾压”,而是一次充满犹豫、妥协与反直觉决策的产品实验。OpenAI 研究团队原本并不确定用户会不会买账,甚至不敢用最强模型上线。这段 Research × Product 的幕后故事,几乎重写了 AI 产品该如何诞生的逻辑。