OpenAI悄悄设立AGI委员会:真正被“挡在门外”的不是监管,而是微软
正在加载视频...
视频章节
OpenAI 最近确认:是否达成 AGI,将由一个只有 6 人的董事会决定,而且这个决定,直接决定微软还能不能用他们的模型。这不是公司治理八卦,而是一场关于算力、资本、AI 安全与控制权的正面冲突,硅谷已经开始分裂。
OpenAI悄悄设立AGI委员会:真正被“挡在门外”的不是监管,而是微软
OpenAI 最近确认:是否达成 AGI,将由一个只有 6 人的董事会决定,而且这个决定,直接决定微软还能不能用他们的模型。这不是公司治理八卦,而是一场关于算力、资本、AI 安全与控制权的正面冲突,硅谷已经开始分裂。
AGI 一旦“被宣布”,第一个受影响的不是人类,而是微软
真正让圈内人炸锅的,不是 OpenAI 有 AGI 委员会,而是这个委员会“一旦认定达成 AGI”,微软将被自动排除在 IP 授权和商业条款之外。根据 OpenAI 的结构,其非营利董事会拥有对“是否达成 AGI”的最终裁量权,而微软的所有商业权益,只适用于“AGI 之前”的模型。
这意味着什么?意味着 AGI 不只是技术里程碑,而是一道法律与商业分水岭。AGI 的定义并不需要是“像人类一样聪明”,它只需要被董事会认为“该被保护”。正如推特上一句被疯狂转发的调侃:如果你听到 OpenAI 宣布达成 AGI,那不代表模型等同人类,而是“我们不想再把它给微软了”。
这也解释了为什么 Sam Altman 一边在 Financial Times 里说“离 AGI 还有很长的路、还要烧掉海量算力”,一边又要反复强调微软“没有战略控制权”。AGI 在这里,已经不只是技术目标,而是一张极其锋利的谈判筹码。
OpenAI × 微软:不是分手传闻,而是一段注定混乱的关系
很多人试图把 OpenAI 和微软的关系解读成“权力失衡”或“准收购失败案例”,但视频里一个更冷静的判断是:这段关系从一开始就选择了最难的一条路。
它既不是收购,也不是纯投资,而是深度绑定却又保持法律独立。结果就是:双方既合作,又在关键方向上不可避免地互相踩脚。Sam Altman 可以在董事会日当天对 Satya Nadella 说“这是科技圈最强的合作关系”,同时 OpenAI 也会做出未必符合微软长期利益的决定。
更重要的是,这种模式已经成了整个行业的“模板”:Anthropic 绑定 Google 和 Amazon,算力、资本和模型训练的成本,早已超出传统 VC 的承受范围。OpenAI 和微软的关系,实际上是整个大模型时代的缩影——没有大公司,模型训不出来;但一旦绑定过深,独立性就成了随时可能失守的阵地。
VC 的“负责任 AI 宣言”,为什么在硅谷引发群嘲?
如果说 AGI 委员会引发的是“权力焦虑”,那 35+ VC 联合发布的《负责任 AI 承诺》,点燃的就是“意识形态战争”。这份文件看起来温和、克制、全是正确的废话:治理、透明度、审计、反馈循环。
问题在于,硅谷 Builder 们几乎一边倒地反对。Replit CEO 直接说这是“忙碌型表演”;a16z 的 Martin Casado 更是明确表态:不会签任何“预先监管计算机科学创新”的协议。更激烈的声音认为,这是一次向政府监管的“提前投降”,是用安全之名,为算力和模型集中化铺路。
一个特别值得注意的技术批评来自 fast.ai 创始人 Jeremy Howard:他直指第四条——“定期审计和测试以确保安全”——在通用模型上几乎是不可能完成的任务。试图做到这一点,反而可能降低安全性,因为它会迫使模型集中在少数被许可的机构中。
于是,这份宣言在支持者眼里是“负责任的第一步”,在反对者眼里却是“AI 版的 TSA”:用极端风险叙事,换取对计算与模型的长期控制权。
真正的分裂线:不是要不要安全,而是谁来决定“什么是安全”
把所有争吵放在一起看,会发现一个被严重低估的事实:这场战争从来不是“要不要 AI 安全”。几乎没有人反对安全本身。
真正的分裂在于——谁来定义风险?谁有权宣布 AGI?谁掌握算力开关?是一个 6 人董事会?是一群头部 VC?还是政府?
当 AGI 被用作触发商业、法律、监管变化的“关键词”,它就不可避免地从技术概念,变成权力工具。今天是微软被排除在外,明天可能是开源模型被限制,再之后,可能就是创业者发现:你能不能训练模型,取决于你站在哪一边。
这也是为什么视频最后强调:现在正是必须认真参与这场讨论的时刻。因为无论你写不写声明、站不站队,规则都会被制定,而未来的 AI 世界,只会属于制定规则的人。
总结
这期视频真正的价值,不在于八卦 OpenAI 和微软,而在于揭示了一个残酷现实:AGI、安全、监管,正在被快速“制度化”。如果你是 AI 从业者,这意味着三件事:第一,不要天真地把 AGI 当成纯技术目标,它同时是法律和资本工具;第二,未来的竞争力不仅是模型能力,还有你能否获得算力与合规空间;第三,尽早关注政策与行业博弈,否则等规则落地,你可能连选择权都没有。一个值得思考的问题是:当 AGI 被宣布的那一天,你希望决定权掌握在谁手里?
关键词: OpenAI, AGI, AI安全, 微软, 算力与监管
事实核查备注: 需要核查:OpenAI 非营利董事会人数(6人);AGI 达成后微软授权条款的具体法律表述;Sam Altman 在 Financial Times 采访中的原话时间与语境;VC 负责任 AI 承诺的发布机构 Responsible Innovation Labs 及签署数量;Jeremy Howard 关于模型安全审计的原文观点