OpenAI悄悄划了5条线:AGI其实已经逼近第二级
正在加载视频...
视频章节
OpenAI在一次内部全员会议上,首次公开了一套“AGI分级系统”。更炸的是:他们认为自己正站在从聊天机器人迈向“人类级推理”的门槛上。这不仅重塑了我们理解AGI进度的方式,也暴露了OpenAI对风险、权力与监管的真实判断。
OpenAI悄悄划了5条线:AGI其实已经逼近第二级
OpenAI在一次内部全员会议上,首次公开了一套“AGI分级系统”。更炸的是:他们认为自己正站在从聊天机器人迈向“人类级推理”的门槛上。这不仅重塑了我们理解AGI进度的方式,也暴露了OpenAI对风险、权力与监管的真实判断。
真正的猛料:OpenAI内部已经不再只谈“会聊天”
如果你以为AGI还停留在营销口号阶段,那OpenAI这次的动作值得你重新校准预期。根据彭博社披露,OpenAI在一次内部全员会议上推出了一套五级AI能力分级系统,用来回答一个他们绕不开的问题:我们距离AGI到底还有多远?
这套体系的背景很微妙。去年Sam Altman被罢免又回归、Ilya Sutskever与“超级对齐团队”集体离开之后,外界一直在等OpenAI重新谈“长期对齐”和“安全”的那一刻。现在,这套分级系统某种程度上就是他们给出的答案——不是完整路线图,但是一次罕见的自我定位。
信号很明确:OpenAI不再满足于“我们做的是强大的工具”,而是开始内部量化不同阶段可能带来的能力跃迁与风险边界。AGI,从抽象目标,变成了阶段性工程。
五个等级里,最危险的不是第五级,而是第二级
OpenAI把当前阶段定义为Level 1:Chatbots。也就是我们熟悉的ChatGPT、GPT‑4、Claude 3.5 Sonnet这一代产品。一个耐人寻味的判断是:他们认为这个阶段已经持续了将近两年,而且“几乎没什么人觉得它构成真正风险”。
真正引发内部紧张感的是Level 2——Reasoners。OpenAI给它的定义是:在没有工具辅助的情况下,具备“博士水平人类”的问题解决能力。彭博社提到,在那次会议上,管理层甚至展示了一个基于GPT‑4的研究项目,认为已经显露出接近人类推理的迹象。
这也是争议最大的地方。很多研究者在X上直言:如果你真的达到了‘人类级推理’,那Agent(Level 3)、创新者(Level 4)甚至组织级AI(Level 5)只是工程问题。换句话说,第二级一旦被跨越,后面的门可能会被一脚踹开。
而OpenAI自己也很谨慎:他们没有给出任何时间表,只强调知道“风险会在不同层级突然变化”。这比乐观预测更值得警惕。
Agent还没来,监管先动了:微软和苹果同时后退一步
同一期节目里,还有一条容易被忽略、但同样关键的新闻:微软和苹果,先后放弃了在OpenAI董事会的观察员席位。
要知道,微软是在去年11月OpenAI董事会风波后,才正式进入“观察员”角色;苹果更是刚宣布要把ChatGPT整合进iPhone生态。这两家同时后撤,几乎只能用一个词解释——反垄断压力。
这些观察员席位本质上没有投票权,但它们象征着‘可见性’。而在欧美监管机构眼中,可见性本身就可能意味着控制力。正如《The Information》的Martin Peers所说:如果这个角色只带来监管麻烦,却无法真正影响决策,那还不如通过非正式渠道沟通。
一个微妙的对比是:AI监管在美国今年明显降温,但反垄断却在持续升温。这意味着,真正约束OpenAI的,短期内可能不是AI安全法案,而是传统竞争法。
总结
把这些碎片拼在一起,你会看到一个更真实的OpenAI:一边在内部认真拆解“AGI到底分几步走”,一边在外部主动降低与科技巨头的结构性绑定风险。对AI从业者来说,真正的takeaway不是“GPT‑5什么时候来”,而是:当‘人类级推理’被正式列为下一个门槛,你该假设它一旦出现,会立刻引发哪些连锁反应?Agent化、组织替代、监管博弈,很可能不会按顺序发生。提前为那个非线性跳变做准备,才是现在最理性的选择。
关键词: OpenAI, AGI分级, AI推理, AI Agent, 反垄断
事实核查备注: 需要核查:1)OpenAI五级AGI分级系统是否确认为内部全员会议提出;2)Level 2对‘博士水平人类推理’的具体表述;3)彭博社关于GPT‑4内部演示的描述;4)微软与苹果放弃董事会观察员角色的时间点与原因;5)Metaculus上关于GPT‑5发布时间的预测数据。