OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力
正在加载视频...
视频章节
当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。
OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力
当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。
一句“人类灭绝风险”,为什么突然被摆上台面
如果把时间拨回 6 个月前,大模型讨论的主线还是参数、算力和谁的效果更好。而现在,OpenAI 直接在官方叙事中使用了“catastrophic risk”“human extinction-level risk”这种词。这不是修辞升级,而是语境变化的结果。
一方面,是科学界和产业界持续一整年的“安全敲钟”:从学者联名信,到公司高管公开呼吁监管,风险叙事已经铺垫成熟。另一方面,更关键的是政策节奏跟上了——各国政府开始认真思考:AI 不只是创新工具,也可能是系统性风险源。
OpenAI 选择在这个节点成立灾难级风险准备团队,本质上是在告诉外界:我们默认前沿模型已经接近“需要国家级安全视角”来对待的阶段。这是一种定位声明,而不仅是技术动作。
从英国 AI 安全峰会,看清这盘更大的棋
很多人忽略了一个重要背景:这支团队的亮相,几乎与英国 AI Safety Summit 同步。英国首相高调推进峰会、邀请中国、惹怒美国盟友,这些看似是外交新闻,实则与 OpenAI 的动作高度同频。
原因很简单——AI 风险已经被拉进国际博弈框架。芯片出口管制、模型能力评估、跨国治理,这些都不是公司单方面能解决的事。OpenAI 在此时强调“frontier risk”,等于主动对接政府议程,提前站位。
换句话说,这不是 OpenAI 被迫谈安全,而是它在参与规则制定:当各国政府需要一个‘负责任的前沿实验室’样本时,谁最先把安全体系讲清楚,谁就更有话语权。
这支“准备团队”到底在准备什么
从官方披露看,这个 Preparedness Team 覆盖的并不是日常滥用,而是极端场景:
- 个性化劝说(Sam Altman 特别提到的“超人级说服力”)
- 网络安全攻击
- 化学、生物、放射性、核风险
- 自主复制与自我适应的系统
更重要的是方式:他们把能力评估、红队测试、风险预测和防护机制,直接嵌入模型开发流程。这意味着一个变化——安全不再是发布前的 checklist,而是决定“能不能继续往前推能力”的门槛。
这也是为什么 OpenAI 提出了 risk‑informed development policy:试图弥合一个现实矛盾——模型能力增长太快,而安全资源永远不够。它更像是一套刹车系统,而不是安全气囊。
真正的难题:当 RLHF 也不够用了怎么办
在更深一层,OpenAI 其实承认了一件事:我们目前对齐模型的核心工具(比如 RLHF),可能不足以应对真正的超强系统。
这也是为什么他们把这项工作与 Superalignment、与微软的联合部署安全委员会放在一起谈。问题不只是‘如何防止坏用’,而是‘当系统能力超过人类理解范围时,我们还能不能验证它是安全的’。
因此,AI Preparedness Challenge 的意义也不只是发钱和 API credits,而是向外界征集:你能不能帮我们想象那些我们自己还没意识到的灾难路径。对一家前沿模型公司来说,这是相当罕见的姿态。
总结
如果你是 AI 从业者,这件事至少释放了三个信号。第一,前沿模型已经被默认纳入“国家级风险”讨论,你做的系统未来可能不只接受产品审核。第二,安全能力正在从“加分项”变成“入场券”,不会设计评估和防护的人,竞争力会下降。第三,行业正在形成一个早期妥协:在继续加速的同时,先搭一个不完美但真实存在的刹车系统。
一个值得思考的问题是:当 OpenAI、政府和联合国都在同步谈风险时,下一轮真正的分化,会发生在“谁有资格继续推进能力”上吗?
关键词: OpenAI, AI安全, 通用人工智能, 灾难级风险, AI治理
事实核查备注: 需要核查:1)OpenAI 博客《Frontier Risk and Preparedness》的发布时间与措辞;2)Sam Altman 关于“superhuman persuasion”的原话语境;3)英国 AI Safety Summit 的时间与参会国家;4)AI Preparedness Challenge 的资金与参与方式;5)联合国 39 人 AI 咨询机构的职能范围