OpenAI 研究负责人亲口说:真正让 AI 更安全的,不是限制,而是让它“多想一会儿”
正在加载视频...
视频章节
在这场 OpenAI DevDay 的炉边谈话中,Mark Chen 抛出了一个反直觉观点:o1 这样的“推理模型”,既是能力飞跃,也是过去一年最重要的安全进展之一。从 AGI 的真实边界,到新加坡为何被 OpenAI 视为 AI 高地,这是一场只讲内部认知、不讲公关套话的对话。
OpenAI 研究负责人亲口说:真正让 AI 更安全的,不是限制,而是让它“多想一会儿”
在这场 OpenAI DevDay 的炉边谈话中,Mark Chen 抛出了一个反直觉观点:o1 这样的“推理模型”,既是能力飞跃,也是过去一年最重要的安全进展之一。从 AGI 的真实边界,到新加坡为何被 OpenAI 视为 AI 高地,这是一场只讲内部认知、不讲公关套话的对话。
真正让人震惊的不是 AGI 有多近,而是它已经在“产生价值”
当被问到“我们离 AGI 还有多远”时,Mark Chen 并没有给出时间表,而是直接换了一种坐标系。他把问题从哲学,拉回到经济现实。
他的核心判断是:如果你从“是否创造真实经济价值”这个角度看,AI 已经越过了某种 AGI 门槛。OpenAI 的产品已经在为真实用户、真实公司创造数十亿美元级别的价值,而两年前,模型还在为小学数学题挣扎。
这个对比非常刺眼:两年前,研究前沿是 grade-school math;今天,前沿已经变成“最难的博士级问题”。这不是渐进式改进,而是研究对象的整体迁移。
这也解释了为什么 OpenAI 内部对 AGI 的讨论,越来越少纠结于定义本身,而是聚焦在:模型是否具备通用任务迁移能力、是否能在新问题上稳定地产生价值。AGI 在他们眼中,已经不是一个“开关”,而是一条正在被快速推进的曲线。
o1:一次被低估的“安全升级”,而不只是能力升级
如果说整场对话中最反直觉的观点,非这句莫属:Mark Chen 认为,o1 是过去一年 OpenAI 最大的安全进展之一。
乍一听很奇怪。o1 被外界更多视为“更强的推理模型”,是能力的飞跃,怎么会和安全扯上关系?
他的解释非常关键。旧一代模型的工作方式是“立即反应”:prompt 进来,答案立刻出来。这种即时性,恰恰让它们更容易被 jailbreak。而引入 reasoning 之后,模型获得了一段“思考时间”。
在这段时间里,模型不只是算题,而是在反思:这个请求是否试图让我做不该做的事?是否违反了我的行为约束?
这意味着,推理并不是单纯为了让模型更聪明,而是让它在行动前有能力进行自我审视。某种意义上,这是把“安全判断”内嵌进了模型的认知过程,而不是外挂一层规则。
这也是为什么 OpenAI 内部并不简单地把 o1 归类为 capabilities improvement——它改变的是模型面对世界时的“心理结构”。
从 Level 1 到 Level 5:OpenAI 眼中的 AGI 路线图
在谈到未来时,Mark 提到了 OpenAI 最近提出的一套 AGI 分级框架。这不是营销概念,而是一种内部共识的外化。
Level 1,是今天我们熟悉的基础推理模型;
Level 2-3,开始出现 agentic behavior,模型不只是回答问题,而是能规划、分解任务;
再往上,模型开始“采取行动”,与真实世界交互;
最终,是高度自主的系统。
这个路线图里,最重要的变化不在算力,而在“行动能力”。AI 从工具,变成执行者。
这也解释了为什么 OpenAI 同时在推理、agent、以及安全上重仓投入——因为一旦模型开始行动,安全不再是输出文本的问题,而是现实世界后果的问题。
AGI 的风险,不是在它会不会说错话,而是在它会不会做错事。
为什么 OpenAI 对新加坡如此看重?答案是“技术深度”
这场对话发生在新加坡,而两位嘉宾都不约而同强调了同一个点:这里的技术深度。
Mark 分享了一个细节:他曾在新加坡给前总理做过 coding demo,结果发现对方不仅听得懂,还真的自己写过代码。更夸张的是,这种情况并不是个例——在政府、监管机构、企业中,他反复遇到“真正懂技术细节”的决策者。
Olivier Godement 也补充了一个当天的经历:他原本准备和监管机构高层聊宏观的 AI 治理,结果会议一开始,对方直接从 reinforcement learning 讲起。
这对 OpenAI 意味着什么?意味着这里不是只会“用 AI”,而是有能力和模型开发者进行同一语言层级的对话。这种土壤,对下一阶段的 AI 落地至关重要。
研究、探索与短期回报:OpenAI 仍然在押长期赌注
面对“OpenAI 是否还像早期一样重视研究和安全”的质疑,Mark 的回答非常直接:100%。
作为研究负责人,他每天都在做一件事:在探索性研究和短期产品回报之间分配资源。o1 本身,就是两年多前启动的一个“长期探索性赌注”。
而现在,这个赌注不仅兑现了能力红利,还带来了安全层面的结构性改善。
这也解释了为什么 OpenAI 并没有把所有资源都压在微调或应用层优化上。对他们来说,真正的护城河,仍然在模型认知结构本身。
总结
这场炉边谈话透露出一个清晰信号:AI 的下一次飞跃,不只是更大模型,而是更“会思考”的模型。推理能力正在成为能力、安全、Agent 化的共同底座。对从业者来说,单纯堆 prompt、堆微调的时代正在过去,理解模型如何思考、如何做决策,才是新的核心竞争力。一个值得你带走的问题是:如果模型真的开始“多想一会儿”,你的产品和工作流,是否已经为这种 AI 形态做好了准备?
关键词: OpenAI, o1 推理模型, AGI 路线图, AI 安全, Agent 系统
事实核查备注: 需要核查:1)Mark Chen 的正式职务是否为 OpenAI 研究负责人;2)o1 发布时间及其被定位为推理模型与安全改进的官方表述;3)OpenAI AGI 分级框架的具体发布时间;4)关于新加坡前总理会写代码的原始表述语境。