OpenAI o1 发布:它不是更快的 GPT,而是第一次“真的会想”
OpenAI 刚刚发布了 o1,一个会在回答前“思考 10–20 秒”的模型。它不追求秒回,而是用推理碾压复杂问题:数学、代码、科研、法律。更重要的是,这可能意味着大模型 scaling 的游戏规则,正在被彻底改写。
OpenAI 刚刚发布了 o1,一个会在回答前“思考 10–20 秒”的模型。它不追求秒回,而是用推理碾压复杂问题:数学、代码、科研、法律。更重要的是,这可能意味着大模型 scaling 的游戏规则,正在被彻底改写。
短短一年内,OpenAI 接连失去三位重量级高管:消费产品负责人突然离场,总裁兼联创休假,核心研究联创转投 Anthropic。这不是普通的人事变动,而是一连串足以动摇行业信心的信号。
如果你以为大模型的竞争只是算力和算法,那你低估了真正的战场。GPT-4、Bard们的核心燃料,正在把OpenAI、Google、Meta推向同一个法律与伦理灰色地带,而且这不是失误,是战略选择。
这期播客围绕“UX for AI”展开,讨论了为什么AI产品不能只由工程师驱动,而必须回到以人为中心的设计。嘉宾结合个人经历,提出AI应首先减少无意义的工作负担,并警告忽视用户体验将带来巨大的社会风险。
马斯克起诉OpenAI,指控其背叛“开放使命”。但OpenAI直接放出了邮件证据:转向营利不是背叛,而是马斯克亲自推动的方案之一,甚至包括并入特斯拉。这场纷争,远不只是“开不开源”那么简单。
如果你还在争论“AI到底聪不聪明”,那你可能已经落后了一步。OpenAI前核心研究员Andrej Karpathy抛出一个看似温和、实则锋利的提议:别再叫AI了,叫“智能增强”。这不是语义洁癖,而是一场关于AI定位、风险和未来走向的关键转向。
如果你以为“更强的 AI 只能由更聪明的人来管”,那 OpenAI 刚刚发表的这篇论文,可能会让你皱眉。超级对齐团队的第一个研究结论很反直觉:一个几乎“很笨”的模型,居然能教会 GPT-4 更好地完成任务。这不是噱头,而是 OpenAI 对齐路线的一次重大转向。
Sam Altman没拿到TIME年度人物,却成了“CEO of the Year”。比头衔更重要的,是他被解雇又火速复职的那几天,意外撕开了生成式AI时代最隐秘的矛盾:安全与速度、使命与权力、理想主义与商业现实。
一条推特把整个AI圈点燃:阿里的开源模型Qwen在部分基准上“击败GPT-4”。但真正重要的不是跑分,而是开源大模型、中国力量回归、芯片封锁、云巨头布局,正在同时发生。AI权力结构,正在悄悄重写。
Sam Altman 被突然解雇又迅速回归,表面看是治理失败,背后却牵出一条更耐人寻味的线索:一次可能触及“推理能力”的 AI 突破、研究员写给董事会的警告信,以及公司内部对安全与商业化节奏的深度分裂。这不是八卦,而是一次罕见暴露的 AGI 前夜冲突。