Sam Altman 在 DevDay 说清楚了:未来不是更大的模型,而是会“想”的模型
在这场 DevDay 的 AMA 里,Sam Altman 抛出了一个足以改写 AI 创业和投资逻辑的判断:模型规模不再是核心变量,真正的分水岭是“推理能力”。从 o1、Agent、开源,到创业者会不会被 OpenAI 碾压,他几乎把未来 5 年的底牌摊在了桌面上。
在这场 DevDay 的 AMA 里,Sam Altman 抛出了一个足以改写 AI 创业和投资逻辑的判断:模型规模不再是核心变量,真正的分水岭是“推理能力”。从 o1、Agent、开源,到创业者会不会被 OpenAI 碾压,他几乎把未来 5 年的底牌摊在了桌面上。
在 OpenAI DevDay 的一个并不起眼的社区演讲里,Dust 展示了一件让很多数据团队“后背一凉”的事:不用写 SQL、不用建 Dashboard,只靠一句自然语言,就能跨 Snowflake、Google Sheet、CSV 做复杂分析和可视化。这不是玩具 Demo,而是一整套已经跑在真实业务里的“自然语言 BI”。
在OpenAI DevDay的舞台上,Genmab抛出了一个让所有AI从业者竖起耳朵的说法:不是99%,而是100%准确率,AI才能真正进入临床试验核心流程。他们展示的不是Demo,而是一套已经把“小时级工作压缩到分钟级”的AI Agent框架。
在OpenAI DevDay的舞台上,Vercel的AI负责人抛出一个刺耳却真实的判断:未来最重要的软件,可能不再是“给开发者写的”。v0展示的不是又一个玩具Demo,而是一条正在成型的生产力路线。
在 OpenAI DevDay 的聚光灯下,Cosine 展示了一个反直觉结论:真正能落地的 AI Agent,不是更大的模型,而是更会“自己练”的模型。Genie 作为全自动 AI 工程师,靠推理 + 自博弈,把工程任务变成了可规模化的能力。
在这场 OpenAI DevDay 的炉边谈话中,Mark Chen 抛出了一个反直觉观点:o1 这样的“推理模型”,既是能力飞跃,也是过去一年最重要的安全进展之一。从 AGI 的真实边界,到新加坡为何被 OpenAI 视为 AI 高地,这是一场只讲内部认知、不讲公关套话的对话。
在 OpenAI DevDay 的社区舞台上,Sana AI 抛出了一个反直觉结论:企业级 AI Agent 失败的真正原因,往往不是模型能力不够,而是工具调用顺序错了。这场分享不仅有真实产品 Demo,还给出了一套可复用的 Agent 设计方法论。
在 OpenAI DevDay 的舞台上,Genmab 抛出了一个让全场安静下来的观点:在临床试验里,99% 的准确率等于失败。他们展示了一套名为 CELI 的 AI Agent 框架,如何把原本需要数小时的人类专业工作,压缩到几分钟完成,而且目标只有一个——100% 可用于监管提交。
如果AI Agent不是帮你跑5分钟任务,而是能连续“活”上一周,会发生什么?在OpenAI DevDay上,Altera给出了一个让全场安静的答案:AI会自发形成宗教、经济、协作与长期目标。这不是科幻,而是一次对Agent致命缺陷的正面挑战。
在 OpenAI DevDay 的舞台上,Sierra 抛出一个让所有 AI Agent 团队不太舒服的事实:你的智能体“看起来能跑”,并不等于“真的可靠”。TAU-bench 用一种近乎残酷的方式证明——只跑一次评测,几乎毫无意义。