Sora 不只是视频生成:OpenAI 正在偷偷训练一个“世界模拟器”
大多数人还在讨论 Sora 会不会颠覆影视行业,但 OpenAI 的研究论文里,其实藏着一个更大的野心:视频生成只是表象,真正的目标是训练一个能“理解并模拟物理世界”的模型。这篇文章带你拆解 Sora 背后的关键技术路线,以及它为什么会让 AI 从业者坐立不安。
大多数人还在讨论 Sora 会不会颠覆影视行业,但 OpenAI 的研究论文里,其实藏着一个更大的野心:视频生成只是表象,真正的目标是训练一个能“理解并模拟物理世界”的模型。这篇文章带你拆解 Sora 背后的关键技术路线,以及它为什么会让 AI 从业者坐立不安。
就在外界还在讨论亚马逊为何豪掷40亿美元押注 Anthropic 时,一条更猛的消息传出:亚马逊正在秘密训练一款代号 Olympus 的自研大模型,参数规模可能是 GPT-4 的两倍。这不仅是一场参数竞赛,更是 AWS、Bedrock、Alexa 以及整个生成式 AI 格局的关键转折点。
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
当所有人都盯着ChatGPT和Copilot时,亚马逊在秋季硬件发布会上做了一件更激进的事:让Alexa彻底重生。从“指令机器”变成真正会理解你家的AI,这一步,可能比你想的更危险,也更值钱。
如果这是一份“最强工程师名单”,它会完全不一样。Time 的 AI 100 刻意把研究员、艺术家、监管者、投资人混在一起,真正想说的不是“谁最会做模型”,而是:AI 正在如何重塑权力、文化与风险版图。
Sam Altman 亲自“泼冷水”:OpenAI 首届开发者大会,不会发布 GPT-5,也没有 4.5。但这场看似克制的发布,反而让整个 AI 圈更兴奋——因为真正的信号,根本不在模型本身。
字节跳动一年买走的英伟达GPU,超过整个中国去年总量;而在华盛顿,AI已经被直接等同为国家安全。真正值得警惕的,可能既不是芯片,也不是模型参数,而是我们正在用什么叙事理解这场AI竞赛。
如果你只记住这一周AI新闻的一件事,那应该是这个强烈反差:上午,人们还在用“拖拽”方式随意拉动狮子的脸;下午,Sam Altman 就坐在国会里,认真讨论“谁有资格训练最强的AI”。工具在狂奔,规则在逼近。
如果你以为“AI很危险”只是媒体渲染,那这条消息会让你坐直身体——两位图灵奖得主公开警告AI失控,而第三位却说:没那么严重。同一届最高荣誉的三位大师,站在了AI未来的两端。
好莱坞编剧的罢工,并不只是为了工资,而是一次正面阻击AI写作的行业行动。他们害怕的不是AI不够好,而是它“够用”。这场冲突,正在提前上演所有知识工作者即将面对的现实。