OpenAI悄悄划了5条线:AGI其实已经逼近第二级
OpenAI在一次内部全员会议上,首次公开了一套“AGI分级系统”。更炸的是:他们认为自己正站在从聊天机器人迈向“人类级推理”的门槛上。这不仅重塑了我们理解AGI进度的方式,也暴露了OpenAI对风险、权力与监管的真实判断。
OpenAI在一次内部全员会议上,首次公开了一套“AGI分级系统”。更炸的是:他们认为自己正站在从聊天机器人迈向“人类级推理”的门槛上。这不仅重塑了我们理解AGI进度的方式,也暴露了OpenAI对风险、权力与监管的真实判断。
消失半年后,OpenAI 前首席科学家 Ilya Sutskever 终于现身——不是回归大厂,而是亲手创立一家“只做一件事”的公司:安全超级智能。没有产品、没有收入、没有妥协,这不是常规创业,而是一场对整个 AI 产业逻辑的挑战。
如果你在一家顶级AI实验室工作,发现系统可能失控,你敢不敢说?一封由OpenAI、DeepMind、Anthropic前员工联名的公开信,把“AGI风险”“封口协议”“举报权利”推到台前,也暴露出AI安全讨论正在发生的微妙转向。
一份看似主流的Time榜单,却意外暴露了AI世界的真实权力结构:不是谁模型最强,而是谁代表了“未来该往哪走”。从Anthropic的安全叙事,到NVIDIA的算力统治,再到Mistral的开源宣言,这份榜单比你想象得更有料。
“董事会竟然是从 Twitter 上才知道 ChatGPT 的?”这句话引爆了整个科技圈。但如果你只记住了这个,你就错过了更重要的信号:OpenAI 的权力结构、AI 安全的真实处境,以及生成式 AI 正在被如何重新定义。
我们每天都在用的大模型,其实连创造它们的人都说不清“为什么会这样回答”。Anthropic 刚刚公布的一项研究,第一次在 Claude 3 Sonnet 里找到了数百万个可识别、可操纵的“概念特征”,这可能是理解、控制乃至治理 LLM 的真正起点。
Snapchat宣布每年砸15亿美元做AI,看起来像是巨头跟风,实际上却暴露了一个更残酷的现实:AI正在重塑商业模式、广告逻辑,甚至撕裂整个行业的价值观。从Snap到字节、从英国政府到OpenAI内部,这不是几条新闻,而是一场正在加速的分化。
所有人都在等 OpenAI 放大招,但它却选择了“慢下来”。搜索产品疑似已潜行上线,神秘 GPT-2 聊天机器人反复出现又消失,发布会被推迟,同时 OpenAI密集抛出一系列“规则、边界与检测工具”。这不是没货,而是一次耐人寻味的战略转向。
10年前,他警告全世界:AI 可能毁灭人类;10年后,他却反问:如果 AI 把一切都“修好了”,人类还剩下什么?Nick Bostrom 的新书《Deep Utopia》,不是乐观宣言,而是一枚扔进 AI 圈的思想炸弹。
就在起诉 OpenAI 的同时,Elon Musk 扔出一颗更大的炸弹:xAI 将在本周把 Grok 开源。这一决定表面上是“理想主义回归”,但放在 AI 训练成本、资本博弈和安全争论的背景下,它更像是一场精心计算的战略反击。