前OpenAI员工集体发声:AGI风险,比失去期权更可怕
如果你在一家顶级AI实验室工作,发现系统可能失控,你敢不敢说?一封由OpenAI、DeepMind、Anthropic前员工联名的公开信,把“AGI风险”“封口协议”“举报权利”推到台前,也暴露出AI安全讨论正在发生的微妙转向。
如果你在一家顶级AI实验室工作,发现系统可能失控,你敢不敢说?一封由OpenAI、DeepMind、Anthropic前员工联名的公开信,把“AGI风险”“封口协议”“举报权利”推到台前,也暴露出AI安全讨论正在发生的微妙转向。
一份看似主流的Time榜单,却意外暴露了AI世界的真实权力结构:不是谁模型最强,而是谁代表了“未来该往哪走”。从Anthropic的安全叙事,到NVIDIA的算力统治,再到Mistral的开源宣言,这份榜单比你想象得更有料。
“董事会竟然是从 Twitter 上才知道 ChatGPT 的?”这句话引爆了整个科技圈。但如果你只记住了这个,你就错过了更重要的信号:OpenAI 的权力结构、AI 安全的真实处境,以及生成式 AI 正在被如何重新定义。
一家公司营收同比暴涨三倍、利润翻七倍、股价站上1000美元,这本身已经够夸张。但更狠的是,黄仁勋在财报背后,悄悄把整个 AI 行业的“节奏表”改了:芯片一年一更、客户不只云厂商、AI 正在变成地缘政治筹码。
我们每天都在用的大模型,其实连创造它们的人都说不清“为什么会这样回答”。Anthropic 刚刚公布的一项研究,第一次在 Claude 3 Sonnet 里找到了数百万个可识别、可操纵的“概念特征”,这可能是理解、控制乃至治理 LLM 的真正起点。
当所有公司都在高喊“我们接入了大模型”,Stripe却在一场看似低调的分享中,给出了完全不同的答案:真正决定AI能不能落地的,不是模型能力,而是你有没有把它驯化进金融级基础设施。这场分享,透露了Stripe内部如何用Transformer、RAG和安全机制,把AI变成“可用、敢用、长期用”的生产力。
Snapchat宣布每年砸15亿美元做AI,看起来像是巨头跟风,实际上却暴露了一个更残酷的现实:AI正在重塑商业模式、广告逻辑,甚至撕裂整个行业的价值观。从Snap到字节、从英国政府到OpenAI内部,这不是几条新闻,而是一场正在加速的分化。
就在GPT-4o刷屏、Copilot PC登场的同一天,OpenAI却被一场“声音像不像斯嘉丽·约翰逊”的争议抢走了所有风头。这不是八卦,而是一次足以影响语音AI、创作者关系与行业信任的关键事件。
OpenAI联合创始人、首席科学家Ilya Sutskever正式离职。这不是一次普通的高管变动,而是一次可能改变AGI叙事走向的信号。视频揭示的重点不在“他走了”,而在“他为什么此刻走、这意味着什么,以及谁会为此紧张”。
美国参议院刚发布的AI路线图,本该是共识,却意外点燃了怒火。它几乎不谈“失控的AI未来”,而是高调宣示:美国要赢,而且要现在就赢。这份被称为“为创新而生”的路线图,为什么会同时被骂“没远见”,又被夸“终于清醒了”?