谷歌终于亮出底牌:Gemini Ultra 正式对标 GPT‑4,AI 格局变了
谷歌亲手“杀死”了 Bard,把全部筹码压在 Gemini 上,并首次放出真正能与 GPT‑4 同级的模型 Ultra 1.0。这不只是一次产品升级,而是谷歌在 AI 战场上的一次自我救赎:一场迟到一年、却必须打赢的战争。
谷歌亲手“杀死”了 Bard,把全部筹码压在 Gemini 上,并首次放出真正能与 GPT‑4 同级的模型 Ultra 1.0。这不只是一次产品升级,而是谷歌在 AI 战场上的一次自我救赎:一场迟到一年、却必须打赢的战争。
一个AI模仿的“拜登”电话,正在把美国大选拖进未知水域;与此同时,OpenAI首次出手封禁竞选机器人开发者。两件事连在一起,揭开了AI选举乱局的真正风险。
当大厂纷纷把最强模型锁进黑箱,扎克伯格却公开宣称:Meta 的目标是“开源 AGI”。更激进的是,这不是口号,而是一场组织、算力和产品重心的全面重排。这期视频透露的信号,远比一句“我们也做 AGI”更危险。
当所有人都在担心 AGI 会不会“毁灭世界”,Sam Altman 却在达沃斯说了一句反直觉的话:它来的不远,但影响可能没你想的大。这不是降温,而是 OpenAI 对现实的重新判断。
这期《No Priors》年度精选,把2023年最重要的AI对话串联在一起:从OpenAI的非营利初心,到DeepMind与创业者的现实反思,再到模型与算力的根本问题。本文提炼其中最有价值的洞见与故事,帮助你快速理解这一年AI思考方式的变化。
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
Sam Altman 刚经历“被罢免又回归”的董事会风波,OpenAI 就抛出了一套前所未有的安全准备框架。更激进的是:一旦模型风险降不下来,哪怕算力已经砸下去,也可能直接停掉。这不是公关,而是一套会真正影响模型生死的内部机制。
Sam Altman没拿到TIME年度人物,却成了“CEO of the Year”。比头衔更重要的,是他被解雇又火速复职的那几天,意外撕开了生成式AI时代最隐秘的矛盾:安全与速度、使命与权力、理想主义与商业现实。
一边是“GPT‑4.5最快本周到来”的小道消息在X平台疯传,另一边却是美国民意对AGI、开源模型和加速主义的明显降温。这期视频把两股看似无关的力量放在一起,揭示了AI从业者必须正视的真正变量:不是模型迭代,而是社会态度。
Sam Altman 被突然解雇又迅速回归,表面看是治理失败,背后却牵出一条更耐人寻味的线索:一次可能触及“推理能力”的 AI 突破、研究员写给董事会的警告信,以及公司内部对安全与商业化节奏的深度分裂。这不是八卦,而是一次罕见暴露的 AGI 前夜冲突。