OpenAI o1 发布:它不是更快的 GPT,而是第一次“真的会想”
OpenAI 刚刚发布了 o1,一个会在回答前“思考 10–20 秒”的模型。它不追求秒回,而是用推理碾压复杂问题:数学、代码、科研、法律。更重要的是,这可能意味着大模型 scaling 的游戏规则,正在被彻底改写。
OpenAI 刚刚发布了 o1,一个会在回答前“思考 10–20 秒”的模型。它不追求秒回,而是用推理碾压复杂问题:数学、代码、科研、法律。更重要的是,这可能意味着大模型 scaling 的游戏规则,正在被彻底改写。
当所有人都在讨论模型规模时,Demis Hassabis却反复强调:真正缺的不是算力,而是“会规划、能行动、懂世界”的智能。这场对话里,他回顾了DeepMind最早没人信的年代,也罕见系统讲清了Gemini、AlphaFold和通用智能背后的同一条技术主线。
我们每天都在用的大模型,其实连创造它们的人都说不清“为什么会这样回答”。Anthropic 刚刚公布的一项研究,第一次在 Claude 3 Sonnet 里找到了数百万个可识别、可操纵的“概念特征”,这可能是理解、控制乃至治理 LLM 的真正起点。
一个被搜索引擎“缓存”的博客摘要,让整个AI圈瞬间炸锅:GPT‑4.5 Turbo 似乎已经写好发布稿。更刺激的是,在 Claude 3 被公认“实战超越 GPT‑4”之后,OpenAI 正第一次面临被追赶、甚至被反超的现实。
当SAP宣布“重组”8000个岗位、微软市值冲上3万亿美元、苹果悄悄把生成式AI塞进iPhone时,一条清晰但残酷的主线浮出水面:AI不只是工具升级,而是在重写组织结构、产品形态和个人竞争力。
如果你还在争论“AI到底聪不聪明”,那你可能已经落后了一步。OpenAI前核心研究员Andrej Karpathy抛出一个看似温和、实则锋利的提议:别再叫AI了,叫“智能增强”。这不是语义洁癖,而是一场关于AI定位、风险和未来走向的关键转向。
今年 AI 最被低估的一次突破,可能不在大模型,而在材料科学。Google DeepMind 用一个叫 GNoME 的模型,一口气预测出 220 万种全新晶体结构,其中 38 万种被认为“理论上稳定”。这不是论文数字游戏,而是可能直接改写电池、芯片、超导体研发方式的一次范式转移。
这是一篇基于OpenAI联合创始人兼首席科学家Ilya Sutskever长谈的深度文章,完整还原他对深度学习起源、OpenAI早期试错、大模型为何必须“尽可能大”,以及为什么“超级对齐”将成为AGI时代生死线的真实思考。
当所有人都在追逐更大、更封闭的模型时,Mistral 联合创始人 Arthur Mensch 却反其道而行,公开模型权重、押注开源,并直言:只有拿到权重,才真正谈得上安全与可控。这场与 Stripe 创始人 John Collison 的炉边谈话,透露了欧洲 AI 的另一种未来。
当所有人都盯着云端GPU时,Intel突然把AI塞进了笔记本。Meteor Lake、NPU、本地生成式AI、不联网也能跑模型——听起来很猛,但资本市场却并不买账。这到底是下一代计算平台的起点,还是一次精致的AI叙事?