从参数狂飙到“思考算力”:Scaling Laws如何改写AI进化路线
这篇文章还原了YC Decoded对“Scaling Laws”的完整叙事:从GPT-2到GPT-3确立规模定律,从Chinchilla纠偏“只堆参数”的误区,再到OpenAI用推理模型与测试时算力开启新一轮扩展路径。你将理解:为什么AI并未撞墙,而是正在换一条更陡峭的增长曲线。
这篇文章还原了YC Decoded对“Scaling Laws”的完整叙事:从GPT-2到GPT-3确立规模定律,从Chinchilla纠偏“只堆参数”的误区,再到OpenAI用推理模型与测试时算力开启新一轮扩展路径。你将理解:为什么AI并未撞墙,而是正在换一条更陡峭的增长曲线。
在这期 Sequoia AI Ascent 的访谈中,Kumo AI 联合创始人兼工程负责人 Hema Raghavan 讲述了一个核心命题:为什么几乎所有企业天生都拥有“图”,却很少真正从图神经网络中获得 ROI。她分享了 Kumo 的产品哲学——让复杂的图学习对业务透明,同时又为资深数据科学家保留“掀开引擎盖”的自由。
在这期《The Lightcone》新年特辑中,Y Combinator合伙人抛出了对2025年的一组大胆预测:AI可能再夺诺奖、稳定币走向日常支付、宏观利率左右加密市场,以及“可视频对话”的真人感AI即将出现。这不是技术清单,而是一幅正在成形的未来图景。
如果AI Agent不是帮你跑5分钟任务,而是能连续“活”上一周,会发生什么?在OpenAI DevDay上,Altera给出了一个让全场安静的答案:AI会自发形成宗教、经济、协作与长期目标。这不是科幻,而是一次对Agent致命缺陷的正面挑战。
围绕OpenAI、Google等前沿实验室的最新动向,一场关于“AI是否正在放缓”的争论正在发酵。这并非技术停滞,而是一次深刻的路径转向:从无限扩展预训练算力,走向以推理和测试时计算为核心的新范式。
当大多数人还在争论“AI 会不会取代艺术家”时,Refik Anadol 已经让一台神经网络走进 MoMA,并被永久收藏。他在 Figma Config 2024 的演讲,给所有 AI 从业者抛出一个更尖锐的问题:如果数据本身就是记忆,模型是否也在参与人类文化?
在Figma Config 2024,李飞飞用一段“没有眼睛的远古海洋”开场,讲清了一个被严重低估的事实:过去十年AI最大的瓶颈,不是模型不够大,而是只会看、不会动。这场演讲,实际上是在给下一代AI定方向。
如果你在一家顶级AI实验室工作,发现系统可能失控,你敢不敢说?一封由OpenAI、DeepMind、Anthropic前员工联名的公开信,把“AGI风险”“封口协议”“举报权利”推到台前,也暴露出AI安全讨论正在发生的微妙转向。
我们每天都在用的大模型,其实连创造它们的人都说不清“为什么会这样回答”。Anthropic 刚刚公布的一项研究,第一次在 Claude 3 Sonnet 里找到了数百万个可识别、可操纵的“概念特征”,这可能是理解、控制乃至治理 LLM 的真正起点。
这是红杉资本在 AI Ascent 2024 开场演讲中,对生成式 AI 机会的一次系统性定调:为什么是现在、机会有多大、真正的难题在哪里,以及哪些变化正在悄然发生。即使你没看过视频,也能从中理解红杉为何认为:人类正站在史无前例的价值创造前夜。