我让 AgentGPT 开一家电商公司,结果暴露了 AI Agent 最大的幻觉
把目标丢给 AI,它真的会“自己创业”吗?这次测试里,AgentGPT 不仅没把电商跑起来,反而暴露了当前 AI Agent 最被高估的一件事:我们以为它在执行,其实它只是在“自信地描述”。
把目标丢给 AI,它真的会“自己创业”吗?这次测试里,AgentGPT 不仅没把电商跑起来,反而暴露了当前 AI Agent 最被高估的一件事:我们以为它在执行,其实它只是在“自信地描述”。
Uber 的设计系统团队做过一个看似正确、却几乎毁掉插件体验的决定:把“自动校验”做成永远开启。数据一度看起来很美,但真正让系统进化的,是他们随后做出的那个反直觉选择。这是一堂所有 AI 从业者都该听的课。
很多人以为神经网络训练不好,是架构不行、数据不够、算力太小。但 Karpathy 在 makemore 第三讲直接揭穿了一个更残酷的事实:大多数失败,发生在训练开始的第一秒——初始化、激活值和梯度,早就把结局写好了。
如果你每天刷信息流、追模型更新,却越来越难静下心做真正的深度工作,这可能不是你不够努力,而是大脑被“驯化”了。在这期播客里,Andrew Wilkinson 抛出一个反直觉的观点:想要原创思考,先要远离数字世界。
Lex Fridman 在解读 Tesla AI Day 时认为,这场发布会的震撼不在于单点技术突破,而在于首次完整展示了解决自动驾驶与通用机器人问题所需的“规模化工程全景”。从向量空间感知、多摄像头时序融合,到数据标注闭环与 Dojo 计算平台,Tesla 展示了一条难以复制的真实世界智能路线。
在这期与Lex Fridman的长谈中,神经科学家Jeff Hawkins系统阐述了“千脑理论”:智能并非来自单一中枢,而是源于大量皮层柱并行构建世界模型。本文提炼其最关键的洞见、方法论与对AI未来的判断。
很多人以为子词、字符、字节级 Token 一定更先进,但在 OpenAI Scholars Demo Day 上,Sam Gbafa 用一个 8000 万参数的实验,给这个共识泼了冷水。结果不但反直觉,还直接影响你今天怎么选 tokenizer、怎么配上下文窗口。
很多人直觉认为:只要模型够大、预训练够久,语言迁移自然水到渠成。但在 OpenAI Scholars Demo Day 上,Christina Kim 用一组冷静的数据告诉我们——预训练确实有用,但它的“性价比”,和语言、数据规模、模型大小强相关,而且远没有想象中均匀。
在计算机视觉里横扫榜单的对比学习,一搬到自然语言却问题频出。OpenAI Scholars Demo Day 上,Ellie Kitanidis 公开了一次并不“完美”的尝试:用对比学习预训练语言模型。真正的猛料不在结果,而在她暴露出的那个几乎所有语言模型都会撞上的隐形难题。
2020年,DeepMind发布AlphaFold 2,被认为解决了困扰生物学50年的蛋白质折叠难题。Lex Fridman在视频中不仅解释了技术突破本身,更从AI与生命科学交汇的角度,讨论了它为何可能成为一个“诺贝尔奖级别”的起点。