Waymo科学家谈自动驾驶:如何驯服真正致命的“长尾问题”
Waymo首席科学家Drago Anguelov在MIT的演讲,罕见系统性地讲清了自动驾驶为何难、难在哪,以及Waymo如何用感知、预测、规划与大规模仿真去“驯服长尾事件”。这不仅是一场技术报告,更是一套可落地的方法论。
Waymo首席科学家Drago Anguelov在MIT的演讲,罕见系统性地讲清了自动驾驶为何难、难在哪,以及Waymo如何用感知、预测、规划与大规模仿真去“驯服长尾事件”。这不仅是一场技术报告,更是一套可落地的方法论。
Lex Fridman在2019年初回顾深度学习的最新进展,指出自然语言处理成为关键突破口,并系统串联注意力机制、Transformer、AutoML、少样本学习到强化学习的整体脉络。这是一份理解现代AI如何走向通用能力的路线图。
这是一堂关于深度学习的入门课,却远不止介绍模型和代码。Lex Fridman从数据、算力、社区与历史周期出发,解释为什么深度学习在今天爆发,又为什么它仍然充满局限。这篇文章提炼了演讲中最具洞见的观点、案例与警示。
在这期Lex Fridman的播客中,统计学习理论奠基人Vladimir Vapnik系统阐述了他对机器学习、智能与数学本质的思考。他不仅回顾了VC维与SVM的思想源头,更直言批评深度学习的直觉主义倾向,提出“谓词”和“不变性”才是通向真正智能的钥匙。
在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。
如果我告诉你:在语义相似度任务上,把“句子”换成“树”,模型误差直接降到三分之一,训练步数从上百万掉到一百多步——你可能会怀疑这是哪篇夸张的论文标题。但这不是论文,是 2018 年 OpenAI Scholars Demo Day 的真实实验结果。
如果你以为生成模型的效率问题只能靠“堆更多层”,那这场 2018 年的 OpenAI 分享会会直接打脸。Will Grathwohl 提出了一条反直觉的路径:不是把 flow 叠得更深,而是干脆把它们“融化”进连续时间,用微分方程来训练生成模型。
当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。
在MIT的AGI课程中,Stephen Wolfram用自己数十年的研究与Wolfram Alpha的实践,讲述了一条不同于主流深度学习的通用人工智能路径:以符号计算为核心,结合现实世界知识与计算模型,构建一种更可解释、也更像“外星智能”的AI。
Waymo感知工程负责人Sacha Arnoud回顾近十年自动驾驶研发,分享为什么“90%完成度”才是真正困难的开始,以及Waymo如何通过感知、预测和大规模测试,把机器学习变成可量产的工程系统。