Bengio谈深度学习:我们真正缺失的不是算力
在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。
在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。
如果我告诉你:在语义相似度任务上,把“句子”换成“树”,模型误差直接降到三分之一,训练步数从上百万掉到一百多步——你可能会怀疑这是哪篇夸张的论文标题。但这不是论文,是 2018 年 OpenAI Scholars Demo Day 的真实实验结果。
如果你以为生成模型的效率问题只能靠“堆更多层”,那这场 2018 年的 OpenAI 分享会会直接打脸。Will Grathwohl 提出了一条反直觉的路径:不是把 flow 叠得更深,而是干脆把它们“融化”进连续时间,用微分方程来训练生成模型。
当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。
在MIT的AGI课程中,Stephen Wolfram用自己数十年的研究与Wolfram Alpha的实践,讲述了一条不同于主流深度学习的通用人工智能路径:以符号计算为核心,结合现实世界知识与计算模型,构建一种更可解释、也更像“外星智能”的AI。
Waymo感知工程负责人Sacha Arnoud回顾近十年自动驾驶研发,分享为什么“90%完成度”才是真正困难的开始,以及Waymo如何通过感知、预测和大规模测试,把机器学习变成可量产的工程系统。
这是一堂来自MIT的深度学习课程实录,Lex Fridman围绕“人类感知”这一最难也最重要的AI问题,系统讲述了从数据、模型到硬件的真实挑战,以及为什么计算机视觉的核心不只是算法,而是对人的理解。
这是一堂由Lex Fridman在MIT讲授的计算机视觉导论课。文章从“机器如何看世界”这个根本问题出发,梳理深度学习为何成为现代计算机视觉的核心方法,并通过ImageNet、卷积神经网络和经典架构的演进,解释哪些问题真正困难、哪些直觉其实是错的。
这是Lex Fridman在MIT自动驾驶课程6.S094的第一讲。通过竞赛设计、真实驾驶系统和深度学习方法论,他解释了为何“数据驱动”的深度学习正在重塑自动驾驶,以及它解决了哪些传统方法难以突破的问题。
这是一堂来自MIT Sloan的机器学习导论课,也是一次关于人工智能边界的思想实验。Lex Fridman用监督学习、神经网络和真实案例,解释了机器学习为何既强大又脆弱,以及我们距离“真正的智能”还有多远。