从大脑到机器:Poggio谈智能的本质与视觉学习
在这期Lex Fridman播客中,计算神经科学家Tomaso Poggio回顾了自己从童年物理兴趣出发,到研究大脑与机器智能的学术旅程。他围绕视觉系统、神经网络与学习机制,提出了关于“智能为何如此困难”的深刻洞见。
在这期Lex Fridman播客中,计算神经科学家Tomaso Poggio回顾了自己从童年物理兴趣出发,到研究大脑与机器智能的学术旅程。他围绕视觉系统、神经网络与学习机制,提出了关于“智能为何如此困难”的深刻洞见。
Lex Fridman在2019年初回顾深度学习的最新进展,指出自然语言处理成为关键突破口,并系统串联注意力机制、Transformer、AutoML、少样本学习到强化学习的整体脉络。这是一份理解现代AI如何走向通用能力的路线图。
在这期Lex Fridman的播客中,统计学习理论奠基人Vladimir Vapnik系统阐述了他对机器学习、智能与数学本质的思考。他不仅回顾了VC维与SVM的思想源头,更直言批评深度学习的直觉主义倾向,提出“谓词”和“不变性”才是通向真正智能的钥匙。
在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。
这篇文章提炼了Steven Pinker在Lex Fridman播客中关于理性、人类心智与AI安全的核心观点。他以进化与工程的视角,系统反驳了流行的AI末日论,强调概率、现实工程约束与人类设定目标的重要性。
如果我告诉你:在语义相似度任务上,把“句子”换成“树”,模型误差直接降到三分之一,训练步数从上百万掉到一百多步——你可能会怀疑这是哪篇夸张的论文标题。但这不是论文,是 2018 年 OpenAI Scholars Demo Day 的真实实验结果。
2018年,OpenAI一次实习生分享里,悄悄点破了生成式模型最残酷也最重要的真相:会“想象”的模型,反而最容易被骗。这场关于世界模型、VAE、PixelCNN和可逆流的演讲,至今仍在影响AI Agent的设计路径。
如果你以为生成模型的效率问题只能靠“堆更多层”,那这场 2018 年的 OpenAI 分享会会直接打脸。Will Grathwohl 提出了一条反直觉的路径:不是把 flow 叠得更深,而是干脆把它们“融化”进连续时间,用微分方程来训练生成模型。
当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。
MIT自动驾驶技术研究并不从算法开始,而是从数据开始。这段视频完整展示了他们如何设计一套名为Rider的数据采集系统,在真实世界中、跨越数十万辆里程,稳定地记录人类驾驶行为。它揭示了一个常被忽视却决定成败的事实:深度学习的上限,往往由数据工程决定。