François Chollet:为何深度学习仍未触及真正的智能
在这期 Lex Fridman 播客中,Keras 作者 François Chollet 直面一个尖锐问题:今天的深度学习模型,究竟是在“理解”,还是在“记忆”?他从语言、视觉、数据规模与泛化能力出发,系统阐述了自己对智能本质的定义,以及为何 ARC 基准测试被设计成反主流的存在。
在这期 Lex Fridman 播客中,Keras 作者 François Chollet 直面一个尖锐问题:今天的深度学习模型,究竟是在“理解”,还是在“记忆”?他从语言、视觉、数据规模与泛化能力出发,系统阐述了自己对智能本质的定义,以及为何 ARC 基准测试被设计成反主流的存在。
Lex Fridman 通过 TensorFlow Playground 的可视化实验,展示了神经网络在不同结构与超参数下,如何逐步学会(或学不会)复杂数据分布。短短几分钟的视频,揭示了模型容量、特征工程与直觉理解之间的深刻联系。
很多人以为,大语言模型只是靠“统计词频”在蒙答案。但在这场OpenAI Scholars Demo Day的演讲里,一位刚入行5个月的研究者,直接把GPT-2拆开,追问一个刺痛行业的问题:语法,究竟藏在模型的哪一层?答案,比你想象得更反直觉。
强化学习最怕什么?不是算力不够,也不是模型不深,而是奖励来得太晚。Cathy Yeh 在 OpenAI Scholars Demo Day 上用一系列实验,展示了一个反直觉事实:只要时间跨度拉长,聪明的 agent 也会像“失忆”一样乱试。这场分享的核心,是她如何用 Temporal Reward Transport(TRT)正面解决这个老大难问题。
直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。
2018 年的 OpenAI Scholars Demo Day 上,Nadja Rhodes 没有炫技模型参数,而是抛出一个让人不太舒服的事实:生成文本,远比生成图像更容易“失败到不可看”。她的项目 Deephypebot,不只是一个音乐评论机器人,而是一场关于“如何让语言模型不再胡说八道”的实验。
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
这是一场关于通用人工智能(AGI)的长期思考者自述。Ben Goertzel回顾了科幻、人生经历、神经网络与现实技术的碰撞,解释他为何认为AGI并非遥远幻想,而是正在逼近的人类转折点。
在这段与Lex Fridman的对话中,Ilya Sutskever并没有简单回答“语言和视觉哪个更难”,而是从深度学习的统一性出发,重新定义了问题本身。他分享了对计算机视觉、自然语言处理和强化学习之间关系的深刻判断,以及未来AI可能走向“单一架构”的大胆预期。
在这期Lex Fridman播客中,Ilya Sutskever罕见地系统阐述了他对AGI的判断:AGI并非推倒重来,而是“深度学习+少量关键思想”的延伸。其中,自我博弈、模拟到现实迁移、以及“愿意被人类控制的AI”构成了他理解通用智能的核心路径。