用数学梗聊宇宙:3Blue1Brown眼中的学习、规模与大众理解
这是一场看似轻松的“数学梗图评测”,却意外暴露了数学家如何看待学习、机器学习规模效应,以及大众对数学的真实渴望。Grant Sanderson用幽默拆解了数学教育的难题,也给出了关于科学传播的罕见洞见。
这是一场看似轻松的“数学梗图评测”,却意外暴露了数学家如何看待学习、机器学习规模效应,以及大众对数学的真实渴望。Grant Sanderson用幽默拆解了数学教育的难题,也给出了关于科学传播的罕见洞见。
Lex Fridman 通过 TensorFlow Playground 的可视化实验,展示了神经网络在不同结构与超参数下,如何逐步学会(或学不会)复杂数据分布。短短几分钟的视频,揭示了模型容量、特征工程与直觉理解之间的深刻联系。
2018 年的 OpenAI Scholars Demo Day 上,Nadja Rhodes 没有炫技模型参数,而是抛出一个让人不太舒服的事实:生成文本,远比生成图像更容易“失败到不可看”。她的项目 Deephypebot,不只是一个音乐评论机器人,而是一场关于“如何让语言模型不再胡说八道”的实验。
在这段与Lex Fridman的对话中,Karl Friston从一个看似哲学的问题出发——“什么叫存在”——引出了自由能原理、生命的非随机性,以及机器学习为何忽略了行动与身体。本文带你理解:为什么‘活着本身就是一种优化过程’,以及这对AI和意识研究意味着什么。
这是一篇来自一线参与者的反思:作为Sophia机器人前首席科学家,Ben Goertzel讲述了理想中的通用人工智能,如何在真实世界的硬件、算法与人性交汇处不断“碰壁”。比技术路线之争更重要的,是他对AGI伦理、情感机器人与现实工程限制的清醒认知。
AGI这个如今被反复讨论的词,并非一次宏大的理论发明,而是一次略带妥协的命名选择。Ben Goertzel回顾了AGI一词的诞生过程,从一本书的标题争论,到DeepMind创始人、AIXI理论和对“智能”本身的怀疑,揭示了AGI背后被忽略的历史与思想张力。
Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。
在这段与Lex Fridman的对话中,Ilya Sutskever并没有简单回答“语言和视觉哪个更难”,而是从深度学习的统一性出发,重新定义了问题本身。他分享了对计算机视觉、自然语言处理和强化学习之间关系的深刻判断,以及未来AI可能走向“单一架构”的大胆预期。
这是一场关于机器学习如何真正改变生物医学的深度对话。Daphne Koller结合学术、创业与教育三重经历,讨论了疾病机理、健康寿命、数据到洞见的转化,以及技术力量背后的价值判断。
在这期Lex Fridman播客中,Jack Dorsey从Square的使命谈到开源文化,再延伸到人工智能的未来。他反复强调“简单”和“透明”不是口号,而是支撑技术规模化与长期创新的核心原则。