从简单到心智:Jay McClelland谈神经网络如何涌现认知
在这期Lex Fridman播客中,认知科学奠基者Jay McClelland回顾了连接主义的思想源头,讨论神经网络如何从简单机制中涌现出复杂心智,并反思人类认知、发展与现代深度学习之间的连续性与断裂。
在这期Lex Fridman播客中,认知科学奠基者Jay McClelland回顾了连接主义的思想源头,讨论神经网络如何从简单机制中涌现出复杂心智,并反思人类认知、发展与现代深度学习之间的连续性与断裂。
在这期与Lex Fridman的长谈中,OpenAI联合创始人Wojciech Zaremba从费米悖论聊到神经网络,从机器人失败经验谈到人类意识与AI的边界。这不是一场技术发布,而是一位一线研究者对AI长期走向的深度自省。
Lex Fridman 在解读 Tesla AI Day 时认为,这场发布会的震撼不在于单点技术突破,而在于首次完整展示了解决自动驾驶与通用机器人问题所需的“规模化工程全景”。从向量空间感知、多摄像头时序融合,到数据标注闭环与 Dojo 计算平台,Tesla 展示了一条难以复制的真实世界智能路线。
这不是一次普通的产品发布,而是 OpenAI 当众展示:一个模型如何在一年内,从“代码准确率 0%”,进化到能写服务器、接 API、做小游戏。更反直觉的是,Ilya 亲口承认:这一切的原理,其实简单到令人不安。
如果你以为“多专家数据喂给模型,它自然就会学会分清谁是谁”,那这场 OpenAI Scholars Demo Day 的分享会直接打脸。Tyna Eloundou 用一个看似优雅、实则极具野心的框架,展示了:我们不仅能让模型学到多种行为,还能在需要时精准切换它们。
很多人以为模型一旦训练完,推理阶段只能“照章办事”。但在这场 OpenAI Scholars Demo Day 的分享里,研究者直接挑战了这个假设:在图结构问题上,测试时多给一点计算,模型真的会变聪明,而且不只是玄学提升。
这是一场横跨半导体、工程哲学与人工智能未来的对话。Jim Keller以其横扫多家顶级公司的工程经验,讲述理论与工程的真实关系、Intel兴衰的底层逻辑,以及他如何看待AI、神经网络和人类意识的极限。
在这期Lex Fridman播客中,物理学家Max Tegmark回顾了他与AI研究的交集,从神经网络的“黑箱”问题谈到AI如何反过来推动物理学。他分享了对可解释智能、科学谦逊以及人类如何与未来AI共处的深刻思考。
在这期Lex Fridman播客中,计算生物学家Dmitry Korkin从蛋白质进化谈到病毒、生命复杂性,再延伸至神经网络与AlphaFold等AI突破,提出一个贯穿生命与人工智能的核心观点:复杂性不是偶然,而是由可重用的模块逐步堆叠而来。
这是一场横跨机器学习本质、神经网络实践、教育哲学与AI未来想象的深度对谈。Charles Isbell 与 Michael Littman 结合数十年的研究与教学经验,讨论了“机器学习是不是统计学”“编程正在如何变化”,以及为什么真正的学习离不开痛苦与希望。