不教力学、不讲公式,他让神经网络自己“悟”出物理世界
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。
在这期与Lex Fridman的对话中,统计学习理论奠基人Vladimir Vapnik并没有讨论热门模型或算力竞赛,而是回到一个更根本的问题:什么才是“理解”?他通过对模仿、数字识别、谓词与不变量的讨论,提出了一条与当下主流深度学习路径明显不同的智能观。
MIT教授Vivienne Sze从能效视角重新审视深度学习、机器人与AI系统设计。她指出,算力增长背后隐藏着能耗与碳足迹危机,而真正的突破来自跨越算法、模型与硬件的协同设计。这是一场关于“把计算带回现实世界”的深度反思。
这段访谈记录了Alexa早期语音技术负责人Rohit Prasad讲述的一段关键历史:一支只有6人的团队,如何在几乎不被看好的情况下,依靠远场语音识别、深度学习和大规模数据,把“对着空气说话”从科幻变成真实产品。
在这次与Lex Fridman的对话中,C++之父Bjarne Stroustrup直面机器学习与传统软件工程的根本冲突:模糊性与精确性。通过自动驾驶、航空控制等高风险场景,他阐述了为何“软件2.0”无法替代工程纪律,以及不同技术范式必须各守边界、协同共存。
在这段与Lex Fridman的对话中,François Chollet直指深度学习的核心瓶颈:它擅长插值,却难以实现人类式的“极端泛化”。通过排序算法、自动驾驶和对话AI等例子,他提出未来AI必须走向符号规则与神经网络的混合范式。
在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。
Jeremy Howard结合自己多年教学与研究经历,回顾了从Theano、TensorFlow到PyTorch与fast.ai的技术演进。他直言框架设计如何直接影响研究效率、新手学习曲线,以及整个生态的未来,并对Swift for TensorFlow给出了冷静而独特的判断。