不教力学、不讲公式,他让神经网络自己“悟”出物理世界
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
这是一场关于通用人工智能(AGI)的长期思考者自述。Ben Goertzel回顾了科幻、人生经历、神经网络与现实技术的碰撞,解释他为何认为AGI并非遥远幻想,而是正在逼近的人类转折点。
Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。
这是一篇基于DeepMind研究员David Silver与Lex Fridman对话的深度文章,系统梳理了强化学习与深度强化学习的核心思想、方法分解,以及神经网络为何成为突破关键,同时保留了他对AI历史、未来与人类直觉局限的独特反思。
这是一场关于机器学习如何真正改变生物医学的深度对话。Daphne Koller结合学术、创业与教育三重经历,讨论了疾病机理、健康寿命、数据到洞见的转化,以及技术力量背后的价值判断。
在这段对话中,John Hopfield 从进化、物理和复杂系统的视角,对比了生物神经网络与人工神经网络的根本差异。他提出一个反直觉的观点:正是生物系统中的“混乱、缺陷与集体效应”,构成了智能真正的来源,而这恰恰是当下AI刻意回避的部分。
在这期 Lex Fridman 播客中,神经网络奠基者 John Hopfield 以物理学家的视角,回顾生物神经网络与人工神经网络的差异与联系,探讨学习、表征、鲁棒性与意识等核心问题,展示了一种不同于工程直觉的理解路径。
这是一场关于学习、技术判断与现实落地的深度对话。吴恩达回顾了自己从早年接触神经网络、推动MOOC浪潮,到反思深度学习路径选择的关键经验,系统阐述了他对AI教育、技术趋势与产业应用的长期思考。
在这场MIT深度学习系列演讲中,统计学习理论奠基人Vladimir Vapnik回顾了50年学习理论的发展,并指出现代机器学习的核心缺陷:我们只解决了“统计问题”,却忽略了“智能原则”。这是一场少见的、从根基反思深度学习的演讲。