预测癫痫发作这件事,神经网络可能比医生更早“看见”信号
直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。
直到20年前,医学界还在争论一件事:癫痫发作到底能不能被预测?在 OpenAI Scholars Demo Day 上,一位神经科学出身的研究者用深度学习给出了一个并不完美、却足够震撼的答案——不仅能,而且很可能正是神经网络最擅长的那类问题。
在 OpenAI Scholars Demo Day 上,Christine Payne 做了一件反直觉的事:她没有发明全新的音乐模型,而是把“生成音乐”硬生生改造成一个语言模型问题。结果令人震惊——很多人已经分不清 AI 和人类作曲。但真正的挑战,才刚刚开始。
如果你不告诉模型什么是力、速度和动量,它还能理解世界吗?在 OpenAI Scholars Demo Day 上,Ifu Aniemeka 用一个看似“幼稚”的实验给出了惊人答案:只靠观察,神经网络真的能学会预测物体运动。这不是炫技,而是世界模型的一次重要试探。
大多数AI绘画在学“风格”,但Holly Grimm反其道而行:她把人类艺术课上的构图原则,直接塞进了CycleGAN的训练目标里。结果不是更像某位大师,而是第一次让模型“听懂”什么叫色彩和谐、纹理变化与构图控制。
Lex Fridman通过“苦涩教训”回顾了70年AI发展史,指出真正推动指数级进步的不是聪明算法,而是能持续放大算力的通用方法。视频从历史案例出发,讨论了算力、算法、数据与未来计算范式之间的张力。
在这期与Lex Fridman的对话中,统计学习理论奠基人Vladimir Vapnik并没有讨论热门模型或算力竞赛,而是回到一个更根本的问题:什么才是“理解”?他通过对模仿、数字识别、谓词与不变量的讨论,提出了一条与当下主流深度学习路径明显不同的智能观。
MIT教授Vivienne Sze从能效视角重新审视深度学习、机器人与AI系统设计。她指出,算力增长背后隐藏着能耗与碳足迹危机,而真正的突破来自跨越算法、模型与硬件的协同设计。这是一场关于“把计算带回现实世界”的深度反思。
这段访谈记录了Alexa早期语音技术负责人Rohit Prasad讲述的一段关键历史:一支只有6人的团队,如何在几乎不被看好的情况下,依靠远场语音识别、深度学习和大规模数据,把“对着空气说话”从科幻变成真实产品。
在这次与Lex Fridman的对话中,C++之父Bjarne Stroustrup直面机器学习与传统软件工程的根本冲突:模糊性与精确性。通过自动驾驶、航空控制等高风险场景,他阐述了为何“软件2.0”无法替代工程纪律,以及不同技术范式必须各守边界、协同共存。
在这段与Lex Fridman的对话中,François Chollet直指深度学习的核心瓶颈:它擅长插值,却难以实现人类式的“极端泛化”。通过排序算法、自动驾驶和对话AI等例子,他提出未来AI必须走向符号规则与神经网络的混合范式。