从感知机到自动驾驶:MIT用一堂课讲清深度强化学习
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。
Pinterest搜索团队分享了他们将大语言模型引入搜索排序的完整实践:从相关性建模、内容标注,到用知识蒸馏解决规模与成本问题。这是一套已经在线服务数十亿搜索请求的真实系统,而不是实验室原型。
FAL 的 Gorkem Yurtseven 以亲历者视角回顾了生成式媒体从早期实验到全面爆发的过程,提出“创作的边际成本正在逼近零”的判断,并结合广告、电商与视频等行业,勾勒出生成式媒体即将带来的结构性变化。
这是一次几乎失控的成功。Luma AI 在发布首个视频生成模型 Dream Machine 后,4天内涌入百万用户,基础设施被瞬间压垮。本文复盘演讲者在真实压力下的决策、失误与反直觉选择,拆解他们如何重构推理系统、处理公平调度与突发流量,以及从“非常糟糕的早期方案”走向可持续扩展的关键经验。
在这场演讲中,Bespoke Labs 创始工程师 Ryan Marten 复盘了 OpenThoughts 项目的完整探索过程:为什么 DeepSeek R1 的成功让他们意识到“数据配方”才是推理模型的关键,以及他们如何通过系统化实验,把监督微调(SFT)的推理能力推到新的高度。
Nathan Lambert在这场演讲中,回顾了过去半年推理模型的关键变化,提出了一套“下一代推理”的分类法框架。他从可验证奖励的强化学习出发,解释为何推理不只是更长的思维链,而是一整套可被设计、比较和工程化的能力组合。
Charles Frye 在这次演讲中给 AI 工程师泼了一盆冷水:只会调用模型 API 已经不够了。随着推理成本、延迟和规模问题暴露,理解 GPU 的设计哲学——带宽、并行性和张量计算——正成为构建下一代 AI 应用的基础能力。
这场演讲从一个微妙却普遍的现象出发:为什么几乎所有AI产品都在变成“聊天框+模型下拉菜单”?Maximillian Piras提出“苦涩布局”这一概念,借助模型选择器、模式切换和架构理论,揭示了当下AI UX设计被技术进步反向塑形的深层原因,以及设计师如何走向更“甜”的未来。