当自动驾驶把镜头转向人类:MIT如何用深度学习理解司机
这场MIT课程演讲中,Lex Fridman并没有讨论如何让车更“聪明”,而是反过来思考:如何用深度学习真正理解车里的人。从眼动、姿态到认知负荷,这些看似细微的人类信号,正在决定半自动驾驶系统的安全与信任边界。
这场MIT课程演讲中,Lex Fridman并没有讨论如何让车更“聪明”,而是反过来思考:如何用深度学习真正理解车里的人。从眼动、姿态到认知负荷,这些看似细微的人类信号,正在决定半自动驾驶系统的安全与信任边界。
这是一堂MIT公开课中极具代表性的课程,Lex Fridman用卷积神经网络(CNN)串起计算机视觉与自动驾驶。他不仅讲清了CNN为何适合处理图像,更给出了端到端自动驾驶的工程思路、数据逻辑与现实挑战。
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
在YC 2016创业学校上,Rigetti Computing创始人Chad Rigetti回顾了从零起步打造量子计算机的历程,解释了量子计算为何可能重塑计算范式,并给出了关于“硬科技”创业的独特方法论。这是一场关于技术极限、组织能力与人生选择的演讲。
这是一场典型却不平凡的深度学习入门演讲。Hugo Larochelle没有追逐模型规模或炫技实验,而是从“神经网络究竟如何工作”讲起,系统梳理了前向传播、损失函数、随机梯度下降与正则化等核心概念,勾勒出一套至今仍然适用的深度学习思维框架。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一场关于“如何真正把深度学习用起来”的演讲。Andrew Ng没有沉浸在模型结构的炫技中,而是反复讨论数据、误差、架构选择与团队协作这些决定成败的细节,给出了大量来自真实应用的经验判断。
这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。
这是一场并不追求炫技的 Torch 教程。Alex Wiltschko 通过大量一线使用经验,解释了 Torch 为什么选择 Lua、为什么 GPU 和自动求导是核心优势,以及这些设计如何真正改变工程师构建深度学习系统的方式。
这是一篇关于反馈、分发与实验的创业反思。Dan Siroker通过多次失败、谷歌与奥巴马竞选团队的经历,逐步提炼出一套可复用的创业“算法”,并最终打造出Optimizely。