摩尔定律失效之后,AI硬件该如何继续进化?
这场由Dave Patterson等人参与的AI硬件圆桌,回顾了摩尔定律失效后的关键转折点,深入讨论了模型训练与推理的本质差异、GPU与专用芯片的演化路径,以及Google等公司在真实工程约束下做出的取舍。
这场由Dave Patterson等人参与的AI硬件圆桌,回顾了摩尔定律失效后的关键转折点,深入讨论了模型训练与推理的本质差异、GPU与专用芯片的演化路径,以及Google等公司在真实工程约束下做出的取舍。
在这期Lex Fridman播客中,fast.ai创始人Jeremy Howard回顾了自己从早期编程语言到深度学习教育与研究的完整路径。他分享了对编程未来、深度学习实践误区、GPU训练、学习率技巧以及fast.ai诞生背景的独特看法,揭示了为何“把复杂技术交还给更多人”才是真正的突破。
这是一段关于TensorFlow如何从Google内部的实验性工具,演变为全球机器学习基础设施的真实历史。Rajat Monga回顾了Google Brain早期的关键决策、开源背后的犹豫与勇气,以及TensorFlow 2.0为何必须“推倒重来”。
这是一堂关于深度学习的入门课,却远不止介绍模型和代码。Lex Fridman从数据、算力、社区与历史周期出发,解释为什么深度学习在今天爆发,又为什么它仍然充满局限。这篇文章提炼了演讲中最具洞见的观点、案例与警示。
MIT自动驾驶技术研究并不从算法开始,而是从数据开始。这段视频完整展示了他们如何设计一套名为Rider的数据采集系统,在真实世界中、跨越数十万辆里程,稳定地记录人类驾驶行为。它揭示了一个常被忽视却决定成败的事实:深度学习的上限,往往由数据工程决定。
这是一堂MIT公开课中极具代表性的课程,Lex Fridman用卷积神经网络(CNN)串起计算机视觉与自动驾驶。他不仅讲清了CNN为何适合处理图像,更给出了端到端自动驾驶的工程思路、数据逻辑与现实挑战。
这是一门面向未来的课程导论。Lex Fridman在MIT 6.S094中,从自动驾驶的真实复杂性出发,讲清楚深度学习为何在感知、决策与控制上产生突破,又在哪些地方依然脆弱。这篇文章提炼了课程中最有价值的方法论、案例与反思。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一场并不追求炫技的 Torch 教程。Alex Wiltschko 通过大量一线使用经验,解释了 Torch 为什么选择 Lua、为什么 GPU 和自动求导是核心优势,以及这些设计如何真正改变工程师构建深度学习系统的方式。
这是一场由Pascal Lamblin主讲的Theano教程式分享,核心不是“框架有多强”,而是它如何通过符号计算、图编译和GPU并行,改变研究者构建与训练模型的方式。即使Theano已不再主流,这套思路依然深刻影响了今天的深度学习框架。