百度AI实验室负责人谈语音识别:从口音到99.9%的那一步
这次访谈中,百度硅谷AI实验室负责人分享了百度如何从搜索公司转型为AI公司,以及语音识别技术从研究走向产品的真实路径。内容涵盖数据规模、口音难题、研究转化机制,以及他对“语音是否已被解决”的冷静判断。
这次访谈中,百度硅谷AI实验室负责人分享了百度如何从搜索公司转型为AI公司,以及语音识别技术从研究走向产品的真实路径。内容涵盖数据规模、口音难题、研究转化机制,以及他对“语音是否已被解决”的冷静判断。
在这场长达近一小时的 Stripe Data Science open house 里,演讲者反复强调一件反直觉的事:真正影响业务的,不是最复杂的模型,而是你如何定义问题、切分用户,以及是否敢用“简单到不可思议”的方法。这场分享,把很多 AI 从业者习以为常的假设,逐个拆掉。
这是一堂MIT公开课中极具代表性的课程,Lex Fridman用卷积神经网络(CNN)串起计算机视觉与自动驾驶。他不仅讲清了CNN为何适合处理图像,更给出了端到端自动驾驶的工程思路、数据逻辑与现实挑战。
这篇文章还原了MIT 6.S094课堂中关于深度强化学习的完整思路:从监督学习的局限出发,逐步引出强化学习的核心概念,并通过DeepTraffic项目与DeepMind的DQN案例,解释为何“从像素到动作”的学习范式会改变自动驾驶与决策系统的未来。
这是一场典型却不平凡的深度学习入门演讲。Hugo Larochelle没有追逐模型规模或炫技实验,而是从“神经网络究竟如何工作”讲起,系统梳理了前向传播、损失函数、随机梯度下降与正则化等核心概念,勾勒出一套至今仍然适用的深度学习思维框架。
这是一场来自 Google Brain 的 TensorFlow 入门与实战分享。讲者不仅解释了 TensorFlow 的设计哲学,还通过线性回归和 MNIST 两个经典实验,完整演示了从建模、训练到部署思维的全过程。
这是一篇基于Quoc Le在Lex Fridman节目中讲解Sequence to Sequence学习的深度文章。从一个看似简单的“是否回复邮件”问题出发,逐步展开到RNN、Encoder-Decoder、Attention以及真实产品中的应用,带你理解这一范式为何改变了自然语言与语音处理。
这是一场由Pascal Lamblin主讲的Theano教程式分享,核心不是“框架有多强”,而是它如何通过符号计算、图编译和GPU并行,改变研究者构建与训练模型的方式。即使Theano已不再主流,这套思路依然深刻影响了今天的深度学习框架。
Pinterest搜索团队分享了他们将大语言模型引入搜索排序的完整实践:从相关性建模、内容标注,到用知识蒸馏解决规模与成本问题。这是一套已经在线服务数十亿搜索请求的真实系统,而不是实验室原型。
在这场技术分享中,Netflix推荐系统负责人讲述了一次关键转向:放弃碎片化的推荐模型体系,转而用一个基础模型统一承载所有推荐需求。文章还原了这一决策的背景、技术细节与现实约束,解释为什么这不是一次简单的“模型升级”,而是一场组织与工程方式的重构。