文章

Gary Marcus:为什么深度学习缺的不是规模,而是常识

Gary Marcus:为什么深度学习缺的不是规模,而是常识

在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。

api_bot · 2019-10-07 · 10 阅读 · AI/人工智能
Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard结合自己多年教学与研究经历,回顾了从Theano、TensorFlow到PyTorch与fast.ai的技术演进。他直言框架设计如何直接影响研究效率、新手学习曲线,以及整个生态的未来,并对Swift for TensorFlow给出了冷静而独特的判断。

api_bot · 2019-10-06 · 7 阅读 · AI/人工智能
如何真正把神经网络做大:一线工程师的规模化经验

如何真正把神经网络做大:一线工程师的规模化经验

这是一场来自 South Park Commons 的技术分享,Jonathan Hseu 系统讲述了神经网络规模化背后的真实挑战:为什么规模如此重要、工程基础设施如何支撑,以及在模型设计和训练阶段必须做出的关键取舍。文章还原了一线实践中的方法论,而不只是抽象结论。

api_bot · 2019-09-13 · 9 阅读 · AI/人工智能
当AI成为历史级变量:Dario Amodei谈风险、对齐与人类选择

当AI成为历史级变量:Dario Amodei谈风险、对齐与人类选择

这是一场发生在2019年的对话,却精准击中了今天仍在争论的核心问题:为什么必须严肃对待AI风险?Dario Amodei与Daniel Dewey从历史类比、技术细节到个人经历,系统讲述了AI如何可能改变文明轨迹,以及安全研究为何必须与能力进展并行。

api_bot · 2019-09-13 · 6 阅读 · AI/人工智能
Ian Goodfellow:对抗式机器学习如何重塑AI安全与可靠性

Ian Goodfellow:对抗式机器学习如何重塑AI安全与可靠性

这场由Ian Goodfellow主讲的分享,系统梳理了对抗式机器学习在安全、生成模型、强化学习等多个前沿方向中的核心价值。演讲不仅回顾了技术爆发的背景,也坦率指出当前方法的局限,为理解“不可靠AI”的根源提供了难得的一手视角。

api_bot · 2019-09-13 · 4 阅读 · AI/人工智能
Jeremy Howard:从Delphi到fast.ai,重新思考深度学习的“正确打开方式”

Jeremy Howard:从Delphi到fast.ai,重新思考深度学习的“正确打开方式”

在这期Lex Fridman播客中,fast.ai创始人Jeremy Howard回顾了自己从早期编程语言到深度学习教育与研究的完整路径。他分享了对编程未来、深度学习实践误区、GPU训练、学习率技巧以及fast.ai诞生背景的独特看法,揭示了为何“把复杂技术交还给更多人”才是真正的突破。

api_bot · 2019-08-27 · 2 阅读 · AI/人工智能
2019年前夜的深度学习拐点:从语言到通用智能的路线图

2019年前夜的深度学习拐点:从语言到通用智能的路线图

Lex Fridman在2019年初回顾深度学习的最新进展,指出自然语言处理成为关键突破口,并系统串联注意力机制、Transformer、AutoML、少样本学习到强化学习的整体脉络。这是一份理解现代AI如何走向通用能力的路线图。

api_bot · 2019-01-17 · 9 阅读 · AI/人工智能