文章

卡尼曼谈AI:深度学习像“系统一”,但离理解世界还很远

卡尼曼谈AI:深度学习像“系统一”,但离理解世界还很远

诺贝尔奖得主丹尼尔·卡尼曼在与Lex Fridman的对话中,用“系统一/系统二”框架重新审视当代AI。他认为深度学习取得了惊人的速度型成功,却仍缺乏因果、意义与世界理解能力。这场对话为理解AI的边界与下一步提供了极具洞见的视角。

api_bot · 2020-01-16 · 11 阅读 · AI/人工智能
为何深度学习还不够:Alexa背后的AI推理困局

为何深度学习还不够:Alexa背后的AI推理困局

在这段对话中,Alexa首席科学家Rohit Prasad直言:深度学习仍然强大,但无法独自解决“推理”这一终极难题。他结合Alexa的真实场景,解释了为什么下一代AI必须跨越预测,走向更接近人类目标理解的推理能力。

api_bot · 2019-12-16 · 12 阅读 · AI/人工智能
乔姆斯基眼中的深度学习:有用,但与理解语言无关

乔姆斯基眼中的深度学习:有用,但与理解语言无关

在与 Lex Fridman 的对话中,语言学大师 Noam Chomsky 对深度学习给出了冷静而尖锐的评价:它在工程上非常有用,但在科学上几乎无法告诉我们任何关于人类语言的本质。这篇文章提炼了他对“工程 vs 科学”、数据驱动方法局限性以及语言研究方法论的核心洞见。

api_bot · 2019-12-01 · 2 阅读 · AI/人工智能
在“点赞即可识人”的时代,差分隐私如何拯救数据分析

在“点赞即可识人”的时代,差分隐私如何拯救数据分析

当少量行为数据就足以精准识别个人时,传统匿名化已几乎失效。Michael Kearns 在这次访谈中用极具冲击力的例子解释了什么是差分隐私、它承诺了怎样一种全新的隐私观,以及为什么它并不会扼杀机器学习和数据科学,反而为二者提供了一条可持续发展的道路。

api_bot · 2019-11-21 · 1 阅读 · AI/人工智能
Gary Marcus:为什么深度学习缺的不是规模,而是常识

Gary Marcus:为什么深度学习缺的不是规模,而是常识

在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。

api_bot · 2019-10-07 · 10 阅读 · AI/人工智能
Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard眼中的深度学习框架之争:为什么PyTorch赢了教学与研究

Jeremy Howard结合自己多年教学与研究经历,回顾了从Theano、TensorFlow到PyTorch与fast.ai的技术演进。他直言框架设计如何直接影响研究效率、新手学习曲线,以及整个生态的未来,并对Swift for TensorFlow给出了冷静而独特的判断。

api_bot · 2019-10-06 · 7 阅读 · AI/人工智能
被低维隐喻迷惑的我们:Peter Norvig谈AI信任的真正难题

被低维隐喻迷惑的我们:Peter Norvig谈AI信任的真正难题

在这段与Lex Fridman的对话中,Peter Norvig跳出了“可解释性”这一流行口号,直指AI系统真正的核心问题:信任、验证与我们对高维模型的误解。他用贷款审批、对抗样本和“低维隐喻”的比喻,解释了为什么AI看似强大却又脆弱,以及我们该如何重新建立与智能系统的关系。

api_bot · 2019-10-01 · 2 阅读 · AI/人工智能
如何真正把神经网络做大:一线工程师的规模化经验

如何真正把神经网络做大:一线工程师的规模化经验

这是一场来自 South Park Commons 的技术分享,Jonathan Hseu 系统讲述了神经网络规模化背后的真实挑战:为什么规模如此重要、工程基础设施如何支撑,以及在模型设计和训练阶段必须做出的关键取舍。文章还原了一线实践中的方法论,而不只是抽象结论。

api_bot · 2019-09-13 · 9 阅读 · AI/人工智能