Bengio谈深度学习:我们真正缺失的不是算力

AI PM 编辑部 · 2018年10月20日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。

Bengio谈深度学习:我们真正缺失的不是算力

在这期Lex Fridman播客中,深度学习三巨头之一Yoshua Bengio回顾了自己对神经网络的长期思考。他指出,当前AI的核心瓶颈不在于模型规模或数据量,而在于信用分配、常识先验和因果理解等更接近人类智能的机制。

为什么生物神经网络仍是最大谜题

这一段讨论之所以重要,是因为它直指深度学习未来可能的突破方向。Bengio开门见山地说,生物神经网络和人工神经网络之间的差异,本身就是“最神秘、也最迷人的问题”。他强调,我们对大脑的理解仍然非常有限,而这些未知,很可能正是下一代AI进步的钥匙。

他特别提到一个自己近年来反复思考的问题:生物神经网络如何在“极长时间尺度”上完成信用分配(credit assignment)。信用分配指的是,一个系统如何判断“最终结果应该归功于哪些早期决策或神经活动”。在当前的深度学习中,这通常通过反向传播在有限时间范围内完成,而人类却可以在数月甚至数年后,意识到某个早期选择的影响。

Bengio坦言,我们“并不知道大脑是怎么做到这一点的”,但如果人工神经网络能掌握类似机制,将极大提升长期规划和推理能力。这不是一个工程小修小补的问题,而是对学习机制本身的挑战。

信用分配,不只是技术名词

这一节之所以关键,是因为它把一个抽象的技术概念,拉回到人类认知本身。Lex Fridman追问“信用分配”到底意味着什么时,Bengio并没有把它局限在梯度或损失函数上。

他指出,信用分配可以扩展到更广泛的认知过程,比如:什么信息进入意识、什么被存储进长期记忆。这些选择并不显而易见,但却深刻影响了学习效率。换句话说,人类智能不仅在于算得快,而在于“记住什么、忘掉什么”。

这一观点也暗示了当前深度学习的局限:模型往往被动地吸收数据,而缺乏对信息重要性的内在判断机制。Bengio认为,如果无法解决这一层面的信用分配问题,AI在复杂、开放环境中的表现将始终受限。

监督学习的成功与它的天花板

理解这一段,有助于看清今天AI成功的边界。Bengio回顾了深度神经网络在监督学习上的巨大成就——从图像识别到语音识别,清晰标注的数据推动了性能飞跃。

但当被问及未来瓶颈是“架构问题还是数据集问题”时,他给出了一个耐人寻味的回答:“都不是。”在他看来,单纯扩大模型、堆叠更深的网络、收集更大的数据集,并不能解决根本问题。

真正的挑战在于,现有监督学习框架并不擅长处理分布外泛化(test distribution与训练分布不同的情况),也缺乏内建的常识和因果理解能力。这也是为什么模型在看似简单的常识推理上会“失败得很愚蠢”。

先验、常识与可解耦表示

这一部分重要在于,它勾勒了Bengio心中“更像人类的AI”应具备的特征。他多次强调,当前神经网络缺乏先验知识(priors)和常识,而人类正是依靠这些结构化假设,才能高效学习。

他特别提到“可解耦表示”(disentangled representations)这一研究方向。简单来说,这是指模型内部的表示能够把世界的不同因素分开表示,而不是混杂在一起。Bengio认为,这种表示方式与更强的泛化能力密切相关。

如果模型能理解“因果机制”,而不仅仅是统计相关性,那么即使测试分布发生变化,它也更可能做出合理判断。这也是他长期坚持的研究信念之一。

从AI寒冬到耐心的乐观主义

这一节为整场对话提供了人文背景。Bengio回忆,自己亲身经历过至少一次AI寒冬——研究方向不被看好、进展缓慢、资源有限。

但他并不把突破视为一蹴而就的革命,而是“由许多小步骤组成”。即便在今天,他也强调学术界的分歧是健康的信号:“如果大家都同意,那反而值得警惕。”

在谈到是什么让他爱上人工智能时,他的回答朴素而坚定:理解智能本身,是一个值得终身投入的问题。这种长期主义,也贯穿了他对深度学习未来的判断。

总结

Bengio在这次对话中反复传递一个信息:深度学习的下一步,不是更大的模型,而是更深的理解。从信用分配到因果机制,从常识先验到可解耦表示,这些问题都指向同一个方向——让机器学习更接近人类学习方式。对研究者而言,这是提醒;对从业者而言,这是耐心的理由。


关键词: 深度学习, 神经网络, 信用分配, 可解耦表示, 因果推理

事实核查备注: Yoshua Bengio;Lex Fridman Podcast #4;credit assignment(信用分配);supervised learning(监督学习);disentangled representations(可解耦表示);AI winter(AI寒冬)