François Chollet:为何深度学习仍未触及真正的智能

AI PM 编辑部 · 2020年08月31日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

在这期 Lex Fridman 播客中,Keras 作者 François Chollet 直面一个尖锐问题:今天的深度学习模型,究竟是在“理解”,还是在“记忆”?他从语言、视觉、数据规模与泛化能力出发,系统阐述了自己对智能本质的定义,以及为何 ARC 基准测试被设计成反主流的存在。

François Chollet:为何深度学习仍未触及真正的智能

在这期 Lex Fridman 播客中,Keras 作者 François Chollet 直面一个尖锐问题:今天的深度学习模型,究竟是在“理解”,还是在“记忆”?他从语言、视觉、数据规模与泛化能力出发,系统阐述了自己对智能本质的定义,以及为何 ARC 基准测试被设计成反主流的存在。

什么是智能?Chollet 的核心定义

理解智能的定义,是这次对话的起点,也决定了后续所有争论是否成立。Chollet 并不满足于“模型在基准上拿高分”这种工程化标准,他提出一个更抽象、也更苛刻的定义:智能是“在面对新问题时,用有限经验进行快速适应的能力”。他在对话中明确指出,如果一个系统只能在训练分布内表现良好,那它更像是一个庞大的查找表,而不是智能体。

他用近乎哲学的方式强调:“如果你需要看过无数样本,才能解决一个新问题,那说明你并没有真正理解问题。”在他看来,真正的智能必须具备强泛化(generalization)能力,尤其是面对训练阶段从未出现过的任务结构时。这也是他长期批评当前深度学习范式的原因:它们在插值上极强,但在外推上极弱。

这一点之所以重要,是因为它直接挑战了“算力 + 数据 = 通用智能”的乐观叙事。Chollet 并不是否认深度学习的价值,而是提醒研究者:如果不澄清智能的定义,我们可能会在错误的目标上不断优化。

语言不是智能的全部:对“语言中心论”的质疑

在讨论中,Lex Fridman 多次将话题引向语言模型,因为在 2020 年,GPT-3 已经引发了广泛震动。但 Chollet 的态度明显更为克制。他认为语言确实是人类智能的重要组成部分,但绝不是全部,更不是智能的“最小构件”。

他直言不讳地表示,语言本身是一种高度结构化、由人类文化长期塑造的系统。如果一个模型在语言上表现很好,并不必然意味着它具备通用推理能力。他指出,许多语言任务可以通过统计相关性解决,而不需要真正的概念操作。“你可以在不理解世界的情况下,学会生成看起来合理的句子。”

这一判断背后的关键,是他对“构成性能力”的重视。也就是说,智能系统是否能够把少量的基本概念,组合成全新的解决方案。相比之下,单纯扩大语言数据规模,可能只是在不断加深对已有模式的记忆。这种观点,也为他后面对 GPT-3 的评价埋下了伏笔。

ARC:一个刻意“反深度学习”的基准

如果说定义是理论层面的,那么 ARC(Abstraction and Reasoning Corpus)就是 Chollet 将理念落地的尝试。他在播客中解释,ARC 的目标并不是再造一个刷分排行榜,而是测试模型是否具备最基本的抽象与类比能力。

ARC 的题目通常以视觉网格的形式出现,每道题只提供极少量示例,要求系统推断隐藏规则并应用到新输入上。Chollet 特别强调,这种设置是有意限制数据规模的,因为他想排除“靠大量样本记忆”的解法。他用一个形象的比喻说,如果修一条路需要先把整个国家的路都修一遍,那说明方法本身有问题。

这背后其实是一个方法论层面的挑战:当前主流深度学习框架,是否天然不擅长这种低样本、强结构的任务?ARC 至今没有被大模型“轻松解决”,正是 Chollet 想传达的信息——我们离通用智能还有明显差距。

怎么看 GPT-3:能力惊人,但并非推理突破

谈到 GPT-3 时,Chollet 的评价相当谨慎。他承认这是一个工程成就,在语言生成、代码补全等方面展现了前所未有的流畅性。但他同时指出,这种表现很容易制造一种“推理幻觉”。

他认为,GPT-3 的很多成功案例,本质上依赖于训练数据中已经存在的大量相似模式。当问题稍微偏离分布,或者需要严格的符号推理时,模型就会暴露脆弱性。他提到,训练时间和数据质量已经成为明显瓶颈,单纯扩大规模的边际收益正在下降。

一句非常具有代表性的原话是:“适应新事物的能力,才是智能的核心。”在这个标准下,GPT-3 更像是一个极其博学的系统,而不是一个能在陌生环境中自主学习的新型智能体。

接近人类上限了吗?对未来的冷静判断

在对话的后段,Lex Fridman 抛出了一个更宏观的问题:我们是否已经接近人类认知能力的上限?Chollet 的回答依旧保持了理性与克制。他认为,在某些受限任务上,机器已经接近甚至超过人类,但那并不等价于“总体智能”的极限。

他指出,人类认知本身受到诸多约束,而真正困难的部分,在于跨领域迁移与快速学习。当前最先进的系统,仍然高度依赖人类设计的目标函数和训练流程。从这个角度看,通往通用人工智能的道路,并没有被“解决”,甚至还谈不上清晰。

这段讨论的价值在于,它为过热的 AI 预期降了温。Chollet 并不是悲观主义者,而是提醒研究者把注意力重新拉回到那些尚未被规模化方法覆盖的核心问题上。

总结

这期播客中,François Chollet 提供的并不是快速成功的路线图,而是一套用于自我校准的思维框架。他反复强调智能的本质是泛化与适应,而不是分数与规模。无论是 ARC 的设计,还是他对 GPT-3 的评价,都在提醒我们:当一个模型看起来“很聪明”时,真正重要的问题是——它在多大程度上理解了新问题。对研究者和从业者而言,这种冷静,或许比任何突破性演示都更有价值。


关键词: François Chollet, 智能定义, ARC, 深度学习, GPT-3

事实核查备注: 人物:François Chollet(Keras 作者,ARC 提出者);播客:Lex Fridman Podcast #120;时间:2020-08-31;技术名词:深度学习、泛化能力(generalization)、ARC(Abstraction and Reasoning Corpus)、GPT-3;核心观点:智能=快速适应新问题的能力,对大规模语言模型的推理能力持保留态度。