Melanie Mitchell谈AI:概念、类比与常识为何如此艰难

AI PM 编辑部 · 2019年12月28日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

在这期Lex Fridman播客中,Melanie Mitchell从AI历史、类比思维、常识推理和复杂系统出发,解释了为什么当前的深度学习离通用人工智能仍有距离。她既不唱衰AI,也不迷信“超级智能”,而是给出了一条更冷静、更长期的研究路径。

Melanie Mitchell谈AI:概念、类比与常识为何如此艰难

在这期Lex Fridman播客中,Melanie Mitchell从AI历史、类比思维、常识推理和复杂系统出发,解释了为什么当前的深度学习离通用人工智能仍有距离。她既不唱衰AI,也不迷信“超级智能”,而是给出了一条更冷静、更长期的研究路径。

为什么理解AI的“历史感”如此重要

要理解当下AI的能力与局限,Melanie Mitchell反复强调一个前提:把它放进更长的历史尺度中。这一点之所以重要,是因为AI领域曾多次在乐观预期和现实瓶颈之间来回摆动。她在对话中回顾了人工智能从符号主义到统计学习、再到今天深度学习浪潮的演变,指出“每一代方法在特定问题上都取得了惊人的成功,但也暴露出新的盲点”。

在她看来,当前神经网络的核心仍然是大规模的“简单单元 + 海量计算”,这并不神秘,但也不等同于人类智能。她用一种近乎历史学家的视角提醒听众:我们这个物种本身的智能,是在漫长进化、身体经验和社会互动中形成的,而不是在真空中优化某个指标。正因如此,她认为“用计算机去探索智能本身”,是一个必要但需要极度耐心的过程,而不是一次工程冲刺。

类比能力:人类智能中最被低估的核心

在众多智能特征中,Mitchell特别强调了“类比”(analogy)的重要性。这之所以关键,是因为类比几乎无处不在:从理解语言、解决新问题,到把旧经验迁移到陌生情境。她提到Douglas Hofstadter等人的研究传统,认为类比并不是高层装饰,而是“思维的发动机”。

她指出,当人类面对新情境时,并不是从零开始计算,而是不断在头脑中寻找结构相似性。相比之下,许多AI系统在训练分布内表现出色,但一旦问题稍有变化就会失效。Mitchell直言,这正暴露了当前系统缺乏真正概念理解的事实。她的一句原话令人印象深刻:“我们很容易高估机器学到的是什么,因为它们给出了看似聪明的答案。”这不是否定进展,而是提醒我们区分模式匹配与概念掌握。

常识难题:为什么“我们知道的太多了”

如果说类比是智能的引擎,那么常识就是它的底座。Mitchell在播客中谈到常识推理时,语气明显变得谨慎而现实。她喜欢的一句话是:人类拥有的常识“数量巨大,而且彼此高度关联”。正因为如此,把常识显式地写成规则或数据库,几乎注定失败。

她回顾了语义网等尝试,指出“并不是缺少聪明的算法,而是世界本身太复杂”。更重要的是,人类自己也很难清楚表达这些知识,比如我们如何走路、如何驾驶、如何判断危险。自动驾驶的讨论在这里成为一个例子:人类司机依赖的是长期身体化经验,而不是一套可轻易形式化的规则。这也引出了她对“具身智能”的重视——智能并非只存在于大脑或模型中,而是深深嵌入感知与行动之中。

反思“超级智能”:一个不够清晰的概念

在对话后半段,Mitchell谈到了她在《纽约时报》撰写的评论文章,其中对“超级智能”这一概念提出质疑。她认为,这个词常常被用来指代一种模糊而全能的未来存在,但在科学上并不严谨。她直言:“超级智能并不是一个清晰定义的东西。”

这并不意味着她否认AI风险,而是主张更精细的讨论方式。与其假设某个突然出现、全面超越人类的智能体,不如关注具体系统在具体情境下可能造成的真实影响。同样,在谈到智能测试时,她也对单一指标(如图灵测试)保持保留态度,认为任何测试都会被“针对性优化”。在她看来,理解智能本身,可能比设计一个终极测试更重要。

总结

这期对话的价值,不在于给出一个关于通用人工智能的时间表,而在于提供了一种更成熟的思考框架。Melanie Mitchell提醒我们:AI的进步是真实的,但智能远不只是算力和数据的堆叠。类比、常识、具身经验和复杂性,构成了人类智能最难复制的部分。对读者而言,最大的启发或许是学会同时保持两种态度——对技术进展的敬畏,以及对简单叙事的警惕。


关键词: 通用人工智能, Melanie Mitchell, 类比思维, 常识推理, 复杂系统

事实核查备注: Melanie Mitchell:波特兰州立大学计算机科学教授,圣塔菲研究所外聘教授;Douglas Hofstadter:著有《哥德尔、埃舍尔、巴赫》;讨论主题包括类比(analogy)、常识推理、具身智能、超级智能概念;视频来源:Lex Fridman Podcast #61,2019-12-28。