正在加载视频...
视频章节
在这期Lex Fridman播客中,认知科学奠基者Jay McClelland回顾了连接主义的思想源头,讨论神经网络如何从简单机制中涌现出复杂心智,并反思人类认知、发展与现代深度学习之间的连续性与断裂。
从简单到心智:Jay McClelland谈神经网络如何涌现认知
在这期Lex Fridman播客中,认知科学奠基者Jay McClelland回顾了连接主义的思想源头,讨论神经网络如何从简单机制中涌现出复杂心智,并反思人类认知、发展与现代深度学习之间的连续性与断裂。
为什么“涌现”是理解心智的关键
理解人类心智是否一定需要预设复杂的“内在结构”,这是认知科学几十年来的核心争论。McClelland在对话中反复强调,他最重要的直觉之一,就是从一开始就不把心智看成魔法般的黑箱。他回应Lex时说,虽然“从一点点生物学出发,到如此高水平的智能,看起来是一个巨大的飞跃”,但这种飞跃并非不可理解。
这里的重要性在于:如果复杂认知可以从简单单元和相互作用中自然产生,那么研究重点就应该放在机制与过程,而不是先验假设。McClelland将这种立场称为“从笛卡尔梦中醒来”——不再假定心智由清晰分割、符号化的模块构成,而是由大量简单单元并行运作所形成的整体行为。他坦言,这种直觉对他来说“一开始就显而易见”,但在当时却并不主流。
这种对涌现的坚持,直接奠定了他后来在神经网络与认知建模上的长期路线,也为今天深度学习的成功提供了早期的思想土壤。
并行分布式处理:一场观念上的革命
要理解McClelland的影响,离不开他与合作者撰写的《Parallel Distributed Processing》(并行分布式处理)系列著作。Lex在节目中直言,这些书“真的让我感到兴奋”,因为它们提供了一种完全不同的认知观。
在这一框架中,知识不是存放在单一位置的符号规则,而是分布在网络权重中的模式;计算不是按步骤执行的逻辑推理,而是并行、连续的状态演化。McClelland回忆,当年越来越多的人开始意识到,这种看似简单的系统,可能解释语言、记忆和知觉等复杂能力,“这是一种相当革命性的思考方式”。
重要的是,他并没有否认这种方法早期的局限性。相反,他讲到,正是因为很多尝试“并不是都奏效”,才迫使研究者重新思考:我们真正关心的是什么层面的认知循环?这种反思,让连接主义逐渐从玩具模型,走向更严肃的认知建模工具。
连接主义、发展与乔姆斯基之争
在节目中,一个反复出现的张力来自于连接主义与传统生成语言学之间的分歧。McClelland提到,乔姆斯基曾认为语言和认知需要强先天结构,而他更倾向于从发展和学习的角度切入。
这一点为什么重要?因为它决定了我们如何理解儿童早期的学习。McClelland表示,他对“人类生命最初几年”始终着迷,正是因为这些阶段显示出:在没有显式规则教学的情况下,复杂能力可以通过经验逐步形成。这与神经网络通过训练逐渐改变权重的过程高度相似。
他并不是简单否定先天因素,而是强调,进化生物学、发展生物学和认知发展,都可以在同一种建模思路下被研究。这种连续性的视角,使连接主义不只是一个技术路线,而是一种跨学科的方法论。
从McClelland到Hinton:规模、优化与今天的AI
当话题转向当代AI时,Geoffrey Hinton的名字自然被提及。Lex追问,是否“只要不断扩大规模,就能提升系统能力”。McClelland的回应并不激进,但耐人寻味:他更关心优化和计算的基本原则,而不是单纯的算力堆叠。
这背后的洞见在于:现代深度学习的成功,并非凭空出现,而是延续了早期连接主义关于分布式表示和学习的核心思想。不同之处在于,今天的系统拥有前所未有的数据和计算资源。McClelland对此保持一种审慎的乐观,他说,从涌现的角度看,“我们甚至不完全需要知道它如何工作,只是享受这种从简单中产生复杂的过程,本身就很有趣”。
这种态度,既是科学家的谦逊,也是一种方法论上的提醒:理解与工程成功,并不总是同步发生。
总结
这场对话的价值,不在于给出关于心智或AI的终极答案,而在于展示了一条连贯的思想路径:从早期神经网络、并行分布式处理,到今天的深度学习热潮。McClelland反复强调的“涌现”,提醒我们复杂智能可能源自简单机制的长期互动。对读者而言,这既是理解现代AI的一把钥匙,也是反思人类自身认知的一面镜子。
关键词: Jay McClelland, 神经网络, 连接主义, 并行分布式处理, 认知涌现
事实核查备注: Jay McClelland:斯坦福大学认知科学家;Parallel Distributed Processing:并行分布式处理理论与著作;Geoffrey Hinton:深度学习与神经网络研究者;节目来源:Lex Fridman Podcast #222(2021-09-20);核心话题:神经网络、连接主义、认知涌现