Ray Kurzweil在MIT谈智能未来:从新皮层到奇点之后

AI PM 编辑部 · 2018年02月14日 · 6 阅读 · AI/人工智能

正在加载视频...

视频章节

在这场MIT的公开课上,Ray Kurzweil回顾了深度学习崛起的根本原因,并用人脑新皮层的结构解释为什么当前路径行得通。他不仅谈技术,更谈长期趋势、少样本学习的难题,以及人类在“奇点”之后可能迎来的自我进化。

Ray Kurzweil在MIT谈智能未来:从新皮层到奇点之后

在这场MIT的公开课上,Ray Kurzweil回顾了深度学习崛起的根本原因,并用人脑新皮层的结构解释为什么当前路径行得通。他不仅谈技术,更谈长期趋势、少样本学习的难题,以及人类在“奇点”之后可能迎来的自我进化。

为什么深度学习会在今天爆发

理解今天的AI浪潮,关键不在某一个算法,而在时间点。Kurzweil一开场就指出,当前所有关于深度学习的兴奋,本质上来自两股力量的叠加:多层神经网络,以及他提出多年的“加速回报定律”。这一定律指的是,技术进步不是线性的,而是指数级的,每一次进步都会反过来加速下一次进步。

他说得很直白:“all the excitement we see now about deep learning comes from a combination of two things。”一方面,多层神经网络并不是新发明,但过去受限于算力和数据;另一方面,算力、存储和数据规模本身正处在指数增长曲线上。当这两条曲线在最近十多年交汇,深度学习突然从实验室技术,变成了可以改变产业的工具。

这一判断的重要性在于,它解释了为什么Kurzweil并不把当前的成功看作偶然突破,而是长期趋势的自然结果。在他看来,只要指数曲线没有被打断,模型规模、能力和应用范围的持续跃迁是可以预期的。这也是他始终对通用人工智能(AGI)持长期乐观态度的根本原因。

从AlphaGo到数据依赖的天花板

如果说深度学习的成功有一个标志性事件,AlphaGo几乎无法回避。Kurzweil在演讲中提到,AlphaGo“trained on every online game”,它几乎利用了人类历史上所有可获得的围棋对局数据。这种规模的数据训练,带来了超越人类顶尖棋手的表现。

但他紧接着指出了问题:我们并不总是有机会获得这样的数据,甚至无法人为创造数据。围棋是封闭、规则明确的世界,而现实世界不是。这一转折非常关键,因为它直接触及当前AI方法的边界。

在Kurzweil看来,过度依赖大规模标注数据,是现有模型距离通用智能仍然遥远的重要原因之一。它们在“有数据的地方”表现惊艳,却在“数据稀缺的真实世界任务”中显得笨拙。这也为后续讨论少样本学习和类人学习方式埋下伏笔。

人类为何能少样本学习:新皮层的启示

人类儿童不需要看过上百万张猫的图片,就能学会“什么是猫”。Kurzweil将这一能力归因于大脑的新皮层(neocortex)。他强调,新皮层是一个“very thin structure”,却承载了语言、抽象思维和模式识别等高级智能能力。

他提出一个核心观点:新皮层的工作方式,本质上是层级化的模式学习。信息被组织成层级结构,从低级感知模式,到高级概念,每一层都在复用前一层的结果。这种结构,使得人类能够用极少的样本进行泛化学习。

Kurzweil认为,这正是人工智能研究中最值得模仿的部分。他并没有否定神经网络,恰恰相反,他认为多层神经网络正是走在正确方向上,只是“还没有真正理解层级模块内部的内容”。这一判断,也解释了他为何反复强调研究新皮层,而不是单纯堆叠算力。

从Google到奇点之后:人与AI的合并

演讲中一个颇具故事性的片段,是Kurzweil提到Larry Page在2012年读过他的书。这并非八卦,而是用来说明:这些关于层级模块、智能架构的想法,已经影响到真实世界中的技术决策者。Kurzweil暗示,理解大脑结构,并非哲学兴趣,而是工程路线图。

在问答环节,当话题转向“奇点之后会发生什么”,Kurzweil的回答一如既往地大胆。他指出,人类一直在用工具扩展自己,而AI只是这一过程的延续。“we're going to make ourselves literally smarter by merging with AI。”在他看来,这并不是被取代,而是能力的叠加。

这一判断的重要性在于,它重新定义了风险与机会的边界。Kurzweil并不否认变化的剧烈性,但他更强调连续性:就像今天我们已经在做20年前无法想象的事情一样,未来的“不可想象”,终将变成日常。

总结

这场演讲的价值,并不在于预测了哪一年实现AGI,而在于提供了一套连贯的理解框架:指数趋势解释“为什么是现在”,AlphaGo揭示“现有方法的边界”,新皮层提供“下一步的灵感”,而人与AI的融合则给出了长期方向。对读者而言,真正的启发或许是:与其纠结短期应用,不如思考哪些能力,才是跨越数据、任务和时代的通用智能基础。


关键词: 通用人工智能, 深度学习, 神经网络, 少样本学习, 技术奇点

事实核查备注: Ray Kurzweil在MIT 6.S099课程演讲;提出“law of accelerating returns”;提到AlphaGo使用大量在线对局数据训练;强调人类新皮层(neocortex)的层级结构;引用原话包括“all the excitement we see now about deep learning comes from a combination of two things”“trained on every online game”“we're going to make ourselves literally smarter by merging with AI”。