正在加载视频...
视频章节
在这期Lex Fridman的播客中,统计学习理论奠基人Vladimir Vapnik系统阐述了他对机器学习、智能与数学本质的思考。他不仅回顾了VC维与SVM的思想源头,更直言批评深度学习的直觉主义倾向,提出“谓词”和“不变性”才是通向真正智能的钥匙。
Vapnik的学习理论:为什么预测不等于理解世界
在这期Lex Fridman的播客中,统计学习理论奠基人Vladimir Vapnik系统阐述了他对机器学习、智能与数学本质的思考。他不仅回顾了VC维与SVM的思想源头,更直言批评深度学习的直觉主义倾向,提出“谓词”和“不变性”才是通向真正智能的钥匙。
从“上帝是否掷骰子”谈起:概率并不等于现实
这个对话的开场并不技术化。Lex Fridman抛出一个物理学式的问题:“上帝是否掷骰子?”Vapnik的回答立刻展现了他一贯的思想锋芒。在他看来,概率并不是世界本身的属性,而是人类在信息不完整条件下使用的一种工具。他区分了三种立场:未知因素导致的随机性、工具主义视角下的概率,以及相信概率就是现实本身的现实主义。
为什么这点重要?因为机器学习几乎完全建立在概率语言之上。Vapnik提醒,如果我们忘记概率只是“工具”,就会误把预测当作对世界的理解。他明确指出:“条件概率描述的是数据之间的关系,而不是现实生成这些数据的机制。”这为后续他对机器学习的根本性批评埋下了伏笔。
这个讨论也揭示了Vapnik一贯的态度:他并不反对概率方法本身,而是反对把工具当成真理。当模型给出一个高置信度预测时,我们其实只是在使用一种有效规则,而不是触及世界的本质结构。
预测规则 vs. 理解世界:机器学习的根本分歧
在谈到机器学习的目标时,Vapnik提出了一个尖锐区分:学习预测规则,与理解现实机制,是两件完全不同的事。现代机器学习,尤其是深度学习,更关注前者——只要在测试集上表现好,就被视为成功。
Vapnik并不否认预测的工程价值,但他认为这条路径无法通向科学意义上的理解。他用非常直接的话说:“一个好的预测规则,不等于一个好的解释。”在统计学习理论中,学习的目标是从有限样本中选择一个可接受的函数,而不是逼近所谓的“真实函数”。
这也是他反复强调VC维(Vapnik–Chervonenkis dimension)的原因。VC维衡量的是一个函数集合的容量,即它能拟合多复杂的数据模式。容量过大,即使训练误差为零,也无法保证泛化。这一思想构成了统计学习理论的核心,与当下“更大模型、更大数据”的直觉形成鲜明对比。
在Vapnik看来,机器学习真正的科学问题不在于算力,而在于:我们如何约束函数空间,使学习成为可能。
数学之美与反直觉:为什么直觉经常是敌人
从尤金·维格纳关于“数学在自然科学中不合理有效性”的论文谈起,Vapnik把话题引向数学之美。他坦言,真正重要的数学原理往往既简单又反直觉,这正是它们有价值的原因。
他对人类直觉持高度怀疑态度,尤其是在高维空间中。“直觉是在低维世界进化出来的,”他指出,“而学习理论的问题几乎都发生在高维空间。”因此,依赖直觉设计模型,往往会导致复杂但脆弱的系统。
Vapnik反复强调,通过严格推导得到的原理,往往比凭感觉设计的模型更可靠。他将这种态度贯穿于自己的科研生涯,从早期的统计学习理论,到后来对不变性和谓词的研究,始终追求“用最少假设,得到最强结论”。
这种对结构与简洁的迷恋,也解释了他为何对当前深度学习的经验主义趋势保持距离。
谓词、教师与“像鸭子一样”:减少学习所需的数据
在播客中最生动的部分,来自Vapnik对“谓词(predicate)”的讨论。谓词可以理解为高层次的属性或判断标准,它们并不直接来自数据,而是来自知识、语言或教师的引导。
他用一个形象的比喻解释这一点:如果我们告诉系统“像鸭子一样走、像鸭子一样叫”,我们就大幅缩小了需要搜索的函数空间。Vapnik直言:“谓词的作用,是减少可接受函数的集合。”这意味着,在有合适谓词的情况下,学习可以用极少的数据完成。
这里,“教师”的角色变得至关重要。教师通过语言、比喻和不变性假设,把高信息量的谓词注入系统,而不是让模型从零开始统计。这与当前端到端训练的范式形成鲜明对比。
Vapnik认为,真正的智能不在于处理更多样本,而在于生成和利用高信息量的谓词。这也是他对少样本学习长期关注的理论基础。
批评深度学习:缺失的不变性与理论边界
当话题转向深度学习时,Vapnik的态度相当直接。他承认深度学习在工程上的成功,但强调其理论基础仍然薄弱。他尤其反对用实验效果替代理论解释的做法。
在他看来,深度网络往往依赖巨量数据来“隐式”学习不变性,而不是在模型结构中明确编码这些不变性。这导致系统对分布变化极其敏感。他指出:“如果你不知道系统在最坏情况下会发生什么,你就没有真正理解它。”
这也是他强调最坏情况分析和复杂性边界的原因。统计学习理论关心的不是平均表现,而是保证在什么条件下学习一定失败、一定成功。
Vapnik最后提出一个近乎宣言式的判断:不变性可能是终极的学习理论方向。谁能用更少的数据、更明确的结构完成识别任务,谁才真正推进了智能研究。
总结
这场对话展现了Vapnik一以贯之的思想:预测不是理解,规模不是答案,直觉往往是陷阱。从VC维到谓词与不变性,他始终在寻找能够约束学习、提升信息效率的理论结构。对今天的机器学习研究者而言,这不仅是一次对深度学习热潮的冷静反思,更是一份关于“什么才是智能核心”的长期挑战书。
关键词: Vladimir Vapnik, 统计学习理论, VC维, 谓词, 不变性
事实核查备注: Vladimir Vapnik;Lex Fridman Podcast #5;VC维(Vapnik–Chervonenkis dimension);统计学习理论;支持向量机(SVM);不变性(invariance);谓词(predicate);深度学习批评;少样本学习