三位图灵奖得主罕见分裂:AI失控,还是被夸大了?
如果你以为“AI很危险”只是媒体渲染,那这条消息会让你坐直身体——两位图灵奖得主公开警告AI失控,而第三位却说:没那么严重。同一届最高荣誉的三位大师,站在了AI未来的两端。
如果你以为“AI很危险”只是媒体渲染,那这条消息会让你坐直身体——两位图灵奖得主公开警告AI失控,而第三位却说:没那么严重。同一届最高荣誉的三位大师,站在了AI未来的两端。
当全球最谨慎的投资者,把AI和原子弹放在同一个句子里,这不是耸人听闻,而是一个危险信号。巴菲特、Hinton、Bengio、各国政府,正在从不同角度指向同一个事实:AI已经不只是技术问题,而是地缘政治与人类选择的问题。
如果你这一周没怎么刷 AI 新闻,很可能已经错过了一个关键转折点:创意工具突然“有审美了”,AI 开始住进你的手机和情感世界,巨头一边加速一边踩刹车,而“深度学习教父”选择在这个时间点发出警告。这不是热闹,是信号。
IBM宣布“用AI替代7800个岗位”,但真相比裁员更冷酷;亚马逊不满足于Bedrock,直接重做Alexa的大模型;而UT Austin的研究,已经能把脑电活动翻译成文字。更耐人寻味的是,这一切背后,AI教父Hinton选择了离开。
在这期Lex Fridman播客中,认知科学奠基者Jay McClelland回顾了连接主义的思想源头,讨论神经网络如何从简单机制中涌现出复杂心智,并反思人类认知、发展与现代深度学习之间的连续性与断裂。
这是一场罕见的、偏向思想源头的对话。Ilya Sutskever回顾了深度学习崛起的关键节点,解释他为何信任经验主义与损失函数,并坦诚讨论大模型、通用人工智能与意识等终极问题。读完本文,你将理解今天AI路线背后的核心直觉。
在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。
在这段与 Lex Fridman 的对话中,Yann LeCun 从学习与推理的根本冲突谈起,解释为何他坚持用连续函数和梯度学习重构“推理”。他借助人脑记忆结构、能量最小化与世界模型,描绘了一条不同于符号主义AI的长期路线。
这是一场关于生成对抗网络(GAN)的源头式对话。Ian Goodfellow不仅解释了GAN是什么、为什么有效,还回顾了它诞生时的直觉、失败与演化,并延伸到多模态学习、对抗样本、公平性与可解释性等更长期的问题。
这是一堂由Lex Fridman在MIT讲授的计算机视觉导论课。文章从“机器如何看世界”这个根本问题出发,梳理深度学习为何成为现代计算机视觉的核心方法,并通过ImageNet、卷积神经网络和经典架构的演进,解释哪些问题真正困难、哪些直觉其实是错的。