三位图灵奖得主罕见分裂:AI失控,还是被夸大了?
如果你以为“AI很危险”只是媒体渲染,那这条消息会让你坐直身体——两位图灵奖得主公开警告AI失控,而第三位却说:没那么严重。同一届最高荣誉的三位大师,站在了AI未来的两端。
如果你以为“AI很危险”只是媒体渲染,那这条消息会让你坐直身体——两位图灵奖得主公开警告AI失控,而第三位却说:没那么严重。同一届最高荣誉的三位大师,站在了AI未来的两端。
好莱坞编剧的罢工,并不只是为了工资,而是一次正面阻击AI写作的行业行动。他们害怕的不是AI不够好,而是它“够用”。这场冲突,正在提前上演所有知识工作者即将面对的现实。
在这期Lex Fridman播客中,机器学习奠基者Michael I. Jordan并没有畅谈科幻式的AI未来,而是反复强调工程理性、统计思维与现实约束。他分享了自己对当前AI热潮的冷静判断、与Yann LeCun等人的关键分歧,以及为什么真正重要的突破往往发生在被忽视的“灰色地带”。
诺贝尔奖得主丹尼尔·卡尼曼在与Lex Fridman的对话中,用“系统一/系统二”框架重新审视当代AI。他认为深度学习取得了惊人的速度型成功,却仍缺乏因果、意义与世界理解能力。这场对话为理解AI的边界与下一步提供了极具洞见的视角。
在与 Lex Fridman 的对话中,Gary Marcus 系统性地反思了深度学习的边界。他认为,当前 AI 最大的瓶颈不在算力或数据,而在缺乏“常识”和可解释的认知模型。本文提炼了他最关键的洞见、经典案例与争议观点。
在这期 Lex Fridman 的播客中,Gary Marcus 系统阐述了他对通用人工智能的核心判断:单靠深度学习远远不够。通过常识推理、语言理解、儿童学习和象棋等具体案例,他提出了一条更现实的路径——将深度学习与符号推理相结合,构建真正可靠的智能系统。