机器人最怕的不是手笨,而是“看不准”:一次视觉估计的反击战
当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。
当机器人能灵巧地转动物体,却因为摄像头轻微挪动就“失明”,问题不在控制,而在视觉。OpenAI 2018 年的一次实习分享,揭开了一个反直觉事实:再强的神经网络,也会被错误的视觉假设拖垮。
在这期Lex Fridman播客中,神经科学家Christof Koch系统阐述了他对“意识是什么”的核心判断:意识不是智能的副产品,而是一种独立存在的主观体验。他结合整合信息理论、泛心论以及对人工智能的思考,给出了区分“会做事的系统”和“有体验的存在”的一套罕见视角。
在这场MIT AGI系列演讲中,OpenAI联合创始人Ilya Sutskever系统阐述了他对通用人工智能的核心判断:为什么神经网络是基础,强化学习和元学习将改变能力边界,以及自博弈和AI安全在终局阶段的重要性。这是一份来自一线研究者的思考框架,而非事后总结。
这是一场关于通用人工智能、宇宙生命与人类未来的深度对话。Max Tegmark从物理学家的视角出发,讨论AGI的潜力与风险,尤其强调AI对齐问题如何决定文明走向。
MIT认知科学传统如何看待AGI?在这场演讲中,Nate Derbinsky系统讲述了“认知架构”这一被低估的路径:它不追逐单点能力,而是试图复刻人类解决多任务的心智结构。
在MIT的AGI课程中,Stephen Wolfram用自己数十年的研究与Wolfram Alpha的实践,讲述了一条不同于主流深度学习的通用人工智能路径:以符号计算为核心,结合现实世界知识与计算模型,构建一种更可解释、也更像“外星智能”的AI。
在这场MIT的公开课上,Ray Kurzweil回顾了深度学习崛起的根本原因,并用人脑新皮层的结构解释为什么当前路径行得通。他不仅谈技术,更谈长期趋势、少样本学习的难题,以及人类在“奇点”之后可能迎来的自我进化。
这是一门并不承诺“很快造出人类级智能”的MIT课程。Lex Fridman从工程师视角出发,坦率讨论当前AI方法的极限、为何我们离AGI仍然很远,以及为什么在谈伦理和安全之前,必须直面技术黑箱本身。
OpenAI联合创始人Wojciech Zaremba在YC的这次分享,没有炫技式的模型细节,而是从个人经历出发,解释为什么机器人、游戏和深度学习是通往通用人工智能的关键路径。这是一堂理解AI“为什么这样发展”的入门课。
在这场YC Startup School的分享中,LinkedIn联合创始人Reid Hoffman并没有从融资技巧或增长黑客讲起,而是从“人性”“认知物种”和“网络效应”这些更底层的问题出发,系统阐述了他眼中真正决定一家创业公司成败的关键因素。