当机器人进入情感世界:Kate Darling谈社会机器人与人类伦理
MIT研究者Kate Darling在Lex Fridman播客中,从社会机器人出发,讨论了机器人伦理、情感投射、同理心训练以及自动驾驶等现实议题。她并不急于给出答案,而是反复提醒:我们对“人与机器人关系”的证据其实非常有限。
MIT研究者Kate Darling在Lex Fridman播客中,从社会机器人出发,讨论了机器人伦理、情感投射、同理心训练以及自动驾驶等现实议题。她并不急于给出答案,而是反复提醒:我们对“人与机器人关系”的证据其实非常有限。
在这期与Lex Fridman的长谈中,理查德·道金斯把进化论的视角延伸到外星智能、人工智能、宗教与模因传播。他用一贯冷静而锋利的语言,解释达尔文选择如何贯穿生命、思想乃至数字世界,为理解AI与人类未来提供了一条统一的思想线索。
这是一场关于学习、技术判断与现实落地的深度对话。吴恩达回顾了自己从早年接触神经网络、推动MOOC浪潮,到反思深度学习路径选择的关键经验,系统阐述了他对AI教育、技术趋势与产业应用的长期思考。
这是Lex Fridman在2020年初对深度学习领域的一次阶段性回顾。文章提炼了他对深度学习崛起原因、跨学科壁垒、强化学习突破、NLP进展以及AI伦理与AGI边界的核心判断,帮助读者理解当时“最前沿在哪里,又卡在了哪里”。
在与Lex Fridman的对谈中,因果推理之父Judea Pearl罕见地谈论了人类级AI的终极形态。他提出:真正的突破不在算力或数据,而在机器是否具备“自由意志”的雏形——能理解责任、因果与他者的痛苦。这为AI伦理与对齐提供了一条不同于主流路径的思考线索。
在这期Lex Fridman播客中,喜剧演员Whitney Cummings从亲密关系、心理健康出发,讨论了通用人工智能、机器人伦理与人类非理性的本质。她用喜剧化的个人经历,提出了对未来机器人、人类情感和技术控制力的独特洞见。
这期Lex Fridman播客中,宾夕法尼亚大学教授Michael Kearns深入讨论了算法公平性与差分隐私的真实边界。他并未给出简单答案,而是揭示:算法只能解决“低垂的果实”,真正困难的问题仍然需要人类的价值判断与社会共识。
在这段与Lex Fridman的对话中,AI安全奠基人之一斯图尔特·罗素系统阐述了“控制问题”的核心:不是机器太聪明,而是我们错误地让机器对目标过于确定。他提出“让机器保持不确定性、学会谦逊”,这可能是人类与超级智能共存的关键路径。
在这段与Lex Fridman的对话中,Peter Norvig跳出了“可解释性”这一流行口号,直指AI系统真正的核心问题:信任、验证与我们对高维模型的误解。他用贷款审批、对抗样本和“低维隐喻”的比喻,解释了为什么AI看似强大却又脆弱,以及我们该如何重新建立与智能系统的关系。
在与Lex Fridman的对话中,Yann LeCun借《2001太空漫游》里的HAL 9000,讨论了AI伦理中最核心却常被误解的问题:AI并非“作恶”,而是目标设计出了问题。这段对话为理解AI对齐、法律与技术的关系,提供了一个极具洞察力的视角。