当机器人进入情感世界:Kate Darling谈社会机器人与人类伦理

AI PM 编辑部 · 2020年05月23日 · 1 阅读 · AI/人工智能

正在加载视频...

视频章节

MIT研究者Kate Darling在Lex Fridman播客中,从社会机器人出发,讨论了机器人伦理、情感投射、同理心训练以及自动驾驶等现实议题。她并不急于给出答案,而是反复提醒:我们对“人与机器人关系”的证据其实非常有限。

当机器人进入情感世界:Kate Darling谈社会机器人与人类伦理

MIT研究者Kate Darling在Lex Fridman播客中,从社会机器人出发,讨论了机器人伦理、情感投射、同理心训练以及自动驾驶等现实议题。她并不急于给出答案,而是反复提醒:我们对“人与机器人关系”的证据其实非常有限。

为什么“社会机器人”不是科幻,而是现实问题

这一期对话的重要性在于,Kate Darling并没有把机器人当作“未来威胁”,而是当作已经进入社会结构的技术。她的研究核心是“社会机器人”(social robotics),也就是那些会与人互动、被人赋予情感和社会角色的机器。

在播客一开始,她就明确表达了一个反直觉的判断:她并不认为“机器人会在未来20年内夺走所有工作”。这个判断并非乐观主义,而是基于她对技术落地速度与社会适应成本的长期观察。相比“全面取代”,更现实的问题是:机器人正在进入护理、陪伴、教育等高度情感化的场景,而这些领域的伦理讨论明显滞后。

她反复强调一个方法论:当技术形态发生变化时,我们不该急着给出道德结论,而是要先问清楚问题本身。正如她所说的那样,“we just need to ask the question again because we don't have any evidence at all yet(我们需要重新提问,因为目前根本没有任何证据)”。在社会机器人领域,很多争论其实建立在直觉、恐惧或科幻叙事之上,而不是经验数据。

机器人、同理心与“权利”的反常识讨论

为什么要认真讨论“机器人是否应该拥有某种权利”?这个问题听起来荒诞,但Kate Darling给出的理由非常务实。她曾提到自己参加过动物法相关的会议,这段经历促使她思考:我们赋予权利的对象,往往并不完全基于对方的“能力”,而是基于我们如何与其互动。

在她看来,讨论机器人权利并不是为了机器人本身,而是为了人类社会。她提出一个关键观点:与机器人互动,可能是人类“练习同理心”的一种机会。她并不否认这种说法的争议性,甚至主动提到反对者的质疑——“为什么要把同理心浪费在机器人身上?”

她的回应并不激进,而是现实主义的。如果人们已经在对机器人产生情感反应,那么忽视这种行为只会让问题变得更糟。她并没有主张立法赋予机器人法律人格,而是提醒:我们需要理解人类为什么会自然地对非生命体产生道德直觉,这种直觉本身,才是伦理讨论的核心。

性、亲密关系与我们不愿面对的机器人议题

在所有社会机器人话题中,最容易让讨论失焦的,莫过于“性机器人”。Kate Darling非常坦率地指出:几乎每次谈到人与机器人的亲密关系,话题都会迅速滑向性,而这恰恰暴露了社会的不安。

她并没有简单否定或支持性机器人的存在,而是指出其中“变得突出的新问题”。例如,亲密关系是否一定需要对等的主体?如果有人从与机器人的互动中获得情感或心理价值,这种价值是否应该被一概否定?她强调,“all of that can provide value in a different way(这些可能以不同的方式提供价值)”。

在被问到“是否可能爱上机器人”以及“是否可能建立长期、单一的承诺关系”时,她并没有给出确定答案,而是再次回到证据问题:我们目前几乎没有长期研究能说明这些关系会如何影响人类。对她而言,最大的风险不是人爱上机器人,而是我们在缺乏理解的情况下,设计出会操纵人类情感的系统。

从自动驾驶到拟人化:真正的伦理陷阱

除了社会机器人,Kate Darling也参与过自动驾驶相关的伦理讨论。她提到一个极端却直观的例子:在设计算法时,“do you want cars to always run over the homeless people(你希望车总是撞向无家可归者吗)?”这个问题的残酷之处在于,它揭示了伦理并不能被简化为数学最优解。

她进一步将这个问题与“拟人化”(anthropomorphism)联系起来。人类天生会对看起来“像人”的系统产生情感信任,而这种信任可能被设计者利用,形成情感操纵。她并不反对拟人化本身,而是强调:关键在于你“想让人们做什么”。

如果一个系统被设计成让人过度依赖、过度信任,却又不具备相应的责任能力,那么问题不在用户,而在设计逻辑本身。这也是她反复强调伦理应前置于产品设计的原因。

总结

Kate Darling在这次对话中并没有提供简单的答案,而是不断拆解我们对机器人的直觉反应。无论是同理心、权利、亲密关系还是自动驾驶,她都在提醒:真正需要被审视的不是机器人会成为什么,而是人类如何设计、使用并投射情感到这些系统上。对读者而言,这种克制而清醒的视角,本身就是理解AI伦理最重要的起点。


关键词: 社会机器人, AI伦理, Kate Darling, 拟人化, 人机关系

事实核查备注: Kate Darling 为 MIT 研究者,研究方向为社会机器人与伦理;播客为 Lex Fridman Podcast #98,发布时间 2020-05-23;原话引用包括“we don't have any evidence at all yet”“all of that can provide value in a different way”“do you want cars to always run over the homeless people”;讨论主题包括机器人权利、性机器人、自动驾驶伦理、拟人化。