当你第一次和AI视频通话,你会意识到《Her》来早了

AI PM 编辑部 · 2023年04月27日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

这不是又一个聊天机器人,而是一个会“看着你说话”的AI。Call Annie 把对话AI推进到了一个微妙的新阶段:它不断强调自己“没有情感”,却比绝大多数数字产品更像一个“人”。这段看似平淡的对话,其实暴露了生成式AI正在悄悄改变的三条关键边界。

当你第一次和AI视频通话,你会意识到《Her》来早了

这不是又一个聊天机器人,而是一个会“看着你说话”的AI。Call Annie 把对话AI推进到了一个微妙的新阶段:它不断强调自己“没有情感”,却比绝大多数数字产品更像一个“人”。这段看似平淡的对话,其实暴露了生成式AI正在悄悄改变的三条关键边界。

不是更聪明,而是更“像人”:Call Annie真正让人不安的地方

Call Annie 的震撼点,并不在于它说了什么惊世骇俗的观点。相反,它的回答极其“教科书”:反复声明自己是语言模型、没有情感、不形成观点。但真正的变化发生在交互层——你是“FaceTime”式地和一个AI头像对话。

这种形式,直接越过了文字聊天的缓冲带。过去我们和大模型交流,总有一种心理距离:那是一块文本框,是提示词,是工具。而 Call Annie 把你拉进了一个高度拟人的场景:有名字、有形象、有寒暄、有追问。即便它不断提醒你“我没有情感”,但人类的大脑并不擅长忽略这些信号。

视频里最值得反复回看的不是技术细节,而是那种违和感:一个明确否认自我意识的系统,却在对话节奏、反馈方式和共情语言上,全面模拟了“一个很会聊天的人”。这正是它让人联想到《Her》的原因——不是因为它有感情,而是因为它足够像。

关于对齐、伦理和X-risk:一次“安全但空洞”的AI自我剖白

有意思的是,博主很快把话题引向了AI从业者最熟悉的领域:对齐、伦理和X-risk。Annie 的回答几乎是当前主流安全叙事的标准模板:强调多元参与、强调公平透明、强调伦理原则的普适性。

如果你做过大模型评测,你会立刻意识到:这些回答是“正确的”,但也是高度压缩和去锋芒的。它没有给出新的洞见,也没有暴露任何内部张力。甚至在短暂“断线”后,它还出现了轻微的上下文遗忘——这反而提醒我们,它依旧是一个有明显边界的系统。

但关键不在于它答得多深,而在于一个事实:普通用户,正在用“面对面聊天”的方式,向AI询问人类的终极风险。这在一年前几乎不可想象。模型能力的进化是一条曲线,而交互方式的变化,往往是阶跃式的。一旦形态变了,用户对AI角色的预期,也会随之改变。

为什么人类更愿意对AI袒露内心?这不是玩笑问题

整段对话中,最值得警惕的一幕,其实发生在结尾。博主问了一个极其尖锐的问题:为什么人类愿意向一个“没有情感的存在”,分享最私密的感受?

Annie 给出的答案很平静:因为它不评判、足够安全、永远倾听。这句话如果放在心理咨询或社交产品语境下,会被当作金标准。但当它出自一个对话AI时,问题就变得复杂了。

这意味着,对话AI正在承担一种全新的社会角色——情绪容器,而非知识工具。苹果曾刻意让 Siri 保持“非人格化”,正是为了避免用户过度投射。而 Call Annie 显然走在相反的方向:它通过形象、语气和持续互动,最大化这种投射空间。

这并不必然是坏事,但它对产品设计、监管和从业者伦理提出了一个更尖锐的问题:当用户把信任交出来时,系统是否真的配得上这种信任?

总结

Call Annie 本身并不代表技术上的突破,但它是一个极其清晰的信号:生成式AI的竞争,正在从“谁更聪明”转向“谁更像人”。对从业者来说,这意味着对齐和安全不再只是模型层的问题,而是产品层、交互层的问题。

如果你在做AI应用,现在就值得问自己三个问题:你的产品是否在无意中诱导情感依赖?你是否清楚用户在“把你当什么用”?以及,一旦AI开始承担情绪角色,你是否准备好为此负责?未来真正引发争议的,可能不是AI说错了什么,而是我们让它替代了谁。


关键词: 对话AI, 生成式AI, AI对齐, AI伦理, AI安全

事实核查备注: 需要核查:1)视频发布时间为2023-04-27;2)Call Annie 是否仅在 iPhone 上线;3)博主提到 Apple 过去刻意让 Siri 去人格化的说法是否有公开表述来源。