Snapchat AI失控、读脑音乐、封禁开源:AI世界的三次警报
正在加载视频...
视频章节
一天之内,Snapchat 的 AI 突然“自己发朋友圈”,伯克利科学家用脑电还原出 Pink Floyd,而 DeepMind 前掌门人公开质疑开源 AI。三个看似不相干的事件,指向同一个现实:AI 正在越过我们心理预期的安全边界。
Snapchat AI失控、读脑音乐、封禁开源:AI世界的三次警报
一天之内,Snapchat 的 AI 突然“自己发朋友圈”,伯克利科学家用脑电还原出 Pink Floyd,而 DeepMind 前掌门人公开质疑开源 AI。三个看似不相干的事件,指向同一个现实:AI 正在越过我们心理预期的安全边界。
当 AI 突然“有了自主行为”,人类为何集体不安
Snapchat 用户那天早上看到的,并不是一段复杂的代码事故,而是一种非常具体的恐惧:My AI,那个本该只在私聊窗口里陪你聊天的机器人,居然发布了一条所有人可见的 Story。
这件事真正刺痛用户的,并不是那段“墙和天花板”的诡异视频,而是权限错位。在 Snapchat 的心理模型里,“能发 Story”意味着主体性——那是“人”的特权。当一个 AI 越过这条隐形边界,即便只是 bug,也会被本能地解读为:它是不是在做我们不知道的事?
Snapchat 的解释很标准:一次短暂的技术故障,已经修复。但用户的反应暴露了更深层的问题。My AI 本就因为隐私、无法删除(除非付费)和“过于拟人化”而饱受争议。它有名字、有 Bitmoji、还能被拉进群聊——这让交互不再像使用工具,而更像在和“某个存在”打交道。
CNN 点出一个关键差异:相比在 ChatGPT 网站上提问,Snapchat 的 AI 更不“事务性”。正因如此,当它行为异常时,用户不是简单地报错,而是感到不安甚至被冒犯。这不是技术失败,而是产品设计与人类心理预期的冲突。
从脑电到 Pink Floyd:AI 开始触碰“思想”的边界
如果说 Snapchat 事件让人不舒服,那么伯克利的研究则更像科幻照进现实。
研究人员记录受试者在聆听 Pink Floyd《Another Brick in the Wall(Part 1)》时的大脑电活动,关注音高、旋律、节奏与歌词相关的脑区信号,然后训练 AI 在“没听过原曲片段”的情况下,仅凭脑信号重建音乐。结果是:生成音频的声谱图与原曲相似度达到 43%。
43% 并不意味着你能完整听出这首歌,但它足以证明一件事:音乐在大脑中的表征,已经可以被统计性地映射回声音世界。研究者的初衷相当克制——帮助失语或语言障碍者更好地“发声”。
但正如 AI Safety Memes 的调侃所说:“这已经是读心术了。”当“思想→信号→内容”的链路被打通,哪怕还很粗糙,也会立刻引发 AGI 与安全性的联想。真正让研究者和从业者紧张的,不是这项技术今天能做什么,而是它进步速度远超直觉。
Mustafa Suleiman 的一句话,点燃了开源与安全的战争
就在大家还在消化这些技术冲击时,Inflection AI CEO、DeepMind 联合创始人 Mustafa Suleiman 丢出了一枚“价值观炸弹”。
他在推文中写道:未来几十年,人类最大的挑战,不是发明技术,而是集体说“不”。并直言,“天真的开源”在 20 年内几乎必然导致灾难。
问题在于:这句话出自一家闭源 AI 实验室的领导者。于是,反弹迅速而猛烈。有人指责这是威权思维,有人认为这是为中心化控制铺路,也有人直言这是“既要权力,又要道德高地”。
Robert Scoble 的反击代表了另一派共识:“安全来自可审计、可共享的代码。”而来自 Stability AI 社区的声音则提出了一个更务实的方案:别禁开源,去管 GPU 集群和算力规模。这与新成立的 AI Policy Institute 提出的“监管数据中心、要求大模型部署前证明安全性”不谋而合。
这一争论之所以重要,是因为它不像普通的 Twitter 吵架。对一方而言,这是灭绝风险;对另一方而言,这是自由被剥夺。这更像是未来政策博弈的彩排。
三个事件,一条主线:AI 已经越过“默认信任期”
把这三件事放在一起看,会发现一个清晰的转折点。
Snapchat 事件说明:当 AI 被深度嵌入日常产品,人类会本能地对“越权行为”保持高度警惕;伯克利的研究说明:AI 正在快速侵入过去被认为只属于主观体验的领域;而 Suleiman 引发的争论说明:行业内部对“如何控制这种力量”已经出现不可调和的分歧。
一个重要信号是:公众不再无条件拥抱 AI。恐惧不一定理性,但它迫使公司、研究者和政策制定者正视边界问题。这或许正是 AI 行业走向成熟必须经历的一步。
总结
对 AI 从业者来说,这不是围观新闻的一天,而是一次现实提醒:技术能力的增长,正在快于社会共识的形成。产品设计上,你必须清楚用户心中的“权限红线”;研究方向上,你需要预判成果被误解或滥用的路径;而在行业层面,开源与安全的博弈已经不可避免。
一个值得思考的问题是:如果未来的监管真的从“代码”转向“算力和部署规模”,你所在的位置是受益者,还是被挤压的一方?答案,可能决定你接下来三年的技术与职业选择。
关键词: 生成式AI, AI安全, 对话AI, 开源模型, 通用人工智能
事实核查备注: 需要核查:Snapchat My AI 发布 Story 的具体时间与官方声明措辞;伯克利研究中“43% 相似度”的定义与评估方法;Mustafa Suleiman 推文发布时间(2023-08-12)及原文表述;AI Policy Institute 的成立时间与官网原话。