Yann LeCun 罕见开炮:AI 安全恐慌,正在被大厂用来“收编”整个行业
正在加载视频...
视频章节
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
Yann LeCun 罕见开炮:AI 安全恐慌,正在被大厂用来“收编”整个行业
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
当“AI 会毁灭人类”成为政策关键词,真正紧张的人是谁?
这一周,AI 行业的空气明显变了。
一边是拜登刚签下的 AI 行政令,另一边是英国主办的 AI Safety Summit,把“最危险的 AI 情景”推到全球政治舞台正中央。表面上,这是一次负责任的安全讨论;但在行业内部,火药味却前所未有地浓。
争议的核心不是“AI 要不要安全”,而是——谁来定义风险?谁来决定规则?以及,谁会因此获益。
就在这时,Meta 首席 AI 科学家、图灵奖得主 Yann LeCun 直接撕开了那层礼貌的窗户纸:一些大型 AI 公司,正在通过放大对 AGI 和“人类灭绝”的恐惧,来推动对自己有利的监管框架。换句话说,恐慌,正在变成一种战略资源。
同是图灵奖得主,为什么 LeCun 和 Hinton 站在了对立面?
有意思的是,这场争论的主角,并不是“圈外人”。
Yann LeCun、Geoffrey Hinton、Yoshua Bengio——三位 2018 年图灵奖得主,如今却站在了 AI 安全光谱的两端。
当英国 AI 安全峰会把重心几乎完全放在“存在性风险(x-risk)”上时,LeCun 在社交媒体上毫不留情地讽刺:英国首相“感染了 AI 末日论的迷思病毒”。在他看来,真正该让人失眠的不是超级智能,而是更现实的问题——民主会不会被削弱?文化多样性会不会被算法碾平?
而另一边,Hinton 和 Bengio 对 AGI 的潜在失控风险保持高度警惕,认为现在不讨论监管,就是在给未来埋雷。
这不是谁更懂技术的问题,而是对“技术演化路径”的根本判断不同。LeCun 坚信:我们不可能一夜之间造出超智能 AI。AI 会像生物进化一样,从“猫级智能”一步步往上爬,每一步都有时间加护栏。
Open Source 成了最大受害者,还是最大的挡箭牌?
争论真正白热化的地方,在于“开源”。
LeCun 和 Google Brain 联合创始人 Andrew Ng 的立场高度一致:如果监管是基于算力规模、模型参数,或者模糊的“潜在风险”,那最先被扼杀的,一定是开源模型。
Andrew Ng 说得很直白:把 AI 灭绝论无限放大,正在对现实世界造成伤害——它会直接拖慢创新,抬高创业门槛,把 AI 的未来锁进少数几家巨头的保险柜。
反对者当然不买账。Demis Hassabis 在 CNBC 上公开回击,表示他几乎不同意 LeCun 的所有说法,并强调:现在不讨论 AGI 监管,等真正接近时就太晚了。
但一个微妙的事实是:最支持“提前强监管”的,往往正是那些已经拥有最大算力、最强模型、最完整合规团队的公司。
一个罕见共识:别管研究,管落地
在激烈的口水战之外,这期节目里其实出现了一个被低估的共识。
无论立场如何,越来越多从业者开始认同一条底线原则:
——不要用任意的算力阈值或模型规模去监管 R&D,而应该把重点放在最终部署和应用层。
原因很现实。研究阶段的 AI 模型,风险高度不确定;而真正产生社会影响的,永远是“被部署、被使用”的系统。与其试图预测一个还不存在的 AGI,不如先把已经上线的模型管好。
这可能是当前混乱局势中,少数真正可执行的方向。
总结
这场围绕 AI 安全的争论,表面是理念之争,实质却是话语权之争。
如果你是 AI 从业者,这意味着三件事:第一,未来的监管一定会来,但它可能并不“中立”;第二,开源不再只是技术选择,而是政治立场;第三,理解不同阵营的真实动机,会比站队更重要。
一个值得思考的问题是:当“保护人类”成为最强的道德筹码时,我们该如何分辨,哪些是必要的警惕,哪些只是披着安全外衣的行业重组?
这,可能才是 AI 时代真正需要被监管的风险。
关键词: AI安全, 开源模型, 通用人工智能, Yann LeCun, 行业监管
事实核查备注: 需要核查:1)Yann LeCun 关于英国 AI Safety Summit 的原始推文措辞;2)拜登 AI 行政令的发布时间(2023-11-初);3)Demis Hassabis 在 CNBC 采访中的原话;4)Andrew Ng 关于夸大 AI 灭绝风险的具体表述;5)视频发布时间 2023-11-03