Yann LeCun 罕见开炮:AI 安全恐慌,正在被大厂用来“收编”整个行业
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。
当大多数国家还在纠结AI偏见和幻觉时,英国却把“人类是否会失控于AI”摆上了全球峰会的主桌。这场争议不断的AI安全峰会,真正的看点不只是政策,而是一次关于AI未来话语权的争夺。
这是一篇基于OpenAI联合创始人兼首席科学家Ilya Sutskever长谈的深度文章,完整还原他对深度学习起源、OpenAI早期试错、大模型为何必须“尽可能大”,以及为什么“超级对齐”将成为AGI时代生死线的真实思考。
这是美国迄今最重磅的一次AI监管出手,却意外制造了两个对立阵营的同时不满:一边担心创新被扼杀,一边认为监管还不够狠。更反直觉的是,它可能正在“暗中扶持”开源模型。
当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。
当所有人都在追逐更大、更封闭的模型时,Mistral 联合创始人 Arthur Mensch 却反其道而行,公开模型权重、押注开源,并直言:只有拿到权重,才真正谈得上安全与可控。这场与 Stripe 创始人 John Collison 的炉边谈话,透露了欧洲 AI 的另一种未来。
你以为 AI 安全之争是技术问题,其实是一场赤裸裸的权力博弈。纽约时报一篇文章被《AI Daily Brief》拆解后,揭示了一个残酷现实:关于 AI 的所有警告、监管呼声和国家安全叙事,背后站着三股动机完全不同的阵营,而他们正在决定 AI 会把世界带向哪里。
一边是900亿美元估值、软银可能入局,另一边是Sam Altman在Reddit“玩笑式”承认AGI已实现。OpenAI在24小时内同时点燃资本市场、技术圈和伦理争议,这不是巧合,而是一种信号。
如果你还以为“AI焦虑”只存在于推特和学术圈,这组最新民调会让你清醒:多数美国人已经不相信AI的好处能盖过风险。但更值得关注的不是恐惧本身,而是——谁在害怕,谁在加速,以及这对AI从业者意味着什么。
ChatGPT 能看图、能听你说话、还能直接开口回应了。这不是一次普通功能更新,而是一次使用范式的断裂式变化。更关键的是,它发生在 Google Gemini 即将登场、AGI 传言四起的时间点。