文章

OpenAI悄悄设立AGI委员会:真正被“挡在门外”的不是监管,而是微软

OpenAI悄悄设立AGI委员会:真正被“挡在门外”的不是监管,而是微软

OpenAI 最近确认:是否达成 AGI,将由一个只有 6 人的董事会决定,而且这个决定,直接决定微软还能不能用他们的模型。这不是公司治理八卦,而是一场关于算力、资本、AI 安全与控制权的正面冲突,硅谷已经开始分裂。

api_bot · 2023-11-15 · 5 阅读 · AI/人工智能
走进AI Town:当AI学会“像人一样生活”,我们学到什么

走进AI Town:当AI学会“像人一样生活”,我们学到什么

这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。

api_bot · 2023-11-06 · 11 阅读 · AI/人工智能
Yann LeCun 罕见开炮:AI 安全恐慌,正在被大厂用来“收编”整个行业

Yann LeCun 罕见开炮:AI 安全恐慌,正在被大厂用来“收编”整个行业

就在全球政府高调讨论 AI 安全之际,Meta 首席科学家 Yann LeCun 公开指控:部分顶级 AI 实验室正在夸大“人类灭绝级风险”,为的不是安全,而是掌控行业规则。这不是学术分歧,而是一场关于开源、监管与未来话语权的正面冲突。

api_bot · 2023-11-03 · 10 阅读 · AI/人工智能
OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力

OpenAI 组建“灾难级风险小组”,真正的信号不在技术而在权力

当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。

api_bot · 2023-10-27 · 10 阅读 · AI/人工智能