走进AI Town:当AI学会“像人一样生活”,我们学到什么
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
这不是一场关于模型参数的技术演讲,而是一次关于“人是什么”的实验。a16z与Generative Agents论文作者June Park,通过AI Town这一模拟世界,展示了大语言模型如何第一次被用来理解、而不只是模仿人类行为。
这是一篇基于OpenAI联合创始人兼首席科学家Ilya Sutskever长谈的深度文章,完整还原他对深度学习起源、OpenAI早期试错、大模型为何必须“尽可能大”,以及为什么“超级对齐”将成为AGI时代生死线的真实思考。
当 OpenAI 公开把“人类灭绝级风险”写进官方博客时,事情已经不只是 AI 安全那么简单了。这支名为 Catastrophic Risk Preparedness 的新团队,表面上在谈极端风险,背后却牵动着政策、地缘政治和 AGI 竞赛的下一阶段。
环球音乐起诉 Anthropic 索赔7500万美元的同时,YouTube 却在和唱片公司谈合作,用授权歌曲训练AI。同一个行业,两种态度,背后指向的其实是同一件事:AI训练的“灰色时代”正在被强行终结。
Sam Altman 亲口否认 GPT‑4.5 和 GPT‑5,但开发者反而更紧张了。因为真正的猛料,可能不是模型升级,而是 OpenAI 正在悄悄把自己,从“最强聊天机器人”,变成“AI Agent 平台的制定者”。这一步,可能会重塑整个 AI 创业版图。
真正的AI竞争,可能不是模型参数,而是谁先占领你的手机屏幕。Google把Bard直接嵌进Assistant,看似温和,却点燃了AI助手、AI搜索和多模态应用的全面战争,也顺手暴露了所有大厂绕不开的安全与信任难题。
你以为 AI 安全之争是技术问题,其实是一场赤裸裸的权力博弈。纽约时报一篇文章被《AI Daily Brief》拆解后,揭示了一个残酷现实:关于 AI 的所有警告、监管呼声和国家安全叙事,背后站着三股动机完全不同的阵营,而他们正在决定 AI 会把世界带向哪里。
Transformer论文作者、NEAR联合创始人Illia Polosukhin在这期播客中,回顾了Transformer诞生的技术背景,也讲述了NEAR从“AI公司”转向区块链操作系统的关键转折。他给出了对AI Agent、内容真实性与AI对齐问题的独特判断:技术问题背后,往往是人的问题。
Meta 正在秘密推进一个目标直指 GPT-4 的大模型,而且还打算“开源”。与此同时,GPT-4 在商业创意测试中碾压顶级 MBA 学生,Steam 却因为 ChatGPT 封杀独立游戏。这些看似零散的新闻,正在拼出同一幅残酷又真实的 AI 产业图景。
一个开源模型,参数1800亿,训练算力是LLaMA 2的4倍,实测性能击败GPT-3.5——而这还只是开始。Falcon 180B的发布,不只是技术里程碑,更把“强大AI该不该开源”的争论推到了必须表态的临界点。