AI浪潮中的深呼吸:模型、应用与新创业窗口
这期 No Priors 对话没有追逐单一热点,而是试图在喧嚣的 AI 周期中后退一步,梳理模型能力、应用形态与投资逻辑的系统性变化。Sarah Guo 与 Elad Gil 分享了他们如何看待“最聪明模型”的扩散、像 Devin 这样的新范式,以及为什么当下依然是创业者的好时机。
这期 No Priors 对话没有追逐单一热点,而是试图在喧嚣的 AI 周期中后退一步,梳理模型能力、应用形态与投资逻辑的系统性变化。Sarah Guo 与 Elad Gil 分享了他们如何看待“最聪明模型”的扩散、像 Devin 这样的新范式,以及为什么当下依然是创业者的好时机。
AI 人才开始用“现金”硬抢,AI 搜索可能第一次向普通用户收费,而你以为很智能的系统,背后可能是上千人在盯屏幕。这不是技术乐观主义的故事,而是 AI 真正进入成本、人才和商业化深水区的信号。
当国会还在为AI开听证会,美国国土安全部已经直接上手了。DHS启动3个生成式AI试点,合作对象横跨OpenAI、Anthropic、Meta和云巨头。这不是一场豪赌,而是一次对整个AI产业的“实战测试”。
Google 的新 AI agent 已经能像人一样听指令、玩多款 3D 游戏,但这只是开胃菜。同一周里,OpenAI 因 Sora 训练数据被逼到角落,Midjourney 干脆封杀总统候选人。这三件事拼在一起,指向一个更残酷的现实:AI 正在变强,但行业的“安全边界”正在收紧。
这条新闻你可能已经看过第六遍了,但这一次真的不一样。欧盟议会正式通过《AI Act》,全球第一部全面、具有约束力的AI法律落地。真正值得AI从业者警惕的,不是生成式AI被管了,而是“哪些AI被直接判死刑”,以及这套规则如何悄悄改变整个行业的玩法。
美国政府出资的一份AI安全报告,突然被媒体包装成“人类灭绝倒计时”。但真正值得警惕的,也许不是AI本身,而是这套被反复复制、不断放大的叙事机制。这篇文章带你拆解:报告到底说了什么,媒体又加了什么,以及这场争论对AI从业者意味着什么。
Sam Altman 正式回到 OpenAI 董事会,这句话听起来像没什么戏剧性,但在 AI 圈却炸开了锅。董事会曾亲手把他“请走”,又在数月后迎他归位,这背后不是人事反转,而是一场关于权力、治理与未来路线的深层博弈。
一位在微软工作6年的AI工程师选择“掀桌子”:他公开指控自家AI绘图工具过于容易生成暴力、性化和未成年内容,并一路把问题捅到美国参议院和FTC。这不是一次普通的产品争议,而是生成式AI行业正在集体回避的安全拐点。
Anthropic 刚刚发布 Claude 3,就被圈内人一句话点燃:“还没看测试数据,就知道是 GPT‑4 级别。”更耐人寻味的是,一位以爆料 OpenAI 著称的人突然把注意力转向 Anthropic,甚至放话 CEO“正在感受到 AGI”。这不是一次普通的模型更新,而是一次格局变化的信号。
Elon Musk 把 OpenAI 和 Sam Altman 告上法庭,看起来像一场创始人反目,但真正的战场远不止法律。它关乎 AGI 的控制权、AI 商业化的底线,以及谁有资格定义“为了人类”。这是一场所有 AI 从业者都绕不开的冲突。