从Afterparty聊到未来:人类如何与AI并肩创作
这场发生在Google I/O之后的非正式对谈,没有发布新产品,却罕见地展现了创作者、投资人和研究者如何理解“人类—AI协作”的下一步。从UI形态到影视创作,再到Notebook式工具,视频提供了许多只能在现场才能听到的真实判断。
这场发生在Google I/O之后的非正式对谈,没有发布新产品,却罕见地展现了创作者、投资人和研究者如何理解“人类—AI协作”的下一步。从UI形态到影视创作,再到Notebook式工具,视频提供了许多只能在现场才能听到的真实判断。
Andrew Thompson 结合自己在 AI Agent 一线交付产品的经验,提出了“Prompt Tax”这一概念:为了快速站上模型能力前沿,团队必须提前透支复杂性和风险。本文还原他在演讲中的核心洞见、真实案例与方法论,帮助工程团队理解如何在速度与稳定性之间做出理性的工程选择。
这是一场关于终极野心的对话:从强化学习到多模态模型,Max Jaderberg讲述Isomorphic Labs如何在AlphaFold之后,试图把AI真正变成药物设计的通用引擎。
DeepMind 的 AlphaProof 团队在 No Priors 节目中首次系统讲述了他们如何将 AlphaZero 的思想迁移到数学证明领域。本文提炼了对“数学作为搜索空间”的关键洞见、测试时强化学习的突破,以及这一系统对 AI 推理能力边界的真实启示。
如果你在一家顶级AI实验室工作,发现系统可能失控,你敢不敢说?一封由OpenAI、DeepMind、Anthropic前员工联名的公开信,把“AGI风险”“封口协议”“举报权利”推到台前,也暴露出AI安全讨论正在发生的微妙转向。
Google 的新 AI agent 已经能像人一样听指令、玩多款 3D 游戏,但这只是开胃菜。同一周里,OpenAI 因 Sora 训练数据被逼到角落,Midjourney 干脆封杀总统候选人。这三件事拼在一起,指向一个更残酷的现实:AI 正在变强,但行业的“安全边界”正在收紧。
马斯克起诉OpenAI,指控其背叛“开放使命”。但OpenAI直接放出了邮件证据:转向营利不是背叛,而是马斯克亲自推动的方案之一,甚至包括并入特斯拉。这场纷争,远不只是“开不开源”那么简单。
这期《No Priors》年度精选,把2023年最重要的AI对话串联在一起:从OpenAI的非营利初心,到DeepMind与创业者的现实反思,再到模型与算力的根本问题。本文提炼其中最有价值的洞见与故事,帮助你快速理解这一年AI思考方式的变化。
今年 AI 最被低估的一次突破,可能不在大模型,而在材料科学。Google DeepMind 用一个叫 GNoME 的模型,一口气预测出 220 万种全新晶体结构,其中 38 万种被认为“理论上稳定”。这不是论文数字游戏,而是可能直接改写电池、芯片、超导体研发方式的一次范式转移。
Mistral AI CEO Arthur Mensch在《No Priors》中分享了他离开DeepMind、创立开源AI公司的关键思考:为什么开源模型正在重塑技术版图,以及他对模型规模、数据、与AI安全争议的不同判断。