把200B模型搬到桌下:Jetson Spark让本地LLM不再是玩具
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
在 Latent Space 的这期访谈里,Mistral 团队抛出了一个让很多企业不舒服的观点:你用得越多闭源模型,手里沉淀多年的私有数据价值就越被浪费。同时,他们正式发布了自家的语音生成模型 Voxal(或 Voxtral)TTS,并罕见地深入讲清了音频模型在架构、token 与部署层面的真实难题。
一家做客服的软件公司,训练了一个“只会干一件事”的模型,却在真实指标上击败了GPT‑5.4和Opus 4.5。这不是个例,而是一个信号:在2026年,AI性能的主战场,正在从“更大的通用模型”转向“更狠的垂直模型”。
如果你还把 NVIDIA 当成一家“卖 GPU 的公司”,那你已经落后了至少一个时代。在这期 Lex Fridman 的长谈中,黄仁勋用近乎残酷的坦诚,讲清了 NVIDIA 为何押上整个组织,从芯片公司进化为“AI 工厂设计商”,以及这场转型对所有 AI 从业者意味着什么。
当 AI agent 拿到自己的信用卡,这不只是一个支付功能更新,而是一个信号:AI 正在从“工具”变成“能独立行动的经济体成员”。更耐人寻味的是,Anthropic 反超 OpenAI、Sora 回归 ChatGPT、马斯克的 MacroHard 再起,这些看似零散的新闻,其实指向同一个拐点。
当所有人还在纠结要不要微调模型时,YC 的一场对话直接掀桌:有团队用更便宜、更快的方法,让大模型在不微调的情况下持续变强。这不是提示工程的小修小补,而是一种可能改写 AI 应用范式的新思路。
大多数人把OpenClaw当成一个“会跑任务的AI工具”,但这期播客里,Greg Isenberg和Nick反复强调一件反直觉的事:它更像一个需要被管理、被训练、被优化的员工。真正的机会,不在炫技,而在把它变成能持续创造业务结果的机器。
当所有人还在讨论模型规模和算力时,Prime Intellect 的两位研究者抛出一个反直觉判断:真正卡住 AI 研究的,已经不是数据,而是“环境”和“评估”。他们正在做的事情,可能会重塑强化学习、后训练和 AI Agent 的整个工作方式。
如果我告诉你,只靠几个奇怪的提示词和API调用,就能“反向工程”出GPT-4在不同阶段吃过什么数据,你会不会觉得有点越界?在这期 Latent Space Lightning Pod 里,Datology 创始成员 Pratyush Maini 用一系列看似玩笑的实验,揭开了大模型训练数据、预训练阶段,甚至安全机制的真实边界。
如果你还在纠结“哪个大模型会赢到最后”,这期 Lex Fridman 的对话可能会直接颠覆你的默认认知。在 Sebastian Raschka 和 Nathan Lambert 看来,2026 年的 AI 竞争,赢家不是某一个模型,而是一整套新的玩法:开源与闭源并存、速度与智能取舍、后训练比架构更重要,以及一个被低估的关键词——“多模型时代”。