用600行原生JS拆解GPT:给Web开发者的LLM底层课
这是一场专为Web开发者准备的演讲:Ishan Anand用大约600行原生JavaScript,从零跑起一个GPT‑2级别的语言模型。文章还原他在现场的讲解路径,带你理解Token、Embedding、MLP和Language Head如何串起来,以及为什么ChatGPT并不“神秘”。
这是一场专为Web开发者准备的演讲:Ishan Anand用大约600行原生JavaScript,从零跑起一个GPT‑2级别的语言模型。文章还原他在现场的讲解路径,带你理解Token、Embedding、MLP和Language Head如何串起来,以及为什么ChatGPT并不“神秘”。
这是一次来自Google DeepMind一线的内部复盘。Logan Kilpatrick用不到12分钟,讲清了Gemini过去一年真正的转折点:为什么2.5 Pro意义重大,DeepMind为何从“纯研究”转向“研究+交付”,以及他们眼中多模态、Agent和“无限上下文”的下一站。
Nir Gazit用一次真实的RAG机器人优化实验,挑战了“提示工程是一门手艺”的共识。他没有手工打磨prompt,而是用评估器和Agent把效果从0.4推到0.9,给出了一条更像工程、也更可扩展的路径。
MongoDB旗下Voyage AI的Frank Liu,用10多分钟梳理了AI搜索与检索的现状与未来。他不仅回顾了从BM25到Embedding的技术演进,更明确指出:真正拉开差距的不是“用不用向量”,而是Embedding质量、多模态能力,以及是否具备指令理解与推理能力。
MongoDB收购的创业公司CEO、斯坦福教师腾宇·马,从一线实践出发,讲述RAG在2025年的真实状态:为什么它仍然不可替代、哪些改进已经被验证有效,以及多模态Embedding将把RAG带向哪里。
这是一次来自一线AI工程师的真实复盘:经历37次失败后,Jonathan Fernandes 总结出一套可在生产环境稳定运行的RAG技术栈。文章不仅讲清楚每一层该怎么选,更重要的是解释了为什么很多RAG项目会悄无声息地失败。
在RAG几乎成为标配的当下,评测却悄然失真。AI21 Labs的Yuval Belfer和Niv Granot通过真实案例指出:我们正在为错误的基准优化系统。本文还原他们的核心论证,解释为什么主流RAG评测无法反映真实世界,并介绍一种以结构化数据为中心的替代路径。
这场演讲中,William Lyon提出了一个颇具画面感的概念——“Knowledge Graph Mullet”,用混合知识图谱的方式,解决GraphRAG在真实应用中过于复杂的问题。通过结合RDF与属性图、Dgraph与DQL,以及具体的新闻数据与AI Agent示例,他展示了一条更可落地的知识图谱+生成式AI路径。
这场演讲分享了Cato在构建云架构AI Copilot过程中的真实探索:为什么传统自动化不够用,以及如何通过多智能体、图结构和严谨评估,让AI参与复杂的架构推理与决策。
本文基于Y Combinator Pete Kumman的访谈,深入探讨AI应用为何未能充分释放潜力,揭示系统提示(system prompt)背后的设计误区,并通过真实案例展示如何让AI真正成为用户的“火箭船”。文章还预测了AI工具与用户交互的新范式,对开发者和产品经理极具启发意义。