Stripe AI Day 上,Chroma 创始人抛出一个更激进的 AI 记忆路线
大模型还在拼参数、拼上下文窗口时,Chroma 的联合创始人 Anton Troynikov 在 Stripe AI Day 上把注意力拉向了另一件事:可编程记忆与闭环系统。这不是更快的模型,而是会“自己变聪明”的 AI。
大模型还在拼参数、拼上下文窗口时,Chroma 的联合创始人 Anton Troynikov 在 Stripe AI Day 上把注意力拉向了另一件事:可编程记忆与闭环系统。这不是更快的模型,而是会“自己变聪明”的 AI。
GPT-4 终于迎来了一个“不像陪跑者”的对手。Anthropic 推出的 Claude 2,在考试成绩上紧追不舍,却在上下文窗口、价格和安全哲学上走了一条完全不同的路。这不是一次普通的模型升级,而是一次对 OpenAI 统治地位的正面冲击。
如果你以为AI还停留在“看图说话”,这期研究回顾会让你坐不住:AI已经能不经文字,直接把脑电波变成图像;游戏角色开始像真人一样记住你、向你学习;一张照片45秒生成3D模型;而这些能力,正在以工具形态快速落地。
这不是一次普通的API更新。OpenAI悄悄完成了一次“换挡”:从让人惊叹的AI玩具,驶向可落地、可扩展的真实应用。更长的上下文、更便宜的价格,以及一个被严重低估的新能力,正在重塑开发者和普通用户使用ChatGPT的方式。
如果你以为大模型的天花板是算力和参数规模,这条消息会让你重新思考:一个能一次性“读完”500万Token的新型LLM出现了。同时,苹果、Instagram、参议院和硅谷思想领袖,正在从不同方向同时逼近AI的临界点。
如果你以为ChatGPT已经是AI的终局,那你可能低估了这一波技术浪潮的速度。就在多数人沉迷Prompt技巧时,OpenAI、Anthropic 和 Meta 已经同时向前迈了一步:搞懂模型、约束模型、以及——超越语言模型本身。
AI 能把你“想的内容”变成文字了,而且不是关键词匹配,而是理解语义后的复述。这项登上《Nature Neuroscience》的研究,让无数人第一次认真思考:大模型和人脑,可能比我们想象的更像。
Karpathy 在 makemore 第二讲里,亲手演示了一个残酷事实:你以为还能靠统计和技巧硬撑的模型,会在规模一上来时彻底崩溃。而真正的转折点,不是调参,而是那一刻你被迫引入神经网络。
CLIP这类对比学习模型,被认为是多模态时代的基石。但在一个看似“玩具”的SET纸牌游戏里,它却暴露出一个致命短板:当关系、属性和实体一多,向量维度不够,模型会系统性失明。这不是调参问题,而是容量上限。
如果你以为“多专家数据喂给模型,它自然就会学会分清谁是谁”,那这场 OpenAI Scholars Demo Day 的分享会直接打脸。Tyna Eloundou 用一个看似优雅、实则极具野心的框架,展示了:我们不仅能让模型学到多种行为,还能在需要时精准切换它们。