1万亿参数、4000种语言,AI竞赛正在突然变向
当所有人以为“大模型只会越来越大”,Intel却拿出1万亿参数押注科学研究;Meta用《圣经》训练出覆盖4000种语言的语音模型;而一篇论文却告诉行业:少量微调,反而赢过GPT‑4。这不是热闹,而是方向改变的信号。
当所有人以为“大模型只会越来越大”,Intel却拿出1万亿参数押注科学研究;Meta用《圣经》训练出覆盖4000种语言的语音模型;而一篇论文却告诉行业:少量微调,反而赢过GPT‑4。这不是热闹,而是方向改变的信号。
插件不是给ChatGPT“加功能”,而是把它从聊天机器人推向“可执行系统”。从买菜、订机票,到金融研究、代码分析,这一波插件真正改变的,是AI与现实世界的连接方式。
一封来自Google内部的泄密备忘录,直言“我们没有护城河,OpenAI也没有”。更残酷的是:击败巨头的不是另一家大公司,而是一群拿着开源模型、几百美元预算的开发者。这不是情绪宣泄,而是一份冷静到刺骨的行业判决书。
在这期《No Priors》播客中,Sarah Guo 与 Elad Gil 罕见地放下准备稿,直接回答听众关于开源模型、AI Agent、监管与AGI的尖锐问题。他们从投资者和一线观察者视角,给出了多个清晰判断:开源大模型正在快速追赶闭源巨头,训练成本会持续下降,而真正决定格局的不是技术本身,而是谁能长期跑在前面并把领先优势变成商业结果。
当所有人盯着 Runway、Google、NVIDIA 时,一个被低估的名字正在创作者圈子里疯狂出圈。Kaiber 不只是“又一个 AI 视频工具”,它暴露了一个更残酷的事实:真正能改变创作门槛的,往往不是最会发论文的公司。
马斯克一句“微软非法用推特数据训练AI”,把一场早已暗流涌动的冲突推到台前。几乎同一时间,Reddit开始向AI公司收费,AI版“德雷克”横扫全网又被下架。看似分散的新闻,其实都指向同一个核心问题:谁拥有训练AI的权利?
当所有人都以为算力、数据和资本只会把AI推向更封闭的巨头游戏时,一波开源模型却开始“逆袭”。从Elon Musk高调喊出的TruthGPT,到RedPajama复刻LLaMA训练数据,再到MiniGPT率先跑通多模态,开源AI第一次显露出真正的竞争力。
当所有人都在盯着 ChatGPT、Elon Musk 和 Twitter 时,Greg Isenberg 却在 2022 年做了一连串“反主流”的判断:拒绝 Twitter 的收购、认为 Zapier 被严重低估、把退休重新定义。这不是年度总结,而是一份给 AI 从业者的认知清单。
如果你以为未来属于更大的模型和更多的数据,Josh Wolfe 会当场泼你一盆冷水。在这期访谈里,他把话题从 AI 拉回到一个更底层的问题:能源、认知偏差,以及我们如何被“看似理性的数据”误导。这不是投资鸡汤,而是一套少有人敢讲的底层世界观。
这期Y Combinator对话里,Dalton Caldwell和Michael Seibel用一个网络迷因,解释了为什么“不过度思考”反而是创业者的优势。从Elon Musk到YC申请、MVP决策,他们给出了一套反直觉但极其实用的判断框架。