一个人、开源模型,与百万用户的AI应用方法论
Together AI 开发者关系负责人 Hassan El Mghari,用自己四年、每月一个项目的实战经历,拆解了如何用开源模型快速构建 AI 应用,并让其中一部分真正触达百万用户。这不仅是技术分享,更是一套可复制的构建与试错方法论。
Together AI 开发者关系负责人 Hassan El Mghari,用自己四年、每月一个项目的实战经历,拆解了如何用开源模型快速构建 AI 应用,并让其中一部分真正触达百万用户。这不仅是技术分享,更是一套可复制的构建与试错方法论。
这场演讲直指企业AI落地的最大幻觉:只要把数据“准备好”,AI就能可靠工作。Anushrut Gupta用大量真实场景说明,问题不在数据工具,而在AI不懂业务语言,并提出一种“像新人分析师一样成长”的Agentic语义层方案。
MongoDB旗下Voyage AI的Frank Liu,用10多分钟梳理了AI搜索与检索的现状与未来。他不仅回顾了从BM25到Embedding的技术演进,更明确指出:真正拉开差距的不是“用不用向量”,而是Embedding质量、多模态能力,以及是否具备指令理解与推理能力。
这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。
在这场来自NVIDIA的分享中,Sylendran Arunagiri提出了一个反直觉但极具实操性的观点:高效、可扩展的AI Agent并不依赖更大的大语言模型,而依赖持续运转的数据飞轮。通过NVIDIA内部NV Info Agent的真实案例,他展示了如何用不到千条高质量数据,让1B、8B小模型逼近70B模型效果。
这篇文章完整还原了Ronan McGovern关于文本转语音模型微调的实战工作坊,从音频Token化的底层原理,到如何用YouTube数据构建训练集,再到实际微调和效果对比,帮助读者理解现代TTS模型真正“怎么练成”。
这场工作坊不是理论讲解,而是一次完整走通“Agent→日志→数据→微调”的实操演示。Ronan McGovern通过一系列小型Demo,展示了如何用MCP组织Agent上下文,并基于真实运行数据对Qwen 30B模型进行微调。
这是一堂来自Meta一线工程师的“浓缩版AI产品课”。Adam Loving结合大量真实案例,讲清楚了Prompt、Evals、RAG与Fine-tuning之间的取舍逻辑,以及为什么开源模型Llama正在改变企业构建AI产品的方式。
这期《AI Daily Brief》透露了OpenAI下一代硬件设备的关键线索:它很可能不是可穿戴产品。文章围绕Sam Altman与前苹果传奇设计师Jony Ive的合作,解读OpenAI对“AI时代第三设备”的判断,并延展到AI Agent升级、CEO使用AI分身,以及谷歌面临的反垄断审查。
Isa Fulford首次系统讲述了OpenAI Deep Research的诞生过程:从一个“临时拼出来”的Demo,到基于强化学习和工具训练的研究型AI Agent。它揭示了OpenAI如何把推理模型真正带入现实世界任务。