OpenAI工程师内部方法论:不是造更强Agent,而是造好“缰绳”
当所有人都在比拼谁的 Agent 更聪明时,OpenAI 的 Ryan Lopopolo 却在伦敦抛出一个反直觉观点:真正的工程难题不在模型,而在“Harness(缰绳)”。这场演讲揭示了一个正在内部成形的软件新范式——人类负责方向,Agent 负责执行。
当所有人都在比拼谁的 Agent 更聪明时,OpenAI 的 Ryan Lopopolo 却在伦敦抛出一个反直觉观点:真正的工程难题不在模型,而在“Harness(缰绳)”。这场演讲揭示了一个正在内部成形的软件新范式——人类负责方向,Agent 负责执行。
很多人以为AI安全只能靠更大的模型、更贵的系统。但这支视频抛出一个反直觉的结论:用一个成本低到“1美元级别”的微调ModernBERT,就能构建有效的LLM安全护栏,而且不是纸上谈兵,而是真正跑过攻击向量的实战方案。
当所有人都在追逐更大的语言模型时,语音AI却悄悄走在一条更难、更慢、也更接近“人”的路上。ElevenLabs 创始人 Mati Staniszewski 在 Stripe 的这场对谈里,几乎把语音AI的技术演进、数据真相和商业化底牌全摊开了。
如果你还在用“写了多少代码”衡量工程师价值,这期播客会让你不太舒服。Stay Sassy 两位匿名作者在 Latent Space 里抛出的核心观点是:在 AI 时代,真正稀缺的能力不是生产代码,而是删除、约束和管理它——尤其是当 Token 开始像预算一样被管理时。
如果你还以为AI赛道的主角只有OpenAI,这条消息可能会让你愣住:Anthropic的年化收入已经冲到30亿美元,并在统计口径上反超OpenAI。更关键的是,这不是一次偶然爆发,而是一整套商业、算力和客户结构同时拐点的结果。
如果你还觉得大模型只能在云端跑,这场NVIDIA的实测会直接打脸:14B模型本地20 token/s,首token快3.4倍。更重要的不是跑得多大,而是开发者终于能在自己桌边,摸清真实的工程边界。
你以为 AI Agent 的核心是更聪明的模型,但 Greg Isenberg 在这期播客里反复强调:真正拉开差距的,是上下文、流程和“技能文件”。更反直觉的是,模型并不会思考——但你依然可以把它训练得像一个老员工。
上下文窗口越来越大,很多人开始断言 RAG 已经过时。但在这场来自 IBM 的分享里,演讲者几乎是正面“开怼”:RAG 不但没死,而且远比你想象得复杂。更关键的是,他们把这些复杂性做成了一个开源栈——OpenRAG。
如果你的 MCP Server 在本地跑得很顺,恭喜你——它大概率撑不过生产环境。来自 Lenses 的 AI 工程师直言:糟糕的 MCP 设计,本质上就是安全事故的预演。这场分享揭开了 Agent 接口、上下文、Token 与部署之间那些被严重低估的风险。
如果你还以为 AI 竞争只发生在模型参数和算力上,那你已经落后半拍了。Meta 员工在内部“刷 Token”冲榜,Intel 加入 Terafab 押注新制造范式,而 Anthropic 正在把能力递到巨头手里——这期 TBPN 透露的,是一条正在成型、但很少被明说的前沿 AI 竞争逻辑。