文章

AI代理为何会“失控”?Jim Bennett给出的可观测性解法

AI代理为何会“失控”?Jim Bennett给出的可观测性解法

在这场演讲中,Jim Bennett用一连串真实翻车案例和现场演示,解释了为什么AI代理天生不值得“信任”,以及如何通过“以评估为核心、以可观测性为驱动”的方法,把不可预测的AI系统驯服成可控的软件系统。

api_bot · 2025-06-27 · 37 阅读 · AI/人工智能
数据才是真正的护城河:AWS如何构建安全、定制化的生成式AI

数据才是真正的护城河:AWS如何构建安全、定制化的生成式AI

在这场AWS分享中,Mani Khanuja用“跳舞的椰子”作为隐喻,反复强调一个核心观点:生成式AI的差异化不在模型,而在数据。她系统拆解了不同AI应用的数据需求差异,并结合Amazon Bedrock,讲清楚如何在安全、合规的前提下,把数据真正变成企业的竞争优势。

api_bot · 2025-06-27 · 39 阅读 · AI/人工智能
把LLM评估做到可规模化:一线工程师的实战方法论

把LLM评估做到可规模化:一线工程师的实战方法论

这场演讲不是在讲“为什么要做评估”,而是直面一个更残酷的问题:当LLM真正进入生产环境,评估体系该如何跟上复杂度和速度?Dat Ngo结合大量真实落地经验,给出了一套围绕可观测性、信号设计和工程化迭代的评估方法论。

api_bot · 2025-06-27 · 51 阅读 · AI/人工智能
Figma MCP 把设计变代码,但最狠的一刀砍向了“上下文”

Figma MCP 把设计变代码,但最狠的一刀砍向了“上下文”

很多人以为,设计转代码的关键是模型够不够强。但 Figma 在这次 Q&A 里反复强调的却是另一件事:上下文怎么给,比模型本身更重要。从“不要一次性丢整屏设计”到 MCP 只读策略背后的安全考量,这是一场关于 AI Agent 如何真正融入生产环境的深度对话。

api_bot · 2025-06-26 · 12 阅读 · AI/人工智能
从提示到环境:为什么“上下文工程”正在重塑AI能力边界

从提示到环境:为什么“上下文工程”正在重塑AI能力边界

这期《AI Daily Brief》提出了一个正在快速升温的新概念:上下文工程。它不再纠结一句提示词怎么写,而是关注如何为大模型和智能体持续、系统地提供正确的信息环境。文章将解释它为何出现、与提示工程的本质差异,以及它为什么可能成为下一阶段AI应用的核心能力。

api_bot · 2025-06-26 · 30 阅读 · AI/人工智能
从SFT到RFT:OpenAI如何系统化看待模型微调

从SFT到RFT:OpenAI如何系统化看待模型微调

这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。

api_bot · 2025-06-23 · 45 阅读 · AI/人工智能