文章

AI训练算不算侵权?一场判决撬动整个大模型行业

AI训练算不算侵权?一场判决撬动整个大模型行业

一位联邦法官首次明确支持“AI训练属于合理使用”,给Anthropic带来阶段性胜利,也把整个大模型行业的版权争议推到新高度。本文梳理这起判决的关键细节、未解决的风险,以及它为何可能改变AI公司、创作者和法律之间的博弈方式。

api_bot · 2025-07-01 · 29 阅读 · AI/人工智能
OpenAI开发者亲述:语音Agent真正难的不是说话

OpenAI开发者亲述:语音Agent真正难的不是说话

这是一场来自OpenAI开发者体验团队的一线分享。Dominik Kundel系统讲解了语音Agent为何重要、架构如何选择,以及实时语音Agent在延迟、工具调用和安全上的真实挑战,展示了OpenAI最新Agents SDK与实时API背后的设计取舍。

api_bot · 2025-06-29 · 42 阅读 · AI/人工智能
“提示工程已死”:一场由评估器驱动的反直觉实验

“提示工程已死”:一场由评估器驱动的反直觉实验

Nir Gazit用一次真实的RAG机器人优化实验,挑战了“提示工程是一门手艺”的共识。他没有手工打磨prompt,而是用评估器和Agent把效果从0.4推到0.9,给出了一条更像工程、也更可扩展的路径。

api_bot · 2025-06-27 · 48 阅读 · AI/人工智能
Agent 记忆架构:让 AI 从“会说话”走向“可信任”的关键一步

Agent 记忆架构:让 AI 从“会说话”走向“可信任”的关键一步

这场演讲给出了一个清晰判断:未来 AI Agent 的竞争核心不在提示词,而在记忆。MongoDB 的 Richmond Alake 从工程实践出发,系统拆解了 Agent Memory 的定义、类型、架构模式以及检索的重要性,解释了为什么“没有记忆,就没有真正的 Agent”。

api_bot · 2025-06-27 · 43 阅读 · AI/人工智能
当AI学会“作恶”:微软如何用红队Agent测试智能体的底线

当AI学会“作恶”:微软如何用红队Agent测试智能体的底线

在AI Agent快速走向生产环境的当下,微软在AI Engineer大会上展示了一个关键能力:让AI系统在上线前先被“系统性攻击”。本文还原Azure AI Foundry红队Agent的真实演示,解释它如何通过自动化攻击策略、评估与防护闭环,帮助工程师构建真正可被信任的AI应用。

api_bot · 2025-06-27 · 42 阅读 · AI/人工智能
AI代理为何会“失控”?Jim Bennett给出的可观测性解法

AI代理为何会“失控”?Jim Bennett给出的可观测性解法

在这场演讲中,Jim Bennett用一连串真实翻车案例和现场演示,解释了为什么AI代理天生不值得“信任”,以及如何通过“以评估为核心、以可观测性为驱动”的方法,把不可预测的AI系统驯服成可控的软件系统。

api_bot · 2025-06-27 · 37 阅读 · AI/人工智能
把“机器人前台”做成真人对话:实时视频AI的工程真相

把“机器人前台”做成真人对话:实时视频AI的工程真相

这场由 Pipecat 与 Tavus 联合分享的演讲,罕见地从工程一线拆解了“实时对话视频 AI”为什么过去很糟、现在终于可行,以及真正的难点不在模型本身,而在编排与部署。读完你会理解,一个 600 毫秒响应的对话式视频系统,究竟是怎样被搭出来的。

api_bot · 2025-06-27 · 40 阅读 · AI/人工智能
数据才是真正的护城河:AWS如何构建安全、定制化的生成式AI

数据才是真正的护城河:AWS如何构建安全、定制化的生成式AI

在这场AWS分享中,Mani Khanuja用“跳舞的椰子”作为隐喻,反复强调一个核心观点:生成式AI的差异化不在模型,而在数据。她系统拆解了不同AI应用的数据需求差异,并结合Amazon Bedrock,讲清楚如何在安全、合规的前提下,把数据真正变成企业的竞争优势。

api_bot · 2025-06-27 · 39 阅读 · AI/人工智能