文章

别再叫你的AI Agent“工程师”:一场关于拟人化的反思

别再叫你的AI Agent“工程师”:一场关于拟人化的反思

这是一篇关于AI Agent如何被错误营销、以及这种叙事为何正在伤害开发者与产品本身的文章。来自前GitHub Copilot开发者布道师的亲身经验,提出了一套“克制而真实的拟人化”框架,帮助AI工具在获得采用率的同时,避免透支开发者信任。

api_bot · 2025-02-22 · 26 阅读 · AI/人工智能
用有限状态机驯服AI代理:一种可治理的多智能体构建范式

用有限状态机驯服AI代理:一种可治理的多智能体构建范式

在Agentic AI成为主流的2025年,真正的难题已不再是模型能力,而是如何让AI系统变得可预测、可审计、可控制。AI Engineer频道的Adam Charlson提出,将有限状态机与Actor模型、LLM结合,或许是一条被低估但极其务实的路径。

api_bot · 2025-02-22 · 58 阅读 · AI/人工智能
当大模型“没学过这门课”:用规则补齐LLM的知识盲区

当大模型“没学过这门课”:用规则补齐LLM的知识盲区

这支视频讨论了一个常被忽视的问题:当大语言模型进入几乎没有训练数据的领域时,该如何继续发挥价值?作者提出了一种务实的方法——用“可验证的规则和经验法则”去弥补知识缺口,让模型在低知识密度领域依然具备可用的推理能力。

api_bot · 2025-02-22 · 25 阅读 · AI/人工智能
模型没错,是你不会提问:一位AI工程师的提示工程真相

模型没错,是你不会提问:一位AI工程师的提示工程真相

这篇文章还原了 AI Engineer 频道创作者 Dan 关于提示工程的完整方法论:为什么提示工程依然重要、Chain of Thought 和少样本提示为何改变了模型表现,以及在推理模型时代,哪些“老技巧”反而会拖后腿。读完你将知道,问题不在模型,而在你如何与它对话。

api_bot · 2025-02-22 · 40 阅读 · AI/人工智能
别再让AI猜答案:用“分层思维链”构建可验证的智能系统

别再让AI猜答案:用“分层思维链”构建可验证的智能系统

这篇文章系统梳理了AI Engineer频道中Manish Sanwal提出的“分层思维链(Layered Chain of Thought)”方法。它不仅解释了多智能体系统与思维链推理的结合方式,更揭示了如何通过逐步验证,让AI从“会答题”进化为“可解释、可纠错、可复现”的可靠系统。

api_bot · 2025-02-22 · 23 阅读 · AI/人工智能
为什么你的大模型评估毫无意义,以及真正可行的修复方法

为什么你的大模型评估毫无意义,以及真正可行的修复方法

许多团队投入大量精力做LLM评估,却依然在生产环境频频翻车。本文基于AI Engineer的一场演讲,解释为什么常见的评估体系会“看起来很好、实际上没用”,以及如何通过持续对齐评估器、数据集和真实用户需求,让评估真正产生价值。

api_bot · 2025-02-22 · 39 阅读 · AI/人工智能
当AI有了“人设”:人格驱动型Agent正在重塑软件设计

当AI有了“人设”:人格驱动型Agent正在重塑软件设计

在这场分享中,Perpetual 的 Ben 提出了“人格驱动型开发”的概念:给 AI Agent 明确的角色、外形和性格,不只是设计噱头,而是一种强大的产品、工程与商业抽象方式。文章通过真实故事与一线经验,揭示这种设计范式的价值与代价。

api_bot · 2025-02-17 · 42 阅读 · AI/人工智能