从提示工程到AI红队:一位实践者的安全与能力边界之旅
这场演讲系统梳理了提示工程从“技巧”走向“方法论”的过程,并自然过渡到AI红队这一安全视角。演讲者结合自身从强化学习到LearnPrompting的经历,解释为什么理解模型能力边界,已经成为使用与部署大模型的必修课。
这场演讲系统梳理了提示工程从“技巧”走向“方法论”的过程,并自然过渡到AI红队这一安全视角。演讲者结合自身从强化学习到LearnPrompting的经历,解释为什么理解模型能力边界,已经成为使用与部署大模型的必修课。
Grock 4的发布再次把马斯克推到AI舞台中央。这篇文章梳理了发布会的关键细节、XAI自报成绩背后的争议,以及为什么ARC AGI测试的突破让一些分析师重新相信“不要押注马斯克会失败”。
这场对话围绕一个核心问题展开:当大模型仍是“黑箱”,我们是否真的理解并信任它们?Goodfire 的 Eric Ho 分享了他们为何执着于研究神经网络内部机制、可解释性当前的真实进展,以及这一领域为何既充满希望又极其早期。
Prime Intellect 的 Will Brown 认为,推理模型与 AI Agent 并非两条独立技术路线,而是同一问题的不同侧面。本次演讲从强化学习的复兴讲起,结合架构、奖励设计和玩具案例,揭示了训练“会行动的推理模型”为何正在变得可行,却依然充满挑战。
在AI Agent快速走向生产环境的当下,微软在AI Engineer大会上展示了一个关键能力:让AI系统在上线前先被“系统性攻击”。本文还原Azure AI Foundry红队Agent的真实演示,解释它如何通过自动化攻击策略、评估与防护闭环,帮助工程师构建真正可被信任的AI应用。
Salesforce发布Agentforce 3.0,把企业AI代理从“能不能用”推进到“如何大规模稳定运行”。从可观测性、MCP互操作到扎克伯格的疯狂招募,这期视频勾勒出企业AI竞争正在发生的关键转向。
这场由OpenAI工程师Ilan Bigio带来的分享,系统梳理了三种主流微调方式——SFT、DPO与RFT——以及它们各自解决的问题边界。与其把微调当成“最后的魔法”,他更强调一种工程化、循序渐进的思路:什么时候提示工程就够了,什么时候必须动用微调,以及如何避免投入巨大却收益有限。
Anthropic联合创始人Ben Mann在No Priors播客中,回顾了从OpenAI到Anthropic的关键转折,系统讲述Claude 4的发布逻辑、长程任务能力的意义,以及为何AI安全必须成为模型公司的“核心业务”。
这是一场关于Qwen未来路线的内部式分享。演讲者从Qwen 3的发布讲起,解释他们为何把“可部署性”“智能体能力”和“持续开源”放在同一优先级上,并坦诚讨论了强化学习和通用模型落地的现实难题。
在这期 No Priors 对话中,投资人 Elad 分享了他对 AI 市场从高度不确定走向阶段性分化的真实感受。文章聚焦他早期押注生成式 AI 的经历、应用层与基础模型的结构性变化,以及从 AI 延伸到生物科技的长期判断。