AI安全的新秩序:Nikesh Arora谈幻觉、控制权与平台博弈
这期Sequoia的对谈中,Palo Alto Networks CEO Nikesh Arora并未讨论炫目的模型参数,而是把注意力放在更难的问题上:当AI成为“新大脑”,谁还能真正控制它?从幻觉风险到平台权力变化,他给出了少见的安全视角。
这期Sequoia的对谈中,Palo Alto Networks CEO Nikesh Arora并未讨论炫目的模型参数,而是把注意力放在更难的问题上:当AI成为“新大脑”,谁还能真正控制它?从幻觉风险到平台权力变化,他给出了少见的安全视角。
AlphaGo 之后,AGI 真的更近了吗?在这场对话中,AlphaGo 与 MuZero 的核心工程师 Ioannis Antonoglou 回顾了 DeepMind 从围棋出发的真实决策、技术不确定性与关键转折,并分享了他对强化学习、幻觉问题以及下一代 AI Agent 的判断。
在这期 Sequoia AI Ascent 的访谈中,Kumo AI 联合创始人兼工程负责人 Hema Raghavan 讲述了一个核心命题:为什么几乎所有企业天生都拥有“图”,却很少真正从图神经网络中获得 ROI。她分享了 Kumo 的产品哲学——让复杂的图学习对业务透明,同时又为资深数据科学家保留“掀开引擎盖”的自由。
当“AI智能体”还停留在技术圈热词时,主流商业世界已经开始行动。通过《华尔街日报》报道的5个企业案例,以及Google的一份关键白皮书,这篇文章还原了2025年企业部署AI智能体的真实起点、边界与方法论。
如果AI Agent不是帮你跑5分钟任务,而是能连续“活”上一周,会发生什么?在OpenAI DevDay上,Altera给出了一个让全场安静的答案:AI会自发形成宗教、经济、协作与长期目标。这不是科幻,而是一次对Agent致命缺陷的正面挑战。
在 OpenAI DevDay 的舞台上,Tortus 团队抛出一个刺痛行业的事实:在医疗场景里,LLM 最大的风险不是不够聪明,而是“看起来太聪明”。一次无意的幻觉,可能直接影响患者决策。这不是一场炫技分享,而是一堂关于如何把大模型真正送进生产、还不伤人的硬核课。
在 OpenAI DevDay 的舞台上,Sierra 抛出一个让所有 AI Agent 团队不太舒服的事实:你的智能体“看起来能跑”,并不等于“真的可靠”。TAU-bench 用一种近乎残酷的方式证明——只跑一次评测,几乎毫无意义。
OpenAI终于发布Sora视频生成工具。它在画面质感和创作自由度上令人惊艳,却依然被“物理一致性”拖住后腿。这篇文章将还原视频中的真实体验、争议与洞见,解释为什么Sora更像一次创作范式的转折,而不是技术终点。
GitHub Copilot 的创造者、XBOW CEO Oege de Moor 在这次访谈中,讲述了一个正在发生但被低估的趋势:AI 不只在写代码,也在系统性放大安全风险,并首次让“进攻型安全”走向全面自动化。
很多人还在纠结提示词工程,但真正拉开AI应用差距的,其实是RAG。这门由 Mckay Wrigley 讲授的课程,用一个完整真实项目证明:不懂RAG,你的AI永远只是在“表演智能”。