一个27年没人发现的漏洞,暴露了AI正在重写网络安全的方式
Anthropic 刚刚公开了一件让安全圈后背发凉的事:他们的模型在几周内找到的漏洞,比一位资深安全研究员一辈子发现的还多,其中甚至包括潜伏了27年的操作系统级漏洞。这不是炫技,而是一个信号——AI 已经开始系统性改变网络安全的攻防平衡。
Anthropic 刚刚公开了一件让安全圈后背发凉的事:他们的模型在几周内找到的漏洞,比一位资深安全研究员一辈子发现的还多,其中甚至包括潜伏了27年的操作系统级漏洞。这不是炫技,而是一个信号——AI 已经开始系统性改变网络安全的攻防平衡。
a16z在这期节目里抛出一个极度反直觉的判断:AI的终极角色不是替代你,而是把你变成“一个人的公司”。但前提是,你得会走“远路”。从模型蒸馏、去中心化,到品味、验证与代理性,这期对话几乎重塑了我们理解AI工作的方式。
当全行业还在迷信更大的模型、更贵的算力时,NLP 教父 Chris Manning 却在这期播客里反复强调一件事:真正卡住 AI 的不是规模,而是“有没有结构化的世界模型”。Moonlake 的出现,正是对 Scaling Laws 的一次正面挑战。
一家匿名三年的初创公司,悄悄为财富500强拦截欺诈、核验身份、处理合规。直到宣布2100万美元A轮融资,外界才发现:他们用“自愈式AI Agent”取代规则、人审,正在重写风控的底层逻辑。
很多人以为,AI 的上限取决于模型规模;但在这期播客里,谢辰抛出一个更刺耳的判断:真正限制 AI 和机器人的,不是模型,而是数据本身,尤其是我们如何系统性地制造、筛选和使用数据。这不仅关乎大语言模型,更决定了机器人产业能不能跑起来。
一家做客服的软件公司,训练了一个“只会干一件事”的模型,却在真实指标上击败了GPT‑5.4和Opus 4.5。这不是个例,而是一个信号:在2026年,AI性能的主战场,正在从“更大的通用模型”转向“更狠的垂直模型”。
如果你以为AI的未来只是“更大的模型+更多算力”,那这期对话会让你彻底不安。ARC基准创始人François Chollet直言:AGI可能在2030年前出现,但它未必来自今天这条深度学习主干道。更重要的是,他已经在亲手搭一条“完全不同的路”。
如果你以为科学突破来自天才的完美推理,这期对话会彻底颠覆你。陶哲轩借开普勒和牛顿的故事,提出一个反直觉的类比:很多伟大的发现,更像“高温大模型”的疯狂探索,而不是冷静、一步到位的逻辑演绎。这对今天的 AI 与数学,意味着什么?
如果你还把 AI Agent 当成“高级聊天机器人”,那你已经落后了。就在 Q1 结束前,黄仁勋在 GTC 上抛出一句重话:每一家软件公司,都需要一个 OpenClaw 策略。这不是口号,而是一个信号——AI Agent 正在被集体推向企业级主战场。
“我觉得 AI 很混乱。”这是 Greg Isenberg 在这期 59 分钟大师课里的第一句话,也是一句让无数从业者沉默的实话。Agent、MCP、技能、记忆、工具权限——这些被包装成“未来工作方式”的概念,其实大多数人并没真正搞懂。这篇文章带你把 AI Agent 拆到不能再拆,看看真正有用的到底是什么。