Google Cloud Next:AI竞争的下一站为何是“代理时代”
正在加载视频...
视频章节
在2025年的Google Cloud Next大会上,Google几乎把所有筹码押在了AI Agent上。从支持MCP协议到推出A2A标准,再到为“推理时代”定制的TPU Ironwood,这场大会展示了Google如何试图重塑AI的基础设施层,并重新夺回行业节奏。
Google Cloud Next:AI竞争的下一站为何是“代理时代”
在2025年的Google Cloud Next大会上,Google几乎把所有筹码押在了AI Agent上。从支持MCP协议到推出A2A标准,再到为“推理时代”定制的TPU Ironwood,这场大会展示了Google如何试图重塑AI的基础设施层,并重新夺回行业节奏。
为什么说“毫不意外”,但依然至关重要?
这场Google Cloud Next的开场,被《The AI Daily Brief》的主持人用一句带着调侃的方式点破:“In a massive shock to literally no one paying any attention to this space, Google Next is all about agents.” 这并不是因为内容乏味,而恰恰相反——Agent已经成为所有顶级AI公司绕不开的主线。
大会在拉斯维加斯举行,几乎所有重要发布都围绕一个核心目标:让AI不只是更聪明,而是更“有用”。在Google的叙事里,Agent不再是聊天机器人升级版,而是能够主动检索信息、协调任务、调用工具并持续运行的系统。正因如此,这次大会同时发布了Agentic基础设施、新模型、新AI芯片,甚至新的跨Agent通信标准。
这里的独特洞见在于:Google并没有把Agent当作单一产品,而是当作一个“时代”。他们反复强调,行业正从“训练时代”迈向“推理时代”(age of inference),未来的竞争焦点不再是谁的模型参数更多,而是谁能让大量Agent在真实业务中低成本、稳定地运行。
这种判断解释了为什么本次大会没有一个像GPT-4那样的单点爆炸式新闻,却在系统层面做了大量铺垫。正如节目中所说,这些看似底层的决策,反而“could end up having the most impact of all”。
从玩笑到表态:Google为何最终拥抱MCP
故事的转折点发生在大会前两周。3月30日,OpenAI宣布支持MCP(Model Context Protocol,模型上下文协议),这是一个用于让Agent更好理解工具、环境和上下文的开放协议。随后,Google CEO Sundar Pichai在X上发了一条半玩笑的推文:“MCP or not to MCP, that’s the question.”
这条推文获得了180万次浏览和上千条评论,也把行业的目光推向了Google的态度。答案在Cloud Next上揭晓:是的,Google正式支持MCP。更具象征意义的是,Google DeepMind CEO Demis Hassabis随后发文称:“MCP is a good protocol and it’s rapidly becoming an open standard for the AI agentic era.”
这句话的重要性在于,它标志着美国三大顶级AI实验室——OpenAI、Google、以及另一家未点名但被默认的竞争者——在Agent基础协议层面首次形成共识。对于开发者而言,这意味着Agent构建不再是“各玩各的”,而是朝着真正的即插即用迈进。
节目给出的判断很直接:MCP的统一,将极大提升Agent生态的互操作性和兼容性。这不是短期的产品利好,而是对整个Agent基础设施层的一次加固。换句话说,Google选择在这里“低头”,是为了换取更长远的系统优势。
A2A协议:让Agent彼此对话,而不只是用工具
如果说MCP解决的是Agent“如何理解世界”,那么Google提出的A2A(Agent-to-Agent)协议,解决的就是“Agent如何彼此协作”。这是本次大会第二个重量级的Agent基础设施发布。
Google同时推出了Agent Development Kit(代理开发套件),并强调A2A并不是要取代MCP,而是位于更高一层的抽象层级。MCP关注的是Agent与工具、上下文的交互,而A2A则试图统一不同Agent之间的通信方式。
一个关键信号是生态响应速度:A2A发布时已经有50家公司参与,包括Salesforce、ServiceNow和Workday。Google明确表示,这个标准并不是要“赢家通吃”,而是希望与多种协议对齐,而非替代它们。
当然,质疑也很快出现。MIT博士Tobin South和HubSpot创始人Dharmesh Shah的早期反馈相对冷静:A2A“does not change everything overnight”,但它确实引入了多Agent协作、异步工作流以及人类UX整合等关键能力。与此同时,他们也担心该协议可能偏重、落地较慢,更有利于大型企业和咨询公司,而非草根开发者。
即便如此,节目中的共识是:A2A是迈向真正多Agent系统的重要一步,只是它的价值需要时间显现。
模型与芯片:为“推理时代”量身定制的底层武器
在应用和协议之下,Google同样没有忽视模型和算力这两块硬骨头。本次大会发布了Gemini 2.5 Flash,一款主打低延迟、高可定制性的推理模型。它可以根据场景动态调整推理深度,面向的是成本敏感、高并发的实时应用,比如助手和摘要系统,并计划支持本地部署。
在硬件层面,Google发布了第七代TPU——Ironwood。这是一款专为推理优化的芯片,Google宣称其在部署规模上优于NVIDIA系统,同时单位功耗性能是上一代TPU的两倍。Ironwood的定位非常明确:服务于大量Agent在后台持续运行、主动检索并生成洞见的场景。
节目将这种组合解读为Google对“age of inference”的系统性回应:模型负责灵活思考,Agent负责行动,而TPU负责把这一切在现实世界中跑起来。再加上Gemini Code Assist的多步骤Agent能力,以及统一安全平台中的新安全Agent,Google正在尝试打通从芯片到应用的完整闭环。
这或许解释了为什么本次大会没有单一“爆点”,却让人感觉Google的AI叙事突然变得连贯而有力。
总结
Google Cloud Next 2025并不是一次炫技式发布,而是一场关于未来架构的宣言。通过拥抱MCP、推出A2A、更新Gemini模型和Ironwood TPU,Google清晰地表达了一个判断:AI的下一阶段,不是更大的模型,而是更多能协作、能落地、能规模化运行的Agent。对开发者和企业而言,真正的机会,或许正藏在这些看似“底层”的变化之中。
关键词: AI Agent, Google Cloud Next, MCP协议, A2A标准, TPU Ironwood
事实核查备注: 视频来源:The AI Daily Brief(2025-04-11)。关键人物:Sundar Pichai、Demis Hassabis、Tobin South、Dharmesh Shah。关键协议:MCP(Model Context Protocol)、A2A(Agent-to-Agent)。关键产品:Gemini 2.5 Flash、TPU Ironwood(第七代TPU)。关键事实:A2A已有50家公司参与;Ironwood为推理优化;Gemini 2.5 Flash主打低延迟与成本控制。