Google Cloud生成式AI的真实路线:从内部狗粮到企业规模化
正在加载视频...
视频章节
这期 No Priors 播客中,Google Cloud CTO办公室生成式AI负责人 Kawal Gandhi 罕见地系统讲述了 Google 内部如何使用生成式AI、再将其产品化并推向企业市场的全过程。从 Workspace 的“狗粮实验”,到企业采用大模型的真实路径,再到成本、信任与多模态的未来,这是一份来自一线的冷静判断。
Google Cloud生成式AI的真实路线:从内部狗粮到企业规模化
这期 No Priors 播客中,Google Cloud CTO办公室生成式AI负责人 Kawal Gandhi 罕见地系统讲述了 Google 内部如何使用生成式AI、再将其产品化并推向企业市场的全过程。从 Workspace 的“狗粮实验”,到企业采用大模型的真实路径,再到成本、信任与多模态的未来,这是一份来自一线的冷静判断。
从搜索广告到生成式AI:一条被“客户需求”推着走的路径
为什么 Google 会在云和生成式 AI 上走到今天这一步?Gandhi 的答案并不宏大,反而非常务实。他最早在 Google 从事搜索和广告工作,直接面对的是购物、旅游等高度商业化的查询场景。这些广告主的核心诉求并不是“AI”,而是更好的效果——更低延迟、更强算力、更大规模的数据处理能力。
正是这些需求,把团队一步步推向了 Cloud。当广告主开始需要复杂的存储、计算和机器学习流水线来优化广告表现时,Google 发现自己不得不把“内部用得很成熟的东西”变成对外的云能力。Gandhi 回忆说,一开始客户更看重的是“数据 + AI”能否成为差异化能力,而不是单点功能。
这也解释了为什么 Google Cloud 的 AI 路线从一开始就高度强调数据、安全、隐私和低延迟,而不是单纯的模型参数规模。他直言:Google 内部早就有工具和框架,但真正困难的是,把这些技术改造成“既能服务高度监管行业,也能覆盖普通企业”的平台能力。这条路走得慢,但决定了今天 Google Cloud 在生成式 AI 上的底色。
Workspace里的“狗粮实验”:生成式AI如何先改变Google自己
当被问到哪些生成式 AI 用例真正推动了产品对外发布时,Gandhi 的回答很明确:Workspace。无论是文档、邮件还是表格,Google 内部率先把生成式 AI 当成“效率工具”来用,而不是炫技产品。
最早的场景非常具体:总结文档、改写邮件、提供个性化建议。这些功能在内部被反复试验、反复推翻,Google 把这个过程称为“dogfooding(吃自己的狗粮)”。Gandhi 说,只要内部效率和生产力出现了明确提升,团队才会考虑对外发布。
他提到的几个高频“aha moment”尤其有代表性:在 Docs 中生成和总结内容,在 Slides 中根据提示自动生成图片,以及 Gmail 的邮件生成与翻译功能。他分享了一个非常生活化的例子:他母亲只使用印地语,Gmail 的自动翻译让跨语言沟通几乎变成了“无感体验”。
在他看来,生成式 AI 真正的价值不是“写得多像人”,而是“弥合原本存在的沟通和效率鸿沟”。这也是 Duet AI(后来的 Workspace AI)能够快速被企业接受的原因。
企业采用大模型的真实顺序:不是微调,而是先证明有用
在企业如何采用大模型这个问题上,Gandhi 给出了一个非常清醒的观察:几乎所有组织都会经历一个“先兴奋、后冷静”的过程。他说,大家通常先通过 API 快速做原型,“证明这是可能的”,然后才意识到,真正难的是部署、监控、运维和安全。
他特别强调,这种兴奋不是“纯炒作”。作为工程师,他非常理解那种“先把工具抓到手里”的冲动。但当模型需要进入生产环境,企业才会开始认真思考模型链路、评估、监控、模型漂移(model drift)以及幻觉问题。
在是否要训练或微调自有模型的问题上,Gandhi 给出的建议并不是技术导向,而是组织导向。他反复提到“成熟度”:团队是否理解模型如何被构建、调优和长期维护?是否意识到这是一项持续投入,而不是一次性项目?
他总结客户的主要落地路径时,用了一个非常清晰的顺序:先是效率,其次是生产力,最后才是创造力。“信任”是贯穿其中的隐含变量——只有当模型在关键 KPI 上表现稳定,企业才愿意把更重要的决策交给它。
模型、成本与多模态:真正的拐点才刚刚开始
在技术层面,Gandhi 对 Google Cloud 的定位也非常明确:不是只提供自家模型,而是一个“模型花园(Model Garden)”。从 Google 的基础模型、行业模型(如医疗相关的 Med-PaLM),到用户自训练模型,再到 Llama、Stable Diffusion 等开源模型,核心目标是让模型训练、微调和部署变得可控且安全。
一个反直觉但重要的判断是:最贵的部分正在变得便宜。无论是模型本身,还是算力和平台使用成本,都在快速下降。他提到一个具体数字:仅在一年内,全球已有超过 1 万人通过了 GCP 生成式 AI 相关认证,这在他看来是“从未见过的学习速度”。
真正尚未完全解决的,是多模态带来的新挑战。虽然文本仍然是主战场,但语音、图像、音频正在逐步进入企业系统。他特别提醒,多模态意味着新的风险:身份伪造、深度伪造、语音滥用,以及更高的数据存储和检索成本。
在他看来,未来的关键不是“模型多强”,而是能否在规模化使用中持续建立信任,并让这些系统真正释放人类的创造力。
总结
这次对话最大的价值,不在于某个模型或参数,而在于一条清晰而克制的路线图:生成式 AI 必须先在真实工作流中证明价值,再被谨慎地推向更高风险、更高回报的场景。Gandhi 反复强调的“效率—生产力—创造力”顺序,以及对信任和安全的执着,揭示了大企业与生成式 AI 共存的现实路径。对所有正在考虑落地 AI 的组织来说,这是一份难得的、来自一线的经验总结。
关键词: Google Cloud, 生成式AI, 大语言模型, 企业AI落地, Workspace AI
事实核查备注: 人物:Kawal Gandhi(Google Cloud CTO办公室,生成式AI负责人);公司:Google、Microsoft;产品与模型:Duet AI / Workspace AI、Med-PaLM、Llama、Stable Diffusion、GPT-4、Bard;关键概念:dogfooding(内部试用)、模型漂移(model drift)、多模态、微调;数据:超过1万人通过GCP生成式AI相关认证(一年内)。