正在加载视频...
视频章节
这是一场关于 Grammarly 如何构建 AI 的深度对话。比起模型参数和功能堆叠,演讲者反复强调“人类判断不可外包”、安全评估和真实工作流中的上下文切换问题,勾勒出一条与 ChatGPT 浪潮并行、却明显不同的 AI 产品进化路径。
走进 Grammarly 的 AI 内部:不是替你思考,而是守住人类判断
这是一场关于 Grammarly 如何构建 AI 的深度对话。比起模型参数和功能堆叠,演讲者反复强调“人类判断不可外包”、安全评估和真实工作流中的上下文切换问题,勾勒出一条与 ChatGPT 浪潮并行、却明显不同的 AI 产品进化路径。
为什么 Grammarly 关心你每天切换了多少次上下文
这一段讨论之所以重要,是因为它解释了 Grammarly 做 AI 的出发点,并不是“写得更像人”,而是“更懂人在工作中如何被打断”。演讲一开始,嘉宾就抛出一个令人警醒的数字:在一个平均工作日里,人们会进行大约 1200 次上下文切换。这不是抽象的效率问题,而是认知负担的真实写照。
在这种背景下,Grammarly 对 AI 的理解是高度工具化、嵌入式的。它并不假设用户会停下来“专门用 AI”,而是默认 AI 必须存在于邮件、文档、即时通讯等真实工作流中。正因为如此,演讲者强调,AI 的价值不在于一次性给出完美答案,而在于减少人在频繁切换任务时的摩擦成本。
他用一种很克制的方式总结了这一点:“我们每天已经被太多工具拉扯注意力了,AI 不应该成为下一个让你分心的东西。”这也解释了为什么 Grammarly 更关注实时建议、语境感知,而不是长对话式的炫技功能。
最宏观的视角:哪些事情不该外包给 AI
在谈产品细节之前,演讲者刻意把镜头拉到“最 zoomed out 的层面”。这一步很关键,因为它揭示了 Grammarly 内部一个清晰的价值边界:不是所有认知工作都适合交给 AI。
他直言不讳地说,有些判断本质上仍然属于人类,“we shouldn't outsource that to AI”。这里指的不是技术做不到,而是即便做得到,也未必应该做。比如价值判断、语气背后的真实意图、以及对复杂情境的责任承担,这些都是 Grammarly 在设计产品时刻意保留给用户的部分。
这也塑造了 Grammarly 产品演进的方向。AI 的角色是“高质量辅助”,而不是替代决策者。演讲中提到,Grammarly 今天的产品形态,以及未来的演化路线,都会围绕一个核心问题展开:AI 是否真的在帮助用户更好地表达他们本来想说的话,而不是替他们决定该说什么。
ChatGPT 出现时,Grammarly 内部发生了什么
几乎所有 AI 公司都绕不开这个问题:ChatGPT 刚发布时,你们在想什么?这一段的价值在于,它提供了一个成熟 AI 产品团队的真实反应,而不是事后美化的叙事。
演讲者回忆说,当 ChatGPT 刚出来时,内部既有震撼,也有冷静评估。一方面,这些模型“as good as anything”,能力跃迁是显而易见的;另一方面,Grammarly 并没有因此推翻既有路线,而是重新审视自己的优势:对写作场景的深度理解、长期积累的语言数据,以及对用户信任的重视。
这段经历强化了一个判断:是否使用最新模型,并不是唯一的竞争点。真正重要的是,如何把模型能力转化为稳定、可靠、可解释的用户体验。这也是为什么在后续产品中,Grammarly 更强调场景适配,而不是简单地把聊天机器人“塞进”产品里。
企业定制、安全评估,以及 AI 团队该如何组织
当话题进入企业级 AI,这一节的讨论明显变得更务实。演讲者提到,为不同公司“tailoring the product”并不是简单的功能开关,而是涉及数据边界、风格一致性和安全要求。
尤其值得注意的是,Grammarly 会对所使用的模型进行自有的安全评估(safety evals)。这并非流于形式,而是企业客户能否放心部署 AI 的前提。这里的隐含信息是:即便底层模型能力再强,也不能跳过应用层的安全与责任设计。
在团队结构上,他也给出一个颇为现实的判断:理想的 AI 组织不是研究、工程、产品各自为战,而是围绕“为用户提供高质量辅助”这一目标紧密协作。他甚至半开玩笑地说,很多人以为那种高度整合的 AI 团队“还很遥远”,但其实“it's not that far away”。
总结
整场对话下来,Grammarly 展现的并不是一种激进的 AI 叙事,而是一种克制而清醒的路线:正视模型能力的飞跃,但拒绝把一切都交给模型决定。从上下文切换的微观痛点,到“哪些事情不该外包给 AI”的宏观边界,再到企业级安全与组织结构,这些判断共同构成了 Grammarly 对 AI 长期价值的理解。对读者而言,最大的启发或许是:真正有生命力的 AI 产品,往往不是最炫的那个,而是最懂人类工作方式的那个。
关键词: Grammarly, AI应用, ChatGPT, 上下文切换, AI安全
事实核查备注: 关键事实包括:平均工作日约1200次上下文切换(原视频提及的统计);Grammarly 在 ChatGPT 发布时已是成熟 AI 写作产品;演讲者明确提出“we shouldn't outsource that to AI”;Grammarly 会进行自有的模型安全评估(safety evals);视频讨论主题涵盖 AI 应用、企业定制与 AI 安全。