AI 还没真正爆发的5个真相:不是模型不够强,而是产品太原始

AI PM 编辑部 · 2026年02月18日 · 11 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人都在谈 AGI、AI Agent 和代码自动化时,TBPN 却泼了一盆冷水:AI 之所以“还没炸”,不是能力不行,而是最基础的产品体验没做好。这支视频点破了几个被忽视、却足以引爆下一轮用户增长的关键细节。

AI 还没真正爆发的5个真相:不是模型不够强,而是产品太原始

当所有人都在谈 AGI、AI Agent 和代码自动化时,TBPN 却泼了一盆冷水:AI 之所以“还没炸”,不是能力不行,而是最基础的产品体验没做好。这支视频点破了几个被忽视、却足以引爆下一轮用户增长的关键细节。

最反直觉的判断:AI 没爆发,不是因为它还不够聪明

TBPN 一开场就把矛头对准了“大模型至上论”。过去一年,行业几乎把全部注意力都放在 agentic coding、企业级应用、SaaS 替代和“AI 会不会毁灭世界”上。但现实是,大多数普通用户每天打开 ChatGPT、Perplexity,并不是为了写上万行代码,而是问一些极其基础、重复、甚至无聊的问题。

问题在于:这些最常见的使用场景,体验反而最差。TBPN 的核心判断很狠——AI 没有爆发式普及,并不是模型不行,而是“聊天应用还停留在原始状态”。只要几个看似“低技术含量”的改动,就足以让用户使用频率和停留时间发生质变。

第一个引爆点:缓存,才是被忽视的“超级优化”

一个极具画面感的例子:作者自己至少问过 ChatGPT 三次“OpenAI 是哪一年成立的”。这是完全相同的问题,答案从不改变,却每次都要重新点燃 GPU。

TBPN 的观点很直接:这根本不需要实时推理。Google 早就用知识卡片和缓存机制解决了类似问题,而 LLM 产品却还把“所有问题都当成第一次出现”。随着用户规模扩大,大量问题已经高度重复,把这些结果缓存下来、瞬间返回,不仅省钱,还会让用户第一次真正感受到“即时 AI”。

更重要的是,这种“秒回体验”一旦成为默认,用户心理预期会被彻底重塑。慢,不再是可以接受的状态。

速度不是参数,而是留存:即时推理会改变使用行为

第二个关键点是所谓的“cerebrous inference”。TBPN 提到,ChatGPT 内部已经有标榜“instant”的模型,但真正让人惊讶的,是那些能在 1–2 秒内完成响应的推理路径。

行业目前把“快模型”更多用在 agent coding、工具调用上,但 TBPN 提出一个被低估的指标:即时响应会直接拉长用户停留时间。当对话变成一种“无摩擦”的体验,人们会问更多问题,而不是更少。

这不是算力竞赛,而是产品心理学:当延迟消失,用户才会把 AI 当成思考延伸,而不是一次性工具。

别再折磨用户选模型了,路由应该是隐形的

一个看似小、但极具争议的主张:消费者级 AI 应用里,应该彻底取消模型名称。没有 GPT-5.2、5.3、Spark、Codec——什么都不要。

理由很简单:用户根本不关心。真正聪明的系统,应该由模型路由自动判断:这是被问了上千次的常规问题,直接走缓存或轻量模型;这是前所未有的复杂需求,再调用深度推理。

当“选模型”这件事消失,AI 才会真正变成基础设施,而不是极客玩具。

最后两个“行业不爱听”的点:广告,和写海量代码

TBPN 对广告的态度非常不政治正确:广告不是原罪,而是互联网历史上最成功的产品引擎之一。即便 Perplexity 宣称不再提供广告,他也并不买账,认为现在就放弃这种商业模式为时尚早。

另一个被点名的需求是:一次性生成大量代码。不是聊天式补几行,而是像 OpenClaw、Codex 那样,直接“开火”,解决完整问题。这种需求并不属于日常聊天,却会成为高阶用户黏性的关键。

总结

这支视频真正有价值的地方在于,它把注意力从“更强的模型”拉回到了“更好的产品”。对从业者来说,takeaway 很明确:下一轮 AI 爆发,可能不是 10 倍算力,而是缓存、延迟、路由、UI 这些“看起来不性感”的细节。如果你在做 AI 产品,现在就该问自己一个问题:你的用户,是在和智能对话,还是在忍受系统?


关键词: 大语言模型, AI 产品体验, 推理速度, 模型路由, ChatGPT

事实核查备注: 需要核查:视频中提到的具体模型名称(如 5.2 instant、Spark)、对 Perplexity 广告策略的描述是否为作者观点、发布时间与视频链接一致性