不用向量数据库,Amperity 如何用 GPT-4o 把自然语言变成“能跑的 SQL”

AI PM 编辑部 · 2024年12月17日 · 0 阅读 · AI/人工智能

正在加载视频...

视频章节

在 OpenAI DevDay 的社区案例里,Amperity 抛出了一个让很多 AI 从业者愣住的做法:他们做了一个跨行业、跨上百客户的 NL2SQL 系统,却刻意没用向量数据库。取而代之的,是两步“研究式”上下文管理。这套思路,可能比你想象得更重要。

不用向量数据库,Amperity 如何用 GPT-4o 把自然语言变成“能跑的 SQL”

在 OpenAI DevDay 的社区案例里,Amperity 抛出了一个让很多 AI 从业者愣住的做法:他们做了一个跨行业、跨上百客户的 NL2SQL 系统,却刻意没用向量数据库。取而代之的,是两步“研究式”上下文管理。这套思路,可能比你想象得更重要。

一个看似简单的问题,为什么能难倒整个数据团队

故事从一个极其“业务”的问题开始:假期前,零售品牌的市场人员 Lauren 想知道——我到底有多少高价值客户?

这个问题听起来像一句 SQL 就能解决,但现实几乎是反过来的。客户数据分散在 POS、老系统、电商平台里,每个系统都有不同的 customer ID;同一个人可能用过不同邮箱、名字和地址。哪怕你已经把数据“统一”了,摆在你面前的,依然是上百张表:交易表、忠诚度表、预测价值表……

真正的门槛还不是数据量,而是“入口”。业务人员不知道从哪张表开始,更不可能熟练写 SQL。于是,Amperity 做了 AmpAI:一个面向非技术用户的自然语言转 SQL 工具,让你用一句话直接问数据库。

但问题很快升级了:如果只是服务 Acme Retail 一家客户,这事并不难;可 AmpAI 要同时服务金融机构、航空公司、B2C 品牌,横跨五个以上行业、数百种非标准 schema。真正的敌人只有一个词:上下文。

他们为什么没有用向量数据库,而是加了“两步研究”

在 NL2SQL 场景里,很多团队的第一反应是:RAG + embedding + 向量数据库。但 Amperity 的选择更克制。

他们确实认同“需要 RAG”,但没有把 schema、字段、样本一股脑塞进向量库。原因很现实:schema 每天在变,不同行业的字段语义差异巨大,靠相似度检索并不能保证拿到“对业务有意义的上下文”。

于是,他们把生成 SQL 之前,拆成了两个明确的“研究步骤”,全部交给 GPT-4o:

第一步,不生成 SQL,而是让模型做判断题:在整个数据库 schema 里,哪五张表最相关?然后只从这几张表里抽样真实行数据。

第二步,更关键:让模型判断“这个问题最重要的字段是什么”,再去拉取这个字段的所有 distinct values。比如在“高价值客户”这个问题里,关键字段不是消费金额,而是 Customer360 表里的 predicted customer lifetime value tier。

这个设计直接戳中了一个常被忽略的事实:模型最容易犯错的,不是 SQL 语法,而是业务语义。

从“答不对”到“终于答对”,上下文是怎么一步步补齐的

他们展示了一个非常诚实的演进过程。

最初的“天真方案”是:用户问题 + schema,直接丢给 GPT-4o 生成 SQL。结果很自然——模型根本不知道“high value”在这家公司的定义。

第二版方案加入了“相关表 + 行样本”。这一次,模型知道了 loyalty、Customer360 这些表,也看到了 bronze、gold 等等级。但问题依旧没解决:样本里没有 platinum,于是 SQL 只会统计 gold。

真正的突破来自第三步:主动获取关键字段的所有可能值。当 platinum 和 gold 同时被送进上下文,模型才终于得出正确结论——高价值客户 = predicted CLV tier 为 gold 或 platinum。

这个过程的隐含结论非常尖锐:上下文窗口再大,也不等于“上下文就对了”。你不给模型它需要的关键值,它就会在一个看似合理、但业务上错误的世界里自洽。

这不是 Demo:130% 的查询增长,说明了一件更大的事

在产品演示里,AmpAI 不只回答了“有多少高价值客户”,还继续追问:这些人在假期更爱买什么?系统在背后再次调用工具,自动适配 10 种不同的商品分类体系,最后把结果直接画成图表。

更值得注意的是结果数据:使用 AmpAI 的用户,三个月内在 Amperity 上运行的查询数提升了 130%。

这不是模型更聪明,而是门槛被移除了。当业务人员第一次意识到“我不用学 SQL,也能安全地和真实数据库对话”,他们会开始疯狂提问。

这或许也是这个案例最重要的启示:NL2SQL 的终极价值,不是节省工程师时间,而是释放那些从未被问出口的问题。

总结

Amperity 这个案例,给所有在做 AI 应用的人提了个醒:别急着堆技术名词。向量数据库、embedding、长上下文都很强,但它们解决的是“能不能装下”,而不是“装得对不对”。

如果你在做面向多客户、多 schema 的 AI 系统,这里有三个可直接行动的 takeaway:第一,把生成前的步骤拆出来,让模型先做判断,而不是直接给答案;第二,优先补齐业务语义的关键值,而不是更多样本;第三,用真实用户行为验证价值,查询数的增长比任何 Demo 都诚实。

下一个阶段的 AI 应用竞争,很可能不在模型,而在你喂给模型的那点上下文,到底懂不懂业务。


关键词: GPT-4o, 自然语言转SQL, 上下文管理, RAG, AI应用

事实核查备注: 需要核查的关键事实包括:AmpAI 查询量提升 130% 的统计周期为近三个月;AmpAI 使用的模型为 GPT-4o;高价值客户定义为 predicted customer lifetime value tier 的 gold 和 platinum;案例展示发生在 OpenAI DevDay 2024,发布时间为 2024-12-17。