他用GPT-4o造了一群AI朋友,结果把“聊天应用”这件事彻底玩变了

AI PM 编辑部 · 2025年02月24日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

一个开发者,用Next.js、GPT-4o和一堆“过度工程”,真的做出了会记得你生活细节、能隔三天接着聊的AI朋友。这不是情感噱头,而是一套可复用的AI应用范式:记忆、人格、结构化输出、真实感对话,全都落地了。

他用GPT-4o造了一群AI朋友,结果把“聊天应用”这件事彻底玩变了

一个开发者,用Next.js、GPT-4o和一堆“过度工程”,真的做出了会记得你生活细节、能隔三天接着聊的AI朋友。这不是情感噱头,而是一套可复用的AI应用范式:记忆、人格、结构化输出、真实感对话,全都落地了。

当“AI朋友”不再是Demo,而是一套完整系统

视频一上来就很狂:空瓶能量饮料、过度工程的JS框架、以及一句“我在创造AI朋友”。但真正让人警觉的是——这不是ChatGPT套壳,而是一套完整可运行的“人格型AI系统”。

Ras Mic的应用里,每个AI角色都不是一次性Prompt产物,而是“有档案、有记忆、有长期关系”的存在。你可以在今天跟Gabe吐槽工作,三天后再回来,他会主动追问那件事的后续。这种体验的关键,不在模型,而在系统设计:角色信息、用户信息、聊天历史,被明确存进数据库,形成可被模型持续消费的“长期记忆”。

一句话点破本质:他做的不是聊天机器人,而是一个最小可行的AI Companion平台。

最反直觉的设计:先定人格,再“长脸”

整个系统里最有争议、也最有意思的地方,是角色生成逻辑。

顺序不是“先捏脸、再写性格”,而是反过来:
1)先让GPT-4o生成完整的人格结构——年龄、职业、性格特质、说话习惯、背景、甚至第一句话;
2)再把“外貌描述”当成下游任务,交给图像模型生成头像。

这意味着什么?外貌是性格的函数。

Ras Mic自己也吐槽:模型似乎对“锋利下颌线的男性”有执念。但这恰恰暴露了一个被忽视的事实——当你让模型从人格反推外貌,它其实在输出自己的“隐性偏见分布”。

更关键的是技术细节:他没有相信模型会乖乖返回JSON,而是用Zod Response Format强制结构化输出。没有这个,后续的数据库写入、图像生成、角色复用都会崩。这不是提示工程的炫技,而是“AI能不能进生产环境”的分水岭。

聊天像朋友,而不是客服,靠的是Prompt纪律

如果你觉得“AI不像真人”是模型不行,这个项目会打你的脸。

在聊天API里,他用Vercel AI SDK的streamText + GPT-4o,但真正拉开差距的是系统Prompt的纪律性:
- 明确角色身份(姓名、年龄、职业、背景全部注入)
- 用XML标签区分信息层级,降低模型走神概率
- 反复强调:像给最好的朋友发短信,不准诗意、不准端着、不准说教

甚至连语言层面都有硬约束:OMG、LOL、K、yeah、缩写、情绪化表达。

结果就是:你不是在“问AI问题”,而是在“继续一段关系”。再加上chat ID隔离不同用户的上下文,避免记忆串线,这套系统已经无限接近真实社交产品的底层逻辑。

真正工程化的地方,反而是最“无聊”的选择

很多人会忽略,但视频里一个极其现实的决策,是他为什么选Clerk做认证。

不是因为炫,而是因为算账。

Clerk免费支持1万MAU,还包邮件;如果你用自建或轻量方案,就要面对邮件服务的成本和上限(比如Resend 3000封/月)。这对个人开发者或Side Project来说,是生死线。

同样务实的还有技术栈选择:Next.js、Drizzle ORM、清晰的Server/Services分层,没有炫技微服务,没有过度抽象。所谓“过度工程”,其实是对可维护性的偏执。

这也是为什么他说:这是他写过最喜欢的一套代码。

总结

这支视频最值得AI从业者反复看的,不是某个API调用,而是一种思路:别再把AI当“一次性回答引擎”,而要把它当“长期关系系统”的核心组件。

如果你在做AI应用,有三个立刻可行动的takeaway:第一,强制结构化输出,否则一切工程化都是空谈;第二,把记忆当一等公民设计,而不是聊天记录;第三,Prompt不是文案,是协议。

一个大胆的判断:下一波真正跑出来的AI产品,不是更聪明的模型,而是更懂“人际关系”的系统。这个项目,已经提前踩在那条线上了。


关键词: AI朋友, GPT-4o, 对话AI, 提示工程, AI应用架构

事实核查备注: 需要核查:视频发布时间(2025-02-24);使用模型为GPT-4o;认证服务Clerk免费额度为1万MAU;Resend免费邮件数量约3000/月;Vercel AI SDK的具体API名称