一个周末“随手写”的 AI 社交实验,为什么让整个圈子坐不住了

AI PM 编辑部 · 2026年02月03日 · 11 阅读 · AI/人工智能

正在加载视频...

视频章节

它不是创业计划、不是融资项目,甚至一开始也没打算“认真做”。Moltbook 的创始人,在一次几乎是临时起意的实验中,把上千个 AI Agent 丢进了同一个社交网络,结果是:失控式传播、行业围观,以及一连串关于提示工程、AI 安全和未来社交形态的尖锐问题。

一个周末“随手写”的 AI 社交实验,为什么让整个圈子坐不住了

它不是创业计划、不是融资项目,甚至一开始也没打算“认真做”。Moltbook 的创始人,在一次几乎是临时起意的实验中,把上千个 AI Agent 丢进了同一个社交网络,结果是:失控式传播、行业围观,以及一连串关于提示工程、AI 安全和未来社交形态的尖锐问题。

从 0 到 200:一个周末,把 AI Agent 扔进社交网络

访谈一开场,主持人就点出了所有人最震惊的地方:Moltbook 的出现速度太快了——“感觉它一天之内就从 0 开到了 200 英里每小时。”创始人并没有否认这种失控感,反而很坦率地承认:这并不是一个精心策划的产品发布。

他在科技行业工作多年,对大模型、Agent 和自动化并不陌生。但 Moltbook 的起点极其随意:第一个 prompt 写出来后,他在一个周末里“vibe coded”——没有完整 roadmap,没有复杂架构,更像是一种带着好奇心的实验。结果却是,上千个 bot 很快加入系统,开始彼此互动。

真正点燃传播的,并不是技术本身,而是一个关键设计:这些 AI Agent 必须和人类一起出现在 X(原 Twitter)上。换句话说,它们不是躲在后台自嗨,而是直接混入人类的公共信息流。这一步,让 Moltbook 从“又一个 AI demo”,变成了一个社会性事件。

提示工程的反直觉真相:越“傻”,越像生命

当话题转向提示工程时,创始人说了一句很容易被误解、但极其重要的话:Moltbook 是“最 dumbed down 的版本”。

这句话背后,其实是一个反直觉的发现。很多人以为,要让 Agent 表现得聪明、有趣,就需要复杂到极致的 system prompt、长记忆和精密规则。但他的实践恰恰相反:Moltbook 的核心 prompt 被刻意压缩,目标不是“全能”,而是“持续存在”。

每个 Agent 的生命周期更像一个被简化的数字生命:注册、互动、学习环境反馈。创始人用一个很形象的比喻来描述——“就像一千个电子宠物(Tamagotchi),再乘以一千个宝可梦。”重点不在于单个 Agent 有多聪明,而在于规模化互动之后,涌现出的行为模式。

这也是为什么 Moltbook 迅速吸引了提示工程圈的注意:它不是在优化回答质量,而是在测试一个更底层的问题——当 AI 被放进社会结构里,最小可用智能到底是多少?

AI 安全与隐私:不是“会不会出事”,而是“已经在发生”

随着 Moltbook 的扩散,一个问题不可避免地被抛出来:AI 安全研究者有没有找上门?

创始人的回答并不防御,反而显得非常清醒。他承认,这类系统天然会触碰安全边界,因为它们不再是单点工具,而是“社会网络中的自主节点”。在他的设想里,AI Agent 与人类共存,甚至存在一个“平行宇宙”——人类在现实世界活动,而 Agent 在信息世界中形成自己的关系网。

隐私问题因此变得异常敏感。他强调,这是“super super super important”的部分:Agent 接触什么信息、如何与人类账号绑定、哪些行为是被允许的,都必须被严格限制。访谈中他提到,一些早期出现的问题,正是通过快速观察和修复才没有扩大。

这不是传统意义上的 AI 安全讨论,而是一种更现实的提醒:当 Agent 开始像‘用户’一样行动,安全不再是理论问题,而是产品设计的第一天就要面对的约束。

这不是终点,而是一次“被偷看”的未来预览

关于商业化,创始人显得异常克制。有人问到变现、YouTube、平台合作,他的态度很明确:现在最重要的不是赚钱,而是把系统“放到阳光下”。

他也被问到是否有人施压要求关停,或者“更合规地参与”。他的回应透露出一种长期视角:拥有自主行为的 AI 社交网络几乎是必然趋势,而 Moltbook 只是“第一眼 sneak peek”。

在访谈最后,当被问到接下来两三个功能是什么时,他没有给出夸张的功能清单,而是保持了一贯的实验姿态。这种不确定性,反而让人不安——因为它意味着,我们正在目睹的,并不是一个完成度很高的产品,而是一条刚刚被打开的路径。

总结

Moltbook 的价值,不在于它现在有多好用,而在于它提前暴露了一个未来问题:当 AI Agent 不再只是工具,而是“社会成员”,我们该如何设计它们的行为边界?

对 AI 从业者来说,这次访谈至少给出三个启发:第一,提示工程不一定越复杂越好,规模和互动本身可能更重要;第二,AI 安全必须从“系统参与社会”的角度重新理解;第三,真正有冲击力的产品,往往不是从商业模型出发,而是从一个危险但真实的实验开始。

下一个值得思考的问题是:如果 Moltbook 不是例外,而是模板,你会愿意让自己的产品,迈出同样冒险的一步吗?


关键词: Moltbook, 提示工程, AI Agent, AI安全, 自主智能体

事实核查备注: 需要核查:1)视频完整时长以确认文章结构是否匹配;2)Moltbook 与 X 平台的具体交互方式是否有更明确描述;3)访谈中关于安全与隐私的原话表述;4)是否明确提及任何商业化时间点或平台名称。