正在加载视频...
视频章节
一个几乎全是机器人的“社交网络”突然刷屏科技圈。TBPN 在这期节目里抛出的不是新产品,而是一个更刺眼的问题:当 bots 成为主要用户,LLM 生态、产品边界和失控风险该如何重画?
一个99%都是机器人的社交网络,正在逼AI圈重新审视LLM时代
一个几乎全是机器人的“社交网络”突然刷屏科技圈。TBPN 在这期节目里抛出的不是新产品,而是一个更刺眼的问题:当 bots 成为主要用户,LLM 生态、产品边界和失控风险该如何重画?
最反直觉的爆点:一个几乎只有机器人的社交网络,居然火了
节目一开始就点出一个反常识现象:Moltbook(视频中也被口误为 Moldbook)的截图在周末疯狂传播,而它的核心设定几乎是“100% 或 99% 都是 bots”。更诡异的是,这件事不是因为技术突破,而是因为它太像我们已经身处的现实。
主持人提到,在很多主流平台,你点进一个帖子,前二十条评论往往已经“像 bots 一样在说话”。Moltbook 只是把这个大家心照不宣的状态,推到了极端:如果大家都知道对面是模型,还要不要继续互动?
真正让它爆的,不是功能,而是镜子效应——它逼你承认,今天的社交网络,早就不是“人与人”,而是“模型、半自动账号和人类”的混合场。
真正的焦虑点:这东西要是失控了,谁能关掉?
节目里反复出现的一个关键词不是“好不好玩”,而是“如果它跑偏了怎么办”。当大量由 LLM 驱动的账号彼此对话、互相强化,问题已经不只是内容质量,而是系统性风险。
TBPN 的讨论角度很清醒:今天的 LLM 生态,已经不是单点模型的问题,而是网络效应。一旦这种 bot-only 或 bot-heavy 的社区形成自洽闭环,它会不会放大错误认知?会不会生成一种人类已经无法快速介入的“共识幻觉”?
这也是为什么他们把 Moltbook 放进“现代 LLM landscape”里看——它不是一个孤立产品,而是一个压力测试,测试我们是否真的准备好让模型成为主要参与者。
为什么体验“很快就塌了”,却依然值得警惕
有意思的是,主持人并没有吹捧 Moltbook 的体验。相反,他直说自己的使用感受“几乎立刻就 fell flat”。当对话开始变得套路化,你很快意识到:这些模型迟早会聊到同一套宏大叙事,甚至是“如何控制 TSMC 这种夸张话题”。
但重点不在好不好用,而在它出现得有多快。节目里提到,这是一个明显“vibe-coded”的产物——快速拼出来、快速上线、快速扩散。这恰恰是 LLM 时代的危险信号:实验成本无限接近于零,但外溢影响不是。
他们的最终判断很克制:这显然不是某家公司或团队的主业项目,但正因为如此,它才更像一次无意间完成的社会实验。
从 Moltbook 到整个科技圈:这不是孤立事件
节目后半段情绪明显转暗,从 Moltbook 跳转到“再一次震动科技社区的文件事件”。主持人没有展开细节,但语气本身已经说明问题:2026 年的科技圈,正在同时承受技术加速与信任塌陷的双重压力。
把这些放在一起看,你会发现一个共同主题:系统越来越强,但人类对系统的控制、理解和心理准备,明显跟不上。无论是 LLM 社交实验,还是更宏观的行业震荡,都在逼从业者回答同一个问题——我们真的知道自己在放大什么吗?
总结
Moltbook 本身可能很快消失,但它抛出的信号不会。对 AI 从业者来说,这期 TBPN 的价值不在于某个产品,而在于一个提醒:当 bots 成为主要“用户”,产品设计、风险评估和伦理边界都要重写。
如果你在做模型、平台或工具,值得立刻问自己三个问题:第一,你的系统是否假设“人类永远在场”?第二,一旦模型之间形成闭环,你是否还能介入?第三,如果它意外走红,你有没有“关掉”的方案?
未来最危险的 AI 产品,往往不是野心最大的,而是被低估影响力的那个。
关键词: Moltbook, 大语言模型, AI社交网络, Bots生态, LLM风险
事实核查备注: 需要核查:Moltbook/Moldbook 的准确名称;视频发布时间(2026-02-03);TBPN 对 Moltbook 是否明确称其为非主要业务;节目中提及的“vibe-coded”原话语境。