当AI开始冒充人类,Alex Blania给社交媒体泼了一盆冷水

AI PM 编辑部 · 2026年04月02日 · 14 阅读 · AI/人工智能

正在加载视频...

视频章节

如果你以为“机器人水军”只是社交媒体的小麻烦,那这期 a16z 播客会让你警觉。Alex Blania 直言:我们已经快分不清屏幕对面是不是人了,而“Proof of Human”可能会彻底重塑社交网络的底层规则。

当AI开始冒充人类,Alex Blania给社交媒体泼了一盆冷水

如果你以为“机器人水军”只是社交媒体的小麻烦,那这期 a16z 播客会让你警觉。Alex Blania 直言:我们已经快分不清屏幕对面是不是人了,而“Proof of Human”可能会彻底重塑社交网络的底层规则。

最反直觉的现实:我们已经默认“对方是人”

Alex Blania 在节目里抛出的第一个问题就很刺耳:“你到底要怎么证明一个人是人?”过去十几年,社交媒体从来没认真回答过这个问题。注册一个账号、点几次验证码,我们就假设屏幕那头是真实的人类。

但生成式 AI 把这个前提直接击穿了。现在,自动化账号不仅能发帖、评论、转发,还能形成完整的“人格”和叙事。Alex 提到,很多内容向量(尤其是社交媒体)已经出现“看起来一切正常,但实际上全部是 AI 生成”的情况,而人类“完全被骗过去了”。

真正反直觉的点在于:问题不是未来才会发生,而是已经发生了。只是我们还在用 2015 年的安全模型,去对抗 2026 年的 AI 能力。

三条路,几乎都走不通

节目中 Alex 把“如何证明你是人”拆成了几条现实路径,而结论并不乐观。

第一条路,是行为与互动模式。通过分析打字节奏、鼠标轨迹、社交行为来判断“像不像人”。问题是,这恰恰是生成式 AI 进步最快的领域之一。一旦模型能模拟人类的犹豫、停顿和情绪波动,这条路基本宣告失效。

第二条路,是政府 ID。听起来很直接:用身份证、护照来验证。但代价是隐私、合规和全球可扩展性。不同国家的法律差异、数据托管风险,让这条路很难成为“互联网级”的解决方案。

第三条路,就走向了更激进的方向:生物特征。Alex 提到类似虹膜这样的方式——它们在技术上更难伪造,却也更敏感。一旦出问题,无法重置。你可以换密码,但你换不了眼睛。

这三条路的共同点是:没有一条是“舒服的”。而 Proof of Human 的核心,恰恰是在这些不舒服的选项中寻找一个可接受的平衡。

真正被低估的,不只是安全,而是“信任结构”

很多人把 Proof of Human 当成反垃圾、反水军的工具,但 Alex 的视角更大。他反复强调:这不是一个 feature,而是一层基础设施。

在一个人类与 AI 共存的网络里,“是人、是 AI、还是代表人行动的 agent”必须被区分开来。否则,点赞、投票、舆论、甚至共识本身都会失去意义。

他描述了一种未来状态:AI agent 可以“代表人类行动”,但前提是系统知道它背后确实有一个真实的人类存在。这种区分一旦成立,社交媒体、治理机制、甚至经济系统,都会出现新的设计空间。

换句话说,Proof of Human 不是在解决‘假账号’,而是在重建‘我为什么要相信这个信号’。

为什么这一次,时间窗口真的很短

在节目后半段,Alex 谈到产品状态和 go-to-market 的节奏时,语气明显更紧迫。他的判断是:成本正在快速下降,部署正在变得“比想象中更容易”。

这意味着什么?意味着一旦某种 Proof of Human 方案跑通,它的扩散速度可能会非常快。平台要么主动拥抱,要么被迫跟进。

更残酷的是,等到“问题肉眼可见”时,往往已经太晚了。就像深度伪造(deepfake),在公众意识到危险之前,它已经被滥用过无数次。Alex 的潜台词很清楚:如果现在不认真对待,后面只会更被动。

总结

这期播客真正值得 AI 从业者反复咀嚼的,不是某一种验证技术,而是一个判断:在生成式 AI 时代,“人类身份”正在从默认前提,变成需要被证明的稀缺资源。

如果你在做模型、平台或应用,现在就该思考:你的系统是否区分人类、AI 和 agent?如果不能,被滥用只是时间问题。Proof of Human 也许不会以你期待的方式出现,但它几乎确定会成为下一阶段互联网的基础设施之一。

留给你的问题是:当‘是人’不再是理所当然,你的产品价值,还站得住吗?


关键词: Proof of Human, 生成式AI, 社交媒体, AI代理, 数字身份

事实核查备注: 需要核查:1)播客具体时长;2)Alex Blania 在节目中对 Proof of Human 的原始定义表述;3)关于“全部由 AI 生成内容让人类被骗”的具体语境;4)产品 go-to-market 的时间表是否有明确年份。