当AI学会伪装成人类,互联网正在被迫重建身份底层
正在加载视频...
视频章节
在这期 a16z 播客里,Alex Blania 抛出一个让人不寒而栗的判断:如果你现在还没认真对待“如何证明你是人类”,那你已经落后了。Bots、Deepfakes、AI Agents 正在同时进化,逼着整个互联网重做一层最基础、也最危险的东西——身份。
当AI学会伪装成人类,互联网正在被迫重建身份底层
在这期 a16z 播客里,Alex Blania 抛出一个让人不寒而栗的判断:如果你现在还没认真对待“如何证明你是人类”,那你已经落后了。Bots、Deepfakes、AI Agents 正在同时进化,逼着整个互联网重做一层最基础、也最危险的东西——身份。
最反直觉的一点:未来最大的问题不是AI有多聪明,而是你分不清谁是人
播客一开始,Alex 直接抛出问题:“How do you prove somebody is human?” 这不是哲学问题,而是一个正在失控的工程问题。
过去十多年,互联网默认一个前提:账号背后是一个真实的人。验证码、手机号、邮箱验证,都是在这个假设之上打补丁。但 Alex 的判断是,这个前提正在被 AI 彻底击穿。
今天的 bots 已经不是“刷点赞”的水平,而是可以长时间、低成本、拟人化地参与讨论、交易、投票、博弈。Deepfakes 让“看起来像人”变得不值钱;AI Agents 则让“像人一样行动”变成可规模化复制的能力。
于是一个反直觉的现实出现了:不是 AI 会不会取代人类,而是在很多关键系统里,人类会不会被 AI 淹没。金融、治理、内容平台、甚至是简单的社区投票,如果无法区分“一个人”和“一万个代理”,规则本身就会失效。
Alex 把“证明你是人”拆成三层,但每一层都有坑
在对话中,Alex 试图把“Proof of Human”这件事拆解清楚。他明确说,这不是一个单点技术,而是至少三类东西的组合。
第一类,是“你是不是一个独立的个体,而不是一堆 AI 实例”。这听起来简单,但在 AI 可以无限复制、并行运行的前提下,本质上是在对抗可扩展性。
第二类,是“代理问题”:未来会有大量 AI agents 代表人类行动。那系统到底是在和人交互,还是在和 agent 交互?如果 agent 可以完全模拟你的偏好、语气、决策逻辑,那‘代表你’和‘取代你’之间的边界在哪里?
第三类,才是很多人直觉里最熟悉的——生物特征。Alex 提到 biometrics 的独特性,但紧接着强调了一个更难的问题:极端隐私。生物特征一旦泄露,是不可更换的。用它来作为互联网底层凭证,本身就带着巨大的风险。
他的潜台词很明确:任何单一方案都会失败,真正难的是在“唯一性、可扩展性、隐私”这三个互相冲突的目标之间做取舍。
社交媒体只是前菜,真正的冲击在更严肃的系统里
播客里多次提到社交媒体,但 Alex 的态度很明确:这只是一个显眼、但不算最危险的入口。
在社交平台上,bots 泛滥最多是污染讨论、操纵舆论。但如果同样的事情发生在更“严肃”的系统里——比如金融协议、资源分配、治理机制——后果会完全不同。
想象一个极端但合理的场景:一个系统按“每人一票”分配稀缺资源,而攻击者可以用 AI agents 模拟出百万级‘人类行为一致、历史可信’的身份。这个系统不是被黑,而是被合法地玩坏。
这也是 Alex 为什么强调,现在讨论身份层不是超前,而是已经偏晚。他的原话很接近于一种警告:如果不现在开始设计新的身份原语,未来只会在漏洞百出的系统上不断打补丁。
为什么这件事“看起来很久都不明显”,却突然变得迫在眉睫
有意思的是,Alex 回顾这条路径时提到:这件事很长时间里都“seemed very inobvious”。不是没人聪明,而是外部条件没到。
真正的转折点,并不是某一个算法突破,而是三件事同时发生:生成式 AI 的质量跃迁、成本曲线的断崖式下降,以及 agent 形态开始被认真对待。
当 AI 不再只是工具,而是可以长期运行、自动协作、替你博弈的实体时,身份就从‘注册问题’升级成了‘系统安全问题’。
这也是为什么他在聊产品状态和时间线时,反复强调“go to market”的紧迫感——不是因为技术完美了,而是因为窗口期正在关闭。
一个被低估的事实:身份层会重塑AI应用的边界
播客后半段有一个隐含但重要的观点:身份层不是附属设施,而是会反过来决定 AI 能做什么。
如果你无法可靠地区分人和 agent,那么很多‘面向人类设计’的产品逻辑都会失效;反过来,如果身份层足够强,很多今天看起来不可能的机制才有成立空间。
换句话说,未来 AI 应用的天花板,可能不取决于模型多大,而取决于你能否确定:此刻在系统另一端的,到底是谁。
总结
这期播客真正的价值,不在于给出了一个现成答案,而是把问题抬到了一个无法回避的高度。对 AI 从业者来说,takeaway 很直接:别再把“身份”“验证”“反女巫攻击”当成边角料,它正在变成 AI 时代的基础设施。
如果你在做平台、协议、agent 产品,应该现在就问自己三个问题:我的系统假设了什么样的“人”?当 AI 大规模介入时,这些假设还成立吗?一旦不成立,我的产品会以什么方式崩塌?
Alex 留下的不是解决方案,而是一道门槛。跨不过去,未来的互联网里,你甚至不知道自己是在和谁打交道。
关键词: Proof of Human, AI Agents, Deepfakes, 互联网身份, 反女巫攻击
事实核查备注: 需要核查:1)播客中 Alex Blania 对“Proof of Human”的原始表述是否包含明确的三分类;2)关于 biometrics 与隐私风险的具体措辞;3)是否在视频中明确提到 go to market 的时间判断;4)视频整体时长与发布时间。