拜登一纸AI行政令,为什么同时惹怒创业者与安全派

AI PM 编辑部 · 2023年11月01日 · 8 阅读 · AI/人工智能

正在加载视频...

视频章节

这是美国迄今最重磅的一次AI监管出手,却意外制造了两个对立阵营的同时不满:一边担心创新被扼杀,一边认为监管还不够狠。更反直觉的是,它可能正在“暗中扶持”开源模型。

拜登一纸AI行政令,为什么同时惹怒创业者与安全派

这是美国迄今最重磅的一次AI监管出手,却意外制造了两个对立阵营的同时不满:一边担心创新被扼杀,一边认为监管还不够狠。更反直觉的是,它可能正在“暗中扶持”开源模型。

史上最重的AI行政令,白宫把它当成“头等大事”

拜登的AI行政令不是一次例行签字,而是一场被刻意“放大”的政治行动:总统发表正式演讲、邀请各界人士进白宫、同步启动AI人才招聘。这在美国科技监管史上并不常见。

信号很明确:AI已经被提升到国家级议题。无论你是做大语言模型、算力基础设施,还是开源工具链,都绕不开这套新框架。也正因如此,行政令发布后,行业的反应不是“讨论细节”,而是直接分裂成了立场鲜明的阵营。

支持者的共识:不是只怕末日,而是怕民主先坏掉

在支持者中,最有代表性的是奥巴马。他的表态很有意思:既没有否认“AI末日论”,也没有把风险只限定在科幻层面,而是明确提出了“两个同时成立的风险”。

一方面,是极端但灾难性的风险:生物武器、核系统、关键基础设施;另一方面,是更日常、却更可能发生的风险——事实体系被侵蚀、民主被技术加速瓦解。这也是他文章的重心:AI并不是从零开始制造问题,而是在放大社交媒体已经造成的结构性裂痕。

大型科技公司则给出了几乎清一色的“原则性支持”。微软、Salesforce的表态听起来都很熟悉:安全、可信、创新、合作。行业里不少人私下吐槽这些话“正确但空洞”,但它们至少传递出一个现实:大公司已经准备好适应监管,而不是对抗它。

真正的火药桶:算力、模型规模和“隐形门槛”

真正点燃争议的,是行政令里对“算力”和“模型规模”的处理方式。

批评者指出,新规要求在达到特定训练规模后向政府披露计划、模型权重的安全措施,以及大规模算力集群的位置。这带来的不是抽象的“监管压力”,而是实实在在的合规成本。

有创业者直言,这等于把“上市公司级别的披露义务”提前压到了还没盈利的AI实验室身上。更敏感的是,对算力的监管被形容为“把中性的计算资源当成危险品管理”,甚至被类比为一种新的KYC体系。

但随着完整行政令文本公布,一个关键数字浮出水面:门槛高得惊人——约2800万H100小时,或10^20 FLOPs级别的算力集群。现实结果是:真正被影响的,可能只有OpenAI、Google、Anthropic、Meta、Microsoft这样的极少数玩家。

最讽刺的结果:大模型被盯上,开源反而松了一口气

这也引出了一个出人意料的结论:行政令可能在短期内“保护”了开源生态。

在更新观点后,有行业人士指出,小模型和大多数开源项目基本不受影响。Mistral 7B 已经证明,小体量模型也能在特定任务上表现极强,而训练成本还在持续下降。

PyTorch 联合创始人提出了一个更微妙的影响:当监管门槛与模型规模强绑定,企业会被迫向“小而精”优化,参数效率和架构创新反而可能加速。但代价是,创新路径会开始“对着监管条款过拟合”。

从这个角度看,这场争论已经不只是“要不要监管AI”,而是“我们希望未来的AI创新,沿着什么形状生长”。

总结

如果你是AI从业者,这份行政令至少传递了三条现实信号:第一,超大模型和超大算力正在被视为战略资源;第二,短期内,小模型、开源和效率创新会拥有更大的操作空间;第三,监管并不会一刀切,但会深刻影响“什么样的AI值得被做出来”。

接下来90到270天,各部门如何落地细则,才是真正的博弈开始。与其简单站队,不如思考一个更实际的问题:如果规模不再是唯一优势,你的技术护城河,在哪里?


关键词: AI行政令, AI安全, 算力监管, 开源模型, 大语言模型

事实核查备注: 需要核查:行政令发布时间(2023-11-01);算力门槛数字(约2800万H100小时、10^20 FLOPs);支持与反对者的原始表态来源(奥巴马、微软、PyTorch联合创始人);民调数据样本量与比例(约1100人,69%支持)。