佩洛西罕见下场反对SB 1047:这部AI安全法,可能先“伤到”美国AI
正在加载视频...
视频章节
一部被称为“史上最重要AI安全法案”的加州SB 1047,突然迎来了最重量级的反对者之一:前众议院议长南希·佩洛西。她为什么站到Open Source、VC和创业者一边?这场围绕AI安全、开源模型和监管边界的战争,正在悄悄决定美国AI的未来走向。
佩洛西罕见下场反对SB 1047:这部AI安全法,可能先“伤到”美国AI
一部被称为“史上最重要AI安全法案”的加州SB 1047,突然迎来了最重量级的反对者之一:前众议院议长南希·佩洛西。她为什么站到Open Source、VC和创业者一边?这场围绕AI安全、开源模型和监管边界的战争,正在悄悄决定美国AI的未来走向。
当“AI教母”也说不:佩洛西的反对有多不寻常
如果你以为反对SB 1047的只是VC、创业者和“反监管”的科技公司,那你就低估了这次事件的政治分量。几天前,前美国众议院议长、加州最具影响力的政治人物之一——南希·佩洛西,公开表态反对这项AI法案。
这在美国政治语境中非常罕见。佩洛西并不是“反监管派”,相反,她长期支持科技治理和公共安全。但她的判断是:SB 1047“出发点良好,却可能对美国AI生态造成实质性伤害”。
更关键的是,她并非孤身一人。与她联名致信加州州长的,还有多位现任国会议员,包括众议院科学、空间与技术委员会的关键人物。这种“联邦层面议员集体对州立法泼冷水”的场面,本身就说明问题已经不只是技术争议,而是上升为国家竞争力层面的担忧。
媒体用的词很重——“ill-informed(信息不足、理解失真)”。这基本等同于在说:这部法案锁定的风险,可能不是当前AI真正危险的地方。
SB 1047真正的争议点:不是“要不要监管”,而是“用错了地图”
反对者几乎在同一个点上达成共识:SB 1047的问题不在于“监管太多”,而在于“监管依据太不成熟”。
法案核心机制之一,是基于算力阈值(compute thresholds)来界定高风险AI系统,并引入潜在的法律责任。但问题是——连美国国家标准与技术研究院(NIST)的相关评估标准都还没正式成型,立法却已经提前把“假想中的标准”写进了法律。
议员们在信中直言:当你连“如何确认一个模型是否会造成严重危害”都没有共识,却要让开发者为此承担法律责任,这本身就存在制度性风险。
更致命的是时间尺度的不匹配。AI能力的演进速度,远远快于立法周期。以算力为锚点的监管方式,几乎可以确定会在法案生效时就已经过时。
他们提出了一个很有分量的判断:不应该把“我们当下对AI安全的有限理解”直接水泥封进法律,而是应该留出弹性、反馈机制和持续公共讨论的空间。
换句话说,SB 1047被批评为:在一个高度不确定、快速变化的技术领域,选择了最刚性的监管方式。
被忽视的现实风险 vs 被放大的末日叙事
另一个火力集中的批评点是:SB 1047过度关注“极端、假设性的灾难风险”,却忽略了已经在发生的现实问题。
议员们在信中明确点名:虚假信息、算法歧视、非自愿深度伪造、环境成本、以及大规模的劳动力冲击——这些都是已经可以观测、可以量化的AI风险。
而SB 1047的设计,却明显偏向于“存在性风险”和极端滥用场景。这种风险优先级的错位,带来一个危险后果:监管资源可能被用在最不紧急的地方。
这也是为什么李飞飞等学界人物、以及包括a16z、Y Combinator在内的创业生态,会形成一种罕见的共振:不是否认AI风险,而是反对“用末日叙事主导立法”。
正如一些反对者私下的说法:如果监管总是假设最坏情况,那市场的理性反应就是——要么不做,要么不公开。
真正让开源社区紧张的,是“你根本无法证明你是无辜的”
如果说前面的争论还偏理念层面,那么SB 1047对开源模型的影响,几乎是实操级的“致命一击”。
法案对开发者责任的设定,隐含了一个极难成立的前提:开发者需要对下游使用行为承担高度责任。但在开源环境中,这几乎是不可能完成的任务。
议员们一针见血地指出:你不可能在不侵犯用户隐私、不破坏开源精神的前提下,去“认证”所有潜在使用结果。
结果会是什么?理性选择只有一个——减少甚至停止完全开源,转向API、受控发布和封闭模型。
这也是为什么信中用了一个极重的词:SB 1047可能会“摧毁围绕AI模型形成的生态系统”。
值得注意的是,反对者并非否认未来开源可能变得危险。他们承认:在某个能力阈值之上,开源可能需要重新评估。但基于现有证据,现在显然还没到那个点。
在全球AI竞赛背景下,这样的立法信号,可能直接促使公司选择离开加州,或者干脆不在美国首发模型。
总结
SB 1047真正揭示的,不是“要不要管AI”,而是一个更难的问题:在高速、不确定的技术浪潮中,监管该如何避免成为创新的反向激励。对AI从业者来说,这件事至少有三层启示:第一,开源不再只是技术选择,而是政治与法律议题;第二,未来的合规能力,可能和模型能力同样重要;第三,这场辩论不会止步于加州,它正在为联邦层面的AI立法打样。接下来值得持续关注的,不是法案输赢,而是它最终改变了谁的行为。
关键词: SB1047, AI安全, 开源模型, 南希·佩洛西, 美国AI监管
事实核查备注: 需核查:1)Nancy Pelosi公开反对SB 1047的具体声明时间与措辞;2)联名致信的国会议员名单;3)SB 1047中关于算力阈值和责任条款的具体表述;4)a16z与Y Combinator公开信的发布时间;5)NIST相关AI评估标准是否尚未正式发布