加州否决AI安全法案:一场注定升级为全国之争的监管分水岭
正在加载视频...
视频章节
加州州长纽森否决SB-1047,不只是一次立法失败,而是AI安全监管路径之争的集中爆发:是按算力和训练成本设门槛,还是按真实风险分级治理?这场争论已从加州走向全国,甚至全球。
加州否决AI安全法案:一场注定升级为全国之争的监管分水岭
加州州长纽森否决SB-1047,不只是一次立法失败,而是AI安全监管路径之争的集中爆发:是按算力和训练成本设门槛,还是按真实风险分级治理?这场争论已从加州走向全国,甚至全球。
一纸否决令,终结了SB-1047,却点燃了更大的战火
这件事之所以重要,是因为SB-1047曾被视为美国迄今最激进、也最具体的一部AI安全法案。它并不是原则性宣言,而是试图直接把“安全”写进模型训练和部署流程。法案要求:任何在AI模型训练上花费超过1亿美元的主体,必须进行系统性的安全测试;根据测试结果设定能力上限;模型必须内置“kill switch”,允许人类在必要时强制关闭;同时还可能对模型开发者引入下游责任。
正因如此,SB-1047在过去数月成为AI行业最具争议的话题。支持者认为,这是第一次有人正面回应“前沿模型可能带来的系统性风险”;反对者则警告,这样的责任和门槛会对创新,尤其是开源模型产生“冻结效应”。在漫长等待后,加州州长Gavin Newsom最终选择否决。
但这并不是一次简单的“支持或反对AI监管”。恰恰相反,纽森在否决信中反复强调,他认同AI带来的真实风险,也认同必须采取前瞻性措施。问题不在于“要不要管”,而在于“怎么管”。这一点,成为理解整场争论的钥匙。
纽森的核心分歧:用“训练成本”衡量风险,是一条危险的捷径
纽森否决SB-1047的关键理由,集中在一个看似技术、实则极其政治化的问题上:监管门槛该如何定义。法案选择了一个清晰但粗暴的指标——训练成本和计算量。但在纽森看来,这种方法可能带来“虚假的安全感”。
他在否决信中直言:“关键的争论在于,监管门槛应基于开发AI模型所需的成本和计算量,还是应不论这些因素,直接评估系统的实际风险。”他的担忧是,如果监管只盯着最昂贵、最大规模的模型,公众可能会误以为小模型就是安全的,而事实上,“更小、更专用的模型,完全可能同样危险,甚至更危险”。
更重要的是,SB-1047并未区分模型的使用场景。无论系统是否被部署在高风险环境、是否涉及关键决策、是否使用敏感数据,只要来自大型模型,就要承受同样严格的要求。纽森总结道:“我不认为这是保护公众免受技术真实威胁的最佳方式。”
这一逻辑,几乎完整复述了反对者长期以来的核心批评:过度关注假设性的未来灾难,而忽视已经发生、且正在扩散的现实风险。
否决不是放任:加州正在走一条“另一种AI治理路线”
如果只看否决本身,很容易误解加州是在向科技公司“投降”。但州长办公室同步发布的一份新闻稿,提供了完全不同的背景。标题直截了当:《Governor Newsom announces new initiatives to advance safe and responsible AI, protect Californians》。
在这套替代方案中,最引人注目的是李飞飞的出现。州政府宣布,由“AI教母”李飞飞(Fei-Fei Li)以及多位专家共同牵头,帮助加州制定生成式AI部署层面的负责任护栏。同时,纽森要求州级机构扩大对潜在灾难性AI事件的风险评估。
更容易被忽略的一个数字是:过去30天内,纽森已经签署了17项与生成式AI相关的法案,内容涵盖打击深度伪造、AI水印、隐私保护等现实问题。这些都是“已知风险”,而不是尚未验证的x-risk。
这也解释了一个看似矛盾的态度:纽森一方面否决SB-1047,另一方面明确表示,“我们不能等到重大灾难发生后才采取行动”。他要否定的不是监管本身,而是一种可能扼杀技术潜力、却未必真正降低风险的监管框架。
两极反应:从“我们都更不安全了”到“这是一个红字日”
否决引发的反应几乎瞬间撕裂了AI生态。法案作者、参议员Scott Wiener毫不掩饰失望,称这是“相信应该监督大型企业的所有人的一次挫败”。他警告,企业的自愿承诺“不可执行,也很少真正为公众服务”,并直言这一否决让美国在AI约束上处于真空状态。
更尖锐的批评来自法案主要作者之一、Center for AI Safety的Dan Hendrycks。他表示,围绕法案的行业话术“令人心寒”,并指责部分科技公司“用负责任AI的口号,作为自身商业和投资策略的公关掩护”。
而在另一端,欢呼几乎是即时的。a16z的Marc Andreessen感谢纽森“选择了加州的活力、经济增长和计算自由”;Meta首席AI科学家Yann LeCun直言,开源AI社区“感谢这个理性的决定”。Y Combinator总裁Gary Tan甚至称之为“一个红字日”。
这些反应之所以重要,不在于立场本身,而在于它们清晰暴露了AI安全讨论中价值观的根本冲突:是先锁死潜在风险,还是允许技术在实践中迭代、修正?
真正的结局:这不是加州的终章,而是全国乃至全球的开场
几乎所有参与者都意识到,SB-1047的故事并未结束,只是换了舞台。投资人Vinod Khosla指出,这本来就不是一个州级问题,而是“国家安全和技术领导力”的议题。也有人反驳说,AI作为一种强大的表达工具,其安全性是全球性难题,根本无法由单一国家定义。
Marc Andreessen的态度则更为激进,他指控支持者正试图在联邦层面“取缔开源”,并强调“我不是猜测,我亲眼见过”。这句话预示着,下一阶段的争论只会更加激烈。
视频的最后提出了一个悬而未决的问题:是否会出现否决被推翻,或以加州全民公投形式“复活”的SB-1047?短期内,这些都不太可能。但可以确定的是,关于AI监管的真正主战场,已经从加州议会,转向了华盛顿,甚至更广阔的国际舞台。
总结
SB-1047的否决,表面上是一次立法失败,实质上却清晰划出了AI监管的核心分歧:我们究竟是在管理“模型的规模”,还是在管理“技术造成的真实风险”。纽森选择了一条更复杂、也更具不确定性的道路——把重点放在部署、场景和现实危害上。这条路是否正确仍有争议,但可以肯定的是,AI安全已经不再是技术圈的内部讨论,而是一场不可回避的公共治理实验。
关键词: SB-1047, AI安全, 加州AI监管, 开源模型, 生成式AI
事实核查备注: Gavin Newsom 否决 SB-1047;法案训练成本门槛为 1 亿美元;要求安全测试与 kill switch;加州拥有全球50家领先AI公司中的32家;李飞飞参与加州AI治理委员会;过去30天签署17项生成式AI相关法案;公开表态人物包括 Scott Wiener、Dan Hendrycks、Marc Andreessen、Yann LeCun、Gary Tan、Vinod Khosla;涉及公司 a16z、Meta、OpenAI;提及产品 OpenAI o1。