76%的美国人相信AI会毁灭人类,这不是情绪,而是一次集体转向
正在加载视频...
视频章节
如果你还以为“AI会不会毁灭人类”只是硅谷的边缘话题,这份最新民调会直接打脸:76%的美国选民认真相信,AI最终可能威胁人类生存。更反常的是,这种恐惧首次横跨党派,左右一致。这不是科幻焦虑,而是一次正在发生的社会级转向。
76%的美国人相信AI会毁灭人类,这不是情绪,而是一次集体转向
如果你还以为“AI会不会毁灭人类”只是硅谷的边缘话题,这份最新民调会直接打脸:76%的美国选民认真相信,AI最终可能威胁人类生存。更反常的是,这种恐惧首次横跨党派,左右一致。这不是科幻焦虑,而是一次正在发生的社会级转向。
不是少数人的恐慌,而是全民级别的“踩刹车”
这份由 YouGov 执行、AI Policy Institute(AIPI)赞助的民调,最炸裂的不是“AI很危险”,而是美国人已经明确站队了。
72%的选民希望“放慢”AI发展速度,只有8%想加速;62%的人对AI“主要是担忧”,而不是兴奋;86%的人认为AI可能“意外引发灾难性事件”;最狠的一条是——76%的美国人相信,AI最终可能威胁人类的存在。
这不是某一党派的情绪宣泄。75%的民主党人、78%的共和党人,在这个问题上罕见达成一致。要知道,在今天的美国政治语境下,“跨党派共识”几乎是濒危物种。
更值得注意的是信任问题:82%的选民不相信科技公司高管能自我监管AI,但支持由联邦机构监管的比例超过3:1。这意味着,公众已经默认一个前提——AI不再是“企业内部的技术问题”,而是“需要国家级介入的系统性风险”。
先别急着质疑:这份调查并非“带节奏”
AIPI并不讳言自己的立场——他们就是为“把公众的AI焦虑转化为监管政策”而存在的。这让很多技术从业者下意识警惕:这是不是一份有预设立场的调查?
关键在于执行方。真正负责问卷的是 YouGov——一家以方法论严谨著称、长期服务主流媒体和政府机构的民调公司。视频中主持人明确提到,问题设置整体并不刻意引导,只有一句“科技公司高管不能被信任来自我监管AI”略带倾向性,但即便如此,也不足以解释如此悬殊的结果。
更重要的是,AIPI的主张本身并不反技术。他们反对的不是AI进步,而是“在金融激励和军备竞赛式竞争下的无刹车推进”。他们提出的第一批监管抓手非常具体:数据中心级别的监管、模型部署前的安全性证明。
这不是“别做AI”,而是“别闭着眼睛狂奔”。
为什么恐惧来得这么快?四个被严重低估的变量
这轮AI恐惧的扩散速度,远超以往任何一次技术浪潮,原因并不神秘,但常被低估。
第一,生成式AI不是“围观式技术”,而是“亲手体验式技术”。数亿人直接用上了ChatGPT,第一次感受到“机器在写作、思考、解释上比我强”。这是从0到1的心理冲击,不是概念层面的,而是体感层面的。
第二,AI爆发发生在公众对大科技公司信任度急速下滑的窗口期。Brookings 的长期民调显示,2018-2021年间,Facebook、Amazon、Google 是信任度下降最快的机构之一。当AI由这些公司主导时,天然就背负了不信任原罪。
第三,主流媒体对“灭绝风险”的高频轰炸。从 Geoffrey Hinton 离开 Google 开始,“AI可能毁灭人类”几乎成了一个阶段性的头条模板。它不断被重复,最终从极端观点变成了可被认真讨论的公共议题。
第四,也是最现实的一点:工作。AI第一次系统性威胁到白领和创意阶层,再叠加好莱坞罢工的现实冲击,让“AI抢饭碗”从抽象恐惧变成现实焦虑。
这四股力量叠加,几乎必然导向今天这个结果。
真正的问题不是“要不要监管”,而是“谁来踩刹车”
视频最后抛出的关键问题,其实也是整个AI行业接下来五年的主线:国会能不能把这件事做对?
主持人的态度很克制——他并不对国会的执行力过度乐观,但指出一个关键变量正在发生变化:这是一个有明确民意基础、且跨党派支持的议题。这给了立法者“犯错成本更低、尝试空间更大”的政治掩护。
对AI从业者来说,这意味着一个现实判断:未来的AI竞争,不再只是模型规模、参数量和算力的竞争,而是“谁能在监管框架内存活并领先”。
当监管成为必然,合规能力、安全论证能力、本地化部署能力,本身就会变成新的护城河。
总结
这份民调真正重要的不是“美国人害怕AI”,而是一个信号:社会已经默认AI是高风险基础设施。对从业者而言,继续把“安全”“伦理”“监管”当成PR问题,是危险的。
接下来值得你认真思考的是:如果模型部署前真的需要安全证明,你的产品经得起问吗?如果算力和数据中心被监管,你的路线还能跑通吗?
AI的上半场是技术爆发,下半场是制度博弈。懂技术只是入场券,懂规则的人,才可能活到最后。
关键词: AI安全, 生成式AI, ChatGPT, AI监管, AI伦理
事实核查备注: 需要核查的关键事实包括:76%美国选民认为AI可能威胁人类生存;72%支持放缓AI发展;86%认为AI可能引发灾难性事件;民调执行方为YouGov,发布时间背景为2023年8月;涉及人物 Geoffrey Hinton、Sam Altman 的公开立场描述。