5%灭绝概率背后:2700名AI研究者真正害怕的不是末日
正在加载视频...
视频章节
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
5%灭绝概率背后:2700名AI研究者真正害怕的不是末日
如果有一项技术,有5%的概率终结人类,你会觉得这是“很低”,还是“高得吓人”?一项覆盖2700多名AI与机器学习研究者的最新调查,把AI安全争论直接推到了桌面中央,而真正值得警惕的,还不只是那个5%。
5%这个数字,正在被两种完全相反的人“各取所需”
同一个调查结果,却被媒体写出了两种截然不同的故事:一种标题是“AI有5%的概率导致人类灭绝”,另一种则是“只有5%”。这不是统计学问题,而是立场问题。调查显示,约58%的AI研究者认为,先进AI导致人类灭绝或类似极端灾难的概率在5%左右。论文作者的解读很直接:重点不在于5%这个具体数字,而在于——“大多数AI研究者并不认为这种风险是荒谬的”。换句话说,当一个行业的从业者愿意认真给自己工作的‘灭世风险’打分,本身就已经是一个危险信号。5%不是安慰剂,而是一张压力测试纸,照出了我们对AI未来的不同心理投射。
真正让研究者不安的,是时间线在一年内被“拉快了13年”
如果说灭绝风险听起来还太遥远,那么时间线的变化就显得异常具体。调查问了一个关键问题:在科学进展不被打断的前提下,机器在“几乎所有任务上超过人类”的时间点在哪里?研究者给出的中位数答案是:2027年有10%的概率,2047年达到50%。更惊人的是,这个2047年的判断,比一年前的同类调查足足提前了13年。一年时间,认知前移13年。类似的情况也出现在“人类职业被全面自动化”的判断上:50%概率的时间点,从2164年提前到了2116年。这些数字本身未必精准,但它们共同指向一个事实:AI的进展速度,正在迫使最了解它的人不断推翻自己的旧判断。
乐观派和悲观派,其实在同一件事上达成了共识
调查中一个被严重低估的细节是:即便是“净乐观派”的研究者,也并不安心。68.3%的受访者认为,超级智能AI带来好结果的概率高于坏结果,但在这些乐观者中,仍有48%给出了至少5%的“极端坏结果”概率。反过来,在净悲观派中,也有59%认为超级智能可能带来极端好的结果。这种交叉本身说明了一件事:大家并不是在争论“AI是天堂还是地狱”,而是在承认一个高度不确定、但后果极端放大的系统已经出现。也正因如此,超过90%的研究者对AI被用于操纵舆论、制造虚假信息、加剧不平等、强化威权控制表示担忧。恐惧并不集中在科幻式的觉醒AI,而是集中在“目标没设对的强大系统”。
比灭绝概率更刺眼的,是10:1的态度碾压
如果只能从这份调查中带走一个结论,那应该是这个:AI研究者正在用压倒性的比例要求更多AI安全研究。86%的人认为“AI对齐问题很重要”,只有14%认为不重要;70%希望未来更多优先级给AI安全研究,只有7%希望降低优先级——这是接近10:1的态度差距。更耐人寻味的是,所有受访者给出的“人类被永久性剥夺权力或灭绝”的平均概率是16.2%,研究者自己都把它类比为“俄罗斯轮盘赌”。这已经不是哲学争论,而是风险管理问题。
总结
这项调查真正传递的信号,并不是“AI会不会毁灭人类”,而是:最懂AI的人,已经不再把安全当成边角料。对AI从业者来说,这意味着三件事:第一,别再用“媒体炒作”来回避风险讨论;第二,把AI安全、对齐和治理视为核心能力,而不是道德装饰;第三,接受一个现实——市场激励会持续推动速度,但责任不会自动出现。5%这个数字或许可以争论,但当一个行业集体要求“慢一点、稳一点”,你至少该认真听完他们为什么这么说。
关键词: AI安全, 通用人工智能, AI对齐, 机器学习, 生成式AI
事实核查备注: 需核查:调查样本数量(约2700名AI/ML研究者);58%给出5%灭绝或极端坏结果概率;平均概率16.2%的表述;时间线变化(2047年比前一年提前13年);70%支持更多AI安全研究、7%反对;调查机构AI Impacts(伯克利)。