他们说AI可能毁灭人类,却仍在加速研究:7个真实动机被一次说透

AI PM 编辑部 · 2023年08月07日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

一群最担心AI灭绝人类的人,恰恰也是最努力推进AI的人。这不是伪善,而是一套你必须理解的内在逻辑。从“我做的并不危险”,到“就算毁灭也值得”,这期视频把行业里最不愿摊开的动机,全部摆到了台面上。

他们说AI可能毁灭人类,却仍在加速研究:7个真实动机被一次说透

一群最担心AI灭绝人类的人,恰恰也是最努力推进AI的人。这不是伪善,而是一套你必须理解的内在逻辑。从“我做的并不危险”,到“就算毁灭也值得”,这期视频把行业里最不愿摊开的动机,全部摆到了台面上。

第一层真相:我担心AI,但我做的“不是那种AI”

视频抛出的第一个反直觉点是:几乎所有表达过“AI存在灭绝风险”的研究者,都会强调一件事——他们自己正在做的研究,并不危险。

原因很简单,却经常被外界忽略:“AI”这个词太宽了。从能效优化、推荐系统、语言模型微调,到理论对齐研究,全都被塞进同一个桶里。很多研究者真诚地认为,真正危险的是某一小撮“前沿能力突破”,而不是自己手上的工作。

这就形成了一种行业内常见的心理分区:风险是存在的,但风险不在我这条生产线上。正如视频中提到的类比——担心核武器,并不等于反对能源研究。理解这一点,你就理解了为什么“忧心忡忡”和“继续写代码”并不冲突。

第二层真相:如果AGI不可避免,那我必须在场

第二个动机更具行动力,也更有野心:AGI被认为是不可避免的,而结果好坏,取决于“谁在场”。

不少研究者的真实想法是:如果通用人工智能一定会被造出来,那退出只会把舞台让给更激进、约束更少的人。与其袖手旁观,不如亲自参与,至少能在关键决策上拉一把刹车。

视频还点出了一个敏感但真实的因素——地缘政治。推动“本国AI能力领先”,在一些研究者看来,本身就是降低全球风险的方式之一。听起来矛盾,但逻辑是:如果对手先到达AGI,风险可能更不可控。

第三层真相:AGI要么很远,要么值得赌一把

第三和第四个理由,把时间和价值观推到了台前。

一部分研究者认为,真正意义上的AGI还很远——远到几十年,甚至上百年。既然如此,现在退出不仅改变不了终局,还会放弃当下AI带来的现实收益。

而另一部分人,则更直白也更冷酷:他们认为AGI的潜在收益,足以覆盖极端风险。视频中提到的那句黑色幽默式感叹尤其扎心——“如果人类刚好在我死后解决了死亡,那该有多遗憾。”

在这种视角下,哪怕存在灭绝风险,AGI依然被视为一场值得押注的文明级实验。

最后一层真相:有人真的接受‘即便毁灭,也值得’

视频最具冲击力的,是最后两个理由。

其一,是认为加速AI发展反而能降低总体灾难风险。例如,通过技术优势减少核冲突动机,或改变大国博弈结构。

其二,也是最具争议的一点:确实有人认为,即便AGI最终导致人类灭绝,这个结果本身也是可以接受的。这不是网络极端言论,而是真实出现在主流媒体访谈中的立场。

当你理解这点,就会明白:AI安全讨论的分歧,从来不只是技术路线,而是价值排序。

总结

这期视频真正的价值,不在于给出“正确答案”,而是把AI行业内部最真实、也最分裂的动机摊开给你看。对AI从业者而言,最大的takeaway是:你是否继续做AI,不只是在做技术选择,而是在无意中站队一种世界观。

一个值得带走的行动建议是:下次讨论AI风险时,别只问“会不会危险”,而要多追问一句——“如果不可避免,我们希望谁在驾驶座上?”这个问题,决定了你今天写的每一行代码,最终会通向哪里。


关键词: 通用人工智能, AI安全, AGI风险, 科技伦理, 人工智能研究

事实核查备注: 需要核查:视频原发布时间(2023-08-07);视频中是否明确提及‘有人认为即便导致人类灭绝也值得’这一立场;关于AGI时间尺度(几十年到上百年)的表述是否为原话或概括;是否引用过主流媒体访谈(如Fox News)