5年立场大反转:英国AI国家任务负责人为何从理想主义走向生存警告
正在加载视频...
视频章节
2018年,他高喊“AI应该是全球公共品”;2023年,他却警告AI可能“导致人类灭绝”。英国Foundation Model Task Force新任主席Ian Hogarth,用5年时间完成了一次罕见的立场急转。这段转变,正是每一个AI从业者都绕不开的现实。
5年立场大反转:英国AI国家任务负责人为何从理想主义走向生存警告
2018年,他高喊“AI应该是全球公共品”;2023年,他却警告AI可能“导致人类灭绝”。英国Foundation Model Task Force新任主席Ian Hogarth,用5年时间完成了一次罕见的立场急转。这段转变,正是每一个AI从业者都绕不开的现实。
从理想主义出发:他曾把AI当成“全人类的礼物”
如果你只看Ian Hogarth 2018年的文章,很难想象他会成为今天“AI风险派”的代表人物。当年,他提出一个近乎乌托邦的概念——“AI民族主义”(AI Nationalism)。但和字面意思相反,他真正担心的,是各国把AI据为己有。
Ian在文中反复强调一个核心判断:“AI应该被视为全球公共品。”就像空气、海洋、基础科学一样,AI的价值不该被单一国家或公司锁死。在他看来,如果AI被地缘政治主导,后果将不只是技术分裂,而是全球不稳定的放大器。
这个阶段的Ian,更像一位技术理想主义者:相信制度设计、国际合作和工程师精神,能让技术自然走向善。
三种不稳定的预言:他其实早就嗅到了危险
有意思的是,即便在最理想主义的阶段,Ian也并非天真。他在文章中提出了“三种不稳定性”的框架,其中一个极具现实冲击力的类比,是把AI类比为“新石油”。
他指出,历史上,国家与跨国公司围绕石油形成的联盟,制造了长期的地缘政治冲突。而AI,正在复制这条路径:算力、模型、数据,逐渐成为新的战略资源。
更重要的是,Ian把AI的不稳定性,和劳动力成本、人口结构、产业组合等长期变量绑在一起讨论。他担心的不是某个模型失控,而是AI对社会结构的系统性冲击——只是当时,这些担忧还停留在“潜在风险”的层面。
5年后立场突变:他开始谈“人类灭绝”
时间快进到2023年4月。Ian的语气彻底变了。
在最新的文章和公开表达中,他不再只谈制度失灵,而是直接抛出一个震撼判断:先进AI“可能引发人类的过时,甚至毁灭”。这不再是隐喻,而是生存级别的风险描述。
变化发生的背景很清晰:少数几家公司,在基础模型上的竞争已经进入失控边缘。Ian直言,目前我们所做的大多数安全努力,“基本是表面功夫”。在算力竞赛和资本压力下,真正的减速、对齐和治理,几乎没有发生。
这也是为什么,他会接受一个极具政治意味的角色——英国Foundation Model Task Force主席。不是为了写文章,而是为了直接介入方向盘。
从“无国界工程师”到国家任务:现实击败了浪漫
Ian早期文章的结尾,叫《Engineers Without Borders》。那是一种典型的硅谷式信念:工程师跨越国界,技术自然造福世界。
但现实给了相反的答案。
当模型训练成本飙升、算力被少数玩家垄断、国家安全议题全面介入,工程师已经不可能“无国界”。Ian的转变,本质上是一代技术理想主义者,对现实结构性力量的妥协与回应。
他不再问“AI应该是什么”,而是更残酷的问题:“如果我们继续这样下去,会发生什么?”
总结
Ian Hogarth的转变,值得每一个AI从业者反复咀嚼:不是因为他悲观,而是因为他比大多数人更早看清了系统性风险。对个人而言,这意味着三个行动信号:第一,不要再把“安全”和“治理”当成公关词汇;第二,理解AI正在被国家力量重新定义;第三,思考你正在参与的项目,是否在加速一个你无法控制的系统。真正的问题或许不是AI会不会失控,而是当它失控时,你站在哪一边。
关键词: Ian Hogarth, 英国AI任务小组, 基础模型, AI治理, AI风险
事实核查备注: 需要核查:Ian Hogarth任命为英国Foundation Model Task Force主席的具体时间;2018年提出“AI应成为全球公共品”的原文出处;2023年4月关于“人类灭绝风险”的具体表述与原句。