巴菲特把AI比作原子弹的那一刻,硅谷真正慌了

AI PM 编辑部 · 2023年05月08日 · 2 阅读 · AI/人工智能

正在加载视频...

视频章节

当全球最谨慎的投资者,把AI和原子弹放在同一个句子里,这不是耸人听闻,而是一个危险信号。巴菲特、Hinton、Bengio、各国政府,正在从不同角度指向同一个事实:AI已经不只是技术问题,而是地缘政治与人类选择的问题。

巴菲特把AI比作原子弹的那一刻,硅谷真正慌了

当全球最谨慎的投资者,把AI和原子弹放在同一个句子里,这不是耸人听闻,而是一个危险信号。巴菲特、Hinton、Bengio、各国政府,正在从不同角度指向同一个事实:AI已经不只是技术问题,而是地缘政治与人类选择的问题。

巴菲特为什么突然提到“原子弹”?

在伯克希尔·哈撒韦年会上,有人问巴菲特怎么看AI。他没有谈估值、没有谈效率,而是说了一句让全场安静下来的话:AI让他“有点担心”,就像当年人类发明原子弹一样。

这个类比并不是说AI=核武器,而是指向一个更深的层面——不可逆性。原子弹一旦被造出来,人类就再也回不到“没有它的世界”。巴菲特强调的是:AI也是如此。一旦被释放,我们无法“反发明”它。

他还引用了爱因斯坦的那句名言:“这一切改变了世界,除了人类思考的方式。”在巴菲特看来,AI恰恰更危险的一点在于,它不仅改变工具,还可能改变人的行为、判断和决策方式,而我们并没有为这种改变做好心理和制度准备。

真正的加速器:不是技术突破,而是资本竞赛

很多人以为AI的失控来自模型能力的飞跃,但Geoffrey Hinton给出了一个更现实的答案:竞争

当年在学术界,AI进展是慢而谨慎的;而现在,它变成了一场资本主义军备竞赛。大公司彼此追赶,小公司拼命融资,没有人愿意慢下来。Hinton离开Google后反复强调:正是这种“谁先慢谁出局”的环境,让安全让位于速度。

这也解释了为什么“暂停AI发展”的公开信在现实中几乎不可能执行。只要有一个玩家不停,其他人就不敢停。正如视频中所说:这不是某家公司道德高不高的问题,而是系统本身的激励机制,正在推动所有人往前冲。

AI已经进入地缘政治主战场

如果说前两年AI还是硅谷的内部事务,现在它已经被明确写进国家战略。

美国的担忧很直白:如果放慢脚步,会不会被中国反超?这也是反对严格监管、反对“暂停”的常见理由。风投大佬Vinod Khosla直言,放慢美国AI研究“只会利好中国”。

但有意思的是,中国反而在AI监管上走得更早。自2017年发布新一代人工智能发展规划以来,中国已经积累了六年的监管经验,把监管当作一种产业政策工具。当然,这种模式在言论与内容管控上的做法,并不可能被美国或欧洲照搬。

与此同时,AI竞争正在被“卡脖子”的地方放大——芯片。美国对先进GPU的出口限制,正在逼迫中国公司用软件和架构创新弥补算力不足。正如《福布斯》所说:AI芯片的地缘政治,可能真的会定义AI的未来。

从欧盟到白宫,AI开始被“当成大事”

一个明显的变化是:政府不再把AI当成普通科技议题。

欧盟正在推进《AI法案》,试图为“强大AI”设定安全和可信的边界,并希望像GDPR一样成为全球模板。G7会议开始把AI作为重点协调议题,意大利已经迫使OpenAI在ChatGPT中加入更多隐私与年龄验证机制。

在美国,白宫直接召集AI CEO闭门会谈——不论讨论是否充分,这个动作本身已经说明问题。AI被同时视为生产力工具、经济变量、平等问题,甚至是国家安全议题。

Yoshua Bengio在非洲的发言则提醒了另一层风险:如果AI的发展只集中在中美,世界其他地区可能被进一步甩开。这不是“是否强大”的问题,而是“是否普惠”的问题。

总结

巴菲特的“原子弹”比喻,本质上不是技术恐慌,而是人类治理能力的拷问。AI已经不可逆,竞争不会停止,地缘政治只会加剧。

对AI从业者来说,真正的takeaway有三点:第一,安全与治理不会是“以后再说”的附加项,而会成为核心能力;第二,理解算力、芯片、监管,比单纯理解模型更重要;第三,未来的AI竞争,不只发生在代码里,也发生在制度、国家和价值观之间。

一个值得思考的问题是:当AI真的改变“人如何思考和行为”时,我们现在做的每一个技术决策,会不会成为那个回不去的起点?


关键词: Warren Buffett, AI安全, 地缘政治, AI芯片, 生成式AI

事实核查备注: 需要核查:巴菲特在2023年伯克希尔年会上关于AI与原子弹的原话;Geoffrey Hinton离开Google并公开谈AI安全的时间点;中国2017年《新一代人工智能发展规划》的发布时间;欧盟《AI法案》的当前立法阶段;美国对白宫AI CEO会议的具体日期。