英国邀请中国参加AI峰会,一场比技术更危险的博弈正在上演
在一场号称讨论“AI安全”的全球峰会前夕,英国做了一个让盟友皱眉、让国内炸锅的决定:邀请中国参加。当间谍丑闻、芯片封锁和AI军备竞赛同时发生,这个邀请本身,已经成了一次高风险的地缘政治实验。
在一场号称讨论“AI安全”的全球峰会前夕,英国做了一个让盟友皱眉、让国内炸锅的决定:邀请中国参加。当间谍丑闻、芯片封锁和AI军备竞赛同时发生,这个邀请本身,已经成了一次高风险的地缘政治实验。
如果你还觉得AGI只是远未来的科幻,那这组数据可能会让你后背一凉:在一个聚合了上千名预测者的市场里,AGI在2032年前出现的概率被推到了92%。这不是某个大佬的豪言,而是集体智能给出的冷静下注。
如果你以为AI最大的风险还停留在“未来失控”,那你可能已经落后了。就在同一周,AI深度伪造逼近美国大选、资本与技术开始对中国“硬脱钩”,而模型竞赛却在悄悄加速。这不是三条新闻,而是一张正在收紧的时代之网。
一夜之间,科学家、工程师和AI从业者同时盯上了一种名为LK-99的材料。它被宣称能在常温常压下实现超导,也被质疑数据站不住脚、作者关系扑朔迷离。这不只是一次材料学争议,更可能牵动AI算力、能源与科研体系的底层逻辑。
不是“AI 会不会抢走你的工作”,而是“它先改造谁”。麦肯锡和皮尤的两份研究给出一个反直觉答案:被 AI 影响最深的,未必是程序员,而是那些看似最“稳定”的岗位。
当所有人都在问“AI会不会毁灭人类”,这支视频却抛出一个更激进的判断:AI可能是人类文明有史以来最好的发明。更反直觉的是,真正的风险并不在技术本身,而在我们如何使用、限制甚至恐惧它。
这期《No Priors》闲聊式对谈中,Sarah Guo 与 Elad Gil 从投资人视角拆解当下 AI 热潮中最常见的误解:技术被低估、应用被高估、监管被简单化。他们不谈概念轰炸,而是反复强调“什么真的在规模化运作”,以及为什么这是一代完全不同的技术浪潮。
在与Lex Fridman的对话中,瑞·达利欧直面自动化与AI带来的长期冲击:它既是生产力的巨大引擎,也是社会分化的放大器。他并不反对技术进步,却对“如何分配收益”保持高度警惕,并对全民基本收入提出了出人意料的审慎看法。