一项民调揭露残酷现实:美国人已开始不信任被AI“污染”的选举
一半美国人相信:AI制造的虚假信息,将直接左右总统选举结果。更糟的是,三分之一的人已经提前决定——就算选举结束,他们也不会再完全相信结果。这不是科幻,而是一项刚出炉的真实民调,正在把AI从“效率工具”推向“民主变量”。
一半美国人相信:AI制造的虚假信息,将直接左右总统选举结果。更糟的是,三分之一的人已经提前决定——就算选举结束,他们也不会再完全相信结果。这不是科幻,而是一项刚出炉的真实民调,正在把AI从“效率工具”推向“民主变量”。
一家实验室用AI在尼安德特人和丹尼索瓦人的蛋白序列里,找回了“灭绝”的抗生素分子;另一边,Google DeepMind 刚刚亮出一个能读影像、懂文本、看基因的通用医疗模型。这不是两条新闻,而是一条正在成型的新范式。
如果你还以为AI威胁“主要是蓝领”,这份最新报告会让你背后一凉。OECD发现,27%的工作正处在AI自动化的最高风险区,而且数据还没算上ChatGPT。更微妙的是:一边是裁员焦虑,另一边却是效率、幸福感和心理健康的同步提升。
当所有人都在讨论AI如何提效、如何颠覆行业时,美国一位联邦法官却直接下令:ChatGPT不得进入我的法庭。这不是情绪化反应,而是AI落地过程中最真实、也最具代表性的冲突现场。
一张由 AI 生成的“五角大楼爆炸照”,在20分钟内搅动全球市场;几天后,OpenAI CEO Sam Altman 坐在美国参议院听证席上,主动要求更强监管。这不是巧合,而是 AI 治理进入现实阶段的信号。
在这期《No Priors》播客中,DeepMind联合创始人Mustafa Suleyman回顾了自己进入AI领域的个人经历,并系统阐述了他对“智能”“AI Agent”以及通用人工智能的不同看法。这不仅是一段创业史,更是一套关于AI应如何走向大众的思考框架。
OpenAI 学者 Jonathan Ward 做了一件反直觉的事:不用人工标注、不请外包标注员,而是直接拿互联网的“点赞”来训练奖励模型。结果很震撼——模型学会了人类偏好,但准确率卡在了 74%。这背后,藏着今天所有 RLHF 系统的真相与瓶颈。
2020年,DeepMind发布AlphaFold 2,被认为解决了困扰生物学50年的蛋白质折叠难题。Lex Fridman在视频中不仅解释了技术突破本身,更从AI与生命科学交汇的角度,讨论了它为何可能成为一个“诺贝尔奖级别”的起点。
在这次对话中,DeepMind研究者Matt Botvinick提出一个反直觉但极具启发性的观点:理解人类智能,不能只盯着大脑本身,还必须认真对待环境的结构。从图灵机隐喻到强化学习中的自我博弈,他勾勒出一条连接人类认知与现代AI的清晰线索。
AGI这个如今被反复讨论的词,并非一次宏大的理论发明,而是一次略带妥协的命名选择。Ben Goertzel回顾了AGI一词的诞生过程,从一本书的标题争论,到DeepMind创始人、AIXI理论和对“智能”本身的怀疑,揭示了AGI背后被忽略的历史与思想张力。