GPT-4真的被“削弱”了吗?一组反直觉数据,撕开ChatGPT变化真相
过去几个月,程序员、产品经理、研究员同时发出一个声音:ChatGPT变“笨”了。这不是情绪宣泄——斯坦福与伯克利的一篇论文给出了震撼数据,但随之而来的反驳同样致命。真相可能比“被降级”更复杂,也更值得每个AI从业者警惕。
过去几个月,程序员、产品经理、研究员同时发出一个声音:ChatGPT变“笨”了。这不是情绪宣泄——斯坦福与伯克利的一篇论文给出了震撼数据,但随之而来的反驳同样致命。真相可能比“被降级”更复杂,也更值得每个AI从业者警惕。
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
GPT-4 终于迎来了一个“不像陪跑者”的对手。Anthropic 推出的 Claude 2,在考试成绩上紧追不舍,却在上下文窗口、价格和安全哲学上走了一条完全不同的路。这不是一次普通的模型升级,而是一次对 OpenAI 统治地位的正面冲击。
当所有人都在讨论 AI 会不会毁灭人类时,一群顶级研究者给出了完全相反的答案:AI 可能让人类第一次真正过上“好日子”。这不是鸡汤,而是来自 GPT‑4 时代一线研究者的冷静乐观判断。
如果AI真的会毁灭人类,最可能的方式并不是科幻电影里的“天网觉醒”。在这期被广泛讨论的视频中,MIT、剑桥、MILA 等顶级研究者给出了5种更冷酷、也更现实的结局版本,其中一些危险,其实已经发生了。
OpenAI 在一周内密集抛出多项重磅更新,但真正让内行人兴奋的,并不是 GPT-4 API,而是 Code Interpreter 的全面开放。它让 ChatGPT 第一次具备了“动手能力”,也悄悄改变了人们对 AI 工作方式的想象。
如果AGI来得比你想象中更快,真正的风险可能不是“机器统治人类”,而是人类失去自我照顾的能力。这期对话里,David Shapiro一边给出激进的AGI时间表,一边却把全部精力押在AI对齐、激励结构和人类未来的“软问题”上。
一项新研究给出了一个残酷但清晰的数字:大语言模型在数据标注上,比人类快20倍、便宜7倍,而且还更准。这不是单点突破,而是一连串信号——从程序员到音乐人,从欧盟立法者到广告公司,所有人都在同一周感受到了AI的“真实冲击波”。
很多人还在纠结“AutoGPT是不是噱头”,但一周内的前沿研究已经给出了更激进的答案:AI不只会自己规划和执行任务,还开始理解图像、重绘视频、克隆声音,甚至当老师去教另一个AI。这期《The AI Daily Brief》,几乎把2023年下半年的AI主线一次性摊开。
字节跳动一年买走的英伟达GPU,超过整个中国去年总量;而在华盛顿,AI已经被直接等同为国家安全。真正值得警惕的,可能既不是芯片,也不是模型参数,而是我们正在用什么叙事理解这场AI竞赛。