FTC突袭OpenAI:ChatGPT第一次站上监管被告席,真正的麻烦才刚开始
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
Elon Musk 宣布成立 xAI 时,几乎没人知道它要做什么,但所有人都意识到:这不是一次普通的创业。前 OpenAI 创始人、手握 Twitter 数据、集结顶级研究员,xAI 背后是一套与主流完全不同的 AI 世界观。这篇文章带你拆解,xAI 真正想干什么,以及它为什么可能成为 OpenAI 最危险的对手。
GPT-4 终于迎来了一个“不像陪跑者”的对手。Anthropic 推出的 Claude 2,在考试成绩上紧追不舍,却在上下文窗口、价格和安全哲学上走了一条完全不同的路。这不是一次普通的模型升级,而是一次对 OpenAI 统治地位的正面冲击。
如果你还以为AI威胁“主要是蓝领”,这份最新报告会让你背后一凉。OECD发现,27%的工作正处在AI自动化的最高风险区,而且数据还没算上ChatGPT。更微妙的是:一边是裁员焦虑,另一边却是效率、幸福感和心理健康的同步提升。
当AI第一次以“机密级别”走进美国参议院,事情就已经不再是科技圈的内部讨论。这场白宫闭门简报,把生成式AI、军事算法和中美博弈绑在了一起,也释放出一个强烈信号:AI,正在被当成新的国家安全基础设施。
如果AI真的会毁灭人类,最可能的方式并不是科幻电影里的“天网觉醒”。在这期被广泛讨论的视频中,MIT、剑桥、MILA 等顶级研究者给出了5种更冷酷、也更现实的结局版本,其中一些危险,其实已经发生了。
如果你以为AI安全的终极答案是“更强的规则”和“更严的对齐”,这期视频会让你背后一凉。David Brin 抛出一个极端却无法回避的观点:真正能约束AI的,不是外部控制,而是给它一个“灵魂”——也就是独立身份与责任。
OpenAI 在一周内密集抛出多项重磅更新,但真正让内行人兴奋的,并不是 GPT-4 API,而是 Code Interpreter 的全面开放。它让 ChatGPT 第一次具备了“动手能力”,也悄悄改变了人们对 AI 工作方式的想象。
OpenAI最近抛出一个看似“拯救世界”的新计划,但真正让业内警觉的,不是它说要做AI安全,而是它公开承认:现有方法可能根本不够。这段视频拆解了一个被很多人忽略的信号——AI安全,正在从口号阶段进入未知深水区。
如果AGI来得比你想象中更快,真正的风险可能不是“机器统治人类”,而是人类失去自我照顾的能力。这期对话里,David Shapiro一边给出激进的AGI时间表,一边却把全部精力押在AI对齐、激励结构和人类未来的“软问题”上。