Google创始人回归一线,只为打一场Gemini的生死战
当AI竞赛进入白热化,最意外的信号不是新模型发布,而是Sergey Brin亲自回到Google办公室。每周三到四天、直插技术与人才战,这背后,是Gemini与GPT-4、Llama 2正面交锋的压力,也是AI产业节奏失控前的真实写照。
当AI竞赛进入白热化,最意外的信号不是新模型发布,而是Sergey Brin亲自回到Google办公室。每周三到四天、直插技术与人才战,这背后,是Gemini与GPT-4、Llama 2正面交锋的压力,也是AI产业节奏失控前的真实写照。
就在编剧和演员罢工把“AI威胁创作”推到台前时,一家公司用一个演示给了行业当头一棒:只用一句提示词,AI就能写、画、配音、剪完一整集电视剧。更讽刺的是,这一集讲的正是罢工本身。
我们找不到外星人,可能不是因为宇宙太大,而是因为所有足够聪明的文明,都会在同一个节点“消失”。更令人不安的是,Sam Altman 早在创办 OpenAI 之前,就公开写下一个猜想:AI,可能正是那个让宇宙保持沉默的终极原因。
ChatGPT不是被夸得太猛,而是第一次被美国政府“正式盯上”。FTC一封20页调查函,把OpenAI的训练数据、幻觉问题、企业客户、甚至公司治理全部摊开检查。这不是一次普通调查,而是AI监管真空期里最具信号意义的一枪。
当 OpenAI、Anthropic 被不断神话为“终结者”,YC 的两位合伙人选择用历史和亲身经历泼一盆冷水。他们认为,AI 并不会杀死创业公司,真正危险的是误解技术、误判趋势,以及把“AI”当口号而不是工具。
如果AI真的会毁灭人类,最可能的方式并不是科幻电影里的“天网觉醒”。在这期被广泛讨论的视频中,MIT、剑桥、MILA 等顶级研究者给出了5种更冷酷、也更现实的结局版本,其中一些危险,其实已经发生了。
一家只有约35名员工的AI公司,刚刚融到13亿美元,只为做一件事:打造“个人智能”。这不是又一轮AI泡沫,而是一次算力、模型与人类关系的豪赌。与此同时,OpenAI在狂奔、被起诉、被监管围追堵截,整个行业正在走向一个更微妙的拐点。
一边是美国考虑进一步封锁AI芯片出口,一边是中国公司高调宣称模型超越GPT-4,而OpenAI和Google却在同一时间悄悄加速产品落地。真正的AI竞争,早已不只是模型参数的对决。
当大家还在卷模型参数时,Sam Altman已经把目光投向“AI应用的分发权”。与此同时,更小的数据集击败大模型、新版图灵测试、地下芯片市场同时登场——这不是零散新闻,而是一场AI权力结构的重组。
一篇来自《时代》杂志的“独家调查”,把 OpenAI 推上了风口浪尖:嘴上高呼 AI 强监管,背地却在游说欧盟“放水”。听起来像铁证如山,但如果你真看过原始文件,会发现这场愤怒,可能正在伤害真正的 AI 安全。