1万亿参数、4000种语言,AI竞赛正在突然变向
当所有人以为“大模型只会越来越大”,Intel却拿出1万亿参数押注科学研究;Meta用《圣经》训练出覆盖4000种语言的语音模型;而一篇论文却告诉行业:少量微调,反而赢过GPT‑4。这不是热闹,而是方向改变的信号。
当所有人以为“大模型只会越来越大”,Intel却拿出1万亿参数押注科学研究;Meta用《圣经》训练出覆盖4000种语言的语音模型;而一篇论文却告诉行业:少量微调,反而赢过GPT‑4。这不是热闹,而是方向改变的信号。
在一场美国参议院AI听证会上,议员把“人类灭绝级风险”硬生生拐成了“裁员焦虑”。这不是口误,而是一个信号:对绝大多数人来说,AI最现实的噩梦不是失控,而是失业。这段视频把这层恐惧讲透了,也把行业的分歧彻底摊在桌面上。
如果你只记住这一周AI新闻的一件事,那应该是这个强烈反差:上午,人们还在用“拖拽”方式随意拉动狮子的脸;下午,Sam Altman 就坐在国会里,认真讨论“谁有资格训练最强的AI”。工具在狂奔,规则在逼近。
一边是Meta高调宣布自研AI芯片和超级算力,一边是Apple悄悄封禁ChatGPT、同时被曝在内部憋大招,而纽约公立学校却反向操作,重新拥抱生成式AI。这不是零散新闻,而是一场正在成型的“AI基础设施战争”。
如果你还在担心AI像《终结者》那样觉醒、造机器人,那你已经落后了一整代风险判断。尤瓦尔·赫拉利在一次演讲中抛出一个更冷酷的观点:真正危险的AI,已经在我们身边,而且它不需要意识、不需要身体,只需要语言。
Google研究员Karan Singhal回顾了自己从青少年时期的AI项目,到主导Med-PaLM 2医疗大模型的关键转折。这期对话不仅解释了为什么医疗AI不能“直接套用”通用大模型,也系统阐述了预训练、微调、评估与真实医疗工作流之间的张力。
插件不是给ChatGPT“加功能”,而是把它从聊天机器人推向“可执行系统”。从买菜、订机票,到金融研究、代码分析,这一波插件真正改变的,是AI与现实世界的连接方式。
I/O 大会之后,关于“Bard 已经全面超越 ChatGPT”的说法在推特疯传。但一位资深 AI 博主用 5 个真实场景把两者拉到同一擂台,结果却和大多数人的直觉完全相反:Bard 的优势很真实,但 ChatGPT 依然守住了核心阵地。
当全网还在教你如何写出“完美提示词”时,OpenAI 和微软内部已经给出了一个反直觉判断:提示工程,可能根本不是一条长期职业路径。这期视频把行业里最不愿意明说的真相摊在了桌面上。
如果你觉得AI的进化是“渐进式”的,那这一周的新闻会直接打脸。从OpenAI把文字变成3D物体,到Hugging Face让模型开始“自己干活”,再到上下文窗口、视觉语言模型的集体跃迁,AI不只是更聪明了,而是正在换一种存在方式。