机器人开始“像大模型一样思考”,DeepMind 正在改写机器人的边界
一个机器人,被要求“捡起已经灭绝的动物”,它没有犹豫,直接抓起了桌上的恐龙玩偶。这个看似简单的动作,背后却意味着:机器人第一次真正用上了类似大语言模型的“理解力”。这不是演示噱头,而是一场正在发生的范式转移。
一个机器人,被要求“捡起已经灭绝的动物”,它没有犹豫,直接抓起了桌上的恐龙玩偶。这个看似简单的动作,背后却意味着:机器人第一次真正用上了类似大语言模型的“理解力”。这不是演示噱头,而是一场正在发生的范式转移。
如果你以为生成式AI还停留在“PPT层面”,这份麦肯锡最新调研会让你改观:三分之一的企业已经在真实业务中使用它,但真正拉开差距的,并不是用不用,而是怎么用、谁在用。
一家实验室用AI在尼安德特人和丹尼索瓦人的蛋白序列里,找回了“灭绝”的抗生素分子;另一边,Google DeepMind 刚刚亮出一个能读影像、懂文本、看基因的通用医疗模型。这不是两条新闻,而是一条正在成型的新范式。
当《奥本海默》让核武幽灵重回公众视野,AI 圈内部却在认真讨论另一件更现实的事:如果 AI 注定进入战场,谁来决定它的边界?Palantir CEO 的一篇檄文,把硅谷、国家安全与 AI 伦理的深层冲突彻底摊开。
一个曾经封杀生成式AI的程序员圣地,如今亲手推出自己的AI产品;一家芯片巨头宣布“每一块平台都必须有AI”;看似鸡肋的AI聊天功能,可能正在悄悄改变用户习惯。这不是零散新闻,而是一条清晰的行业生存逻辑。
AI绘画终于跨过一道尴尬门槛:Stable Diffusion XL 1.0 不但更快、更清晰,还第一次把“文字生成”做到了可用水平。更狠的是,官方研究显示它在用户偏好上击败了 Midjourney。与此同时,Amazon、AI安全研究、日本政府的动作,正在把这场竞赛推向更深水区。
不是“AI 会不会抢走你的工作”,而是“它先改造谁”。麦肯锡和皮尤的两份研究给出一个反直觉答案:被 AI 影响最深的,未必是程序员,而是那些看似最“稳定”的岗位。
当 Meta 的 Llama 2 通过阿里巴巴进入中国市场,这已经不只是一次技术合作,而是一场夹在开源理想、国家安全与商业利益之间的高风险实验。这期视频把几条看似分散的新闻,串成了一条 AI 从业者必须看懂的暗线。
OpenAI、Anthropic、Google、Microsoft突然坐到了一张桌子上,成立“前沿模型论坛”。在AI军备竞赛最白热化的时刻,这究竟是一次罕见的安全共识,还是一场精心设计的行业自保?这篇文章带你拆开这层包装。
OpenAI不是发布新模型,而是“撤回”了一个产品:AI文本检测工具被悄然下线。原因只有一句话——不准。这件事看似小,却同时击中了教育、公平、资本市场和AI治理的几条敏感神经,值得每个AI从业者认真读完。