苹果没喊一句AI,却用一颗芯片悄悄改写了AI竞争规则

AI PM 编辑部 · 2023年09月13日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

当所有人都在等苹果发布“Apple版ChatGPT”时,它却在iPhone 15和Apple Watch里塞进了一条更隐蔽、也更危险的AI路线:不拼大模型,不抢话题,而是用芯片和端侧推理,重构你和AI交互的方式。这可能才是苹果真正的AI野心。

苹果没喊一句AI,却用一颗芯片悄悄改写了AI竞争规则

当所有人都在等苹果发布“Apple版ChatGPT”时,它却在iPhone 15和Apple Watch里塞进了一条更隐蔽、也更危险的AI路线:不拼大模型,不抢话题,而是用芯片和端侧推理,重构你和AI交互的方式。这可能才是苹果真正的AI野心。

最反直觉的一幕:整场发布会,苹果一次都没说“AI”

如果你只盯着发布会关键词,会以为苹果在AI浪潮中“继续装睡”。WWDC不说AI,iPhone 15发布会也不说,甚至Siri都没迎来史诗级更新。但恰恰相反,路透社给这场发布会起了一个极其精准的标题——“AI正在悄悄重塑iPhone和Apple Watch”。

反直觉的地方在于:当OpenAI、Google都在用大模型抢占心智时,苹果选择了完全不同的路径——不把AI当产品卖,而是把AI当底层能力埋进设备里。更重要的是,这不是PPT里的未来愿景,而是已经落到芯片级别的现实。

这意味着一个判断:苹果不是不做生成式AI,而是在等一个它认为“正确的技术形态”。

Apple GPT的尴尬处境,逼出了苹果的真正取舍

今年7月,彭博社首次披露苹果在内部测试“Apple GPT”,基于名为Ajax的框架,训练自有大模型,参数规模超过2000亿。问题也随之而来:这样的模型,根本不可能放进iPhone里。

而苹果的核心信仰从来没变过——隐私优先、端侧优先、尽量不上云。这恰好与当下的生成式AI形成正面冲突:越大的模型,越依赖云端;越个性化,越需要用户数据。

《The Information》的报道点破了矛盾本质:苹果高管并不是不重视AI,而是迟迟找不到“苹果式AI”的消费落点。答案逐渐浮出水面:与其妥协隐私,把AI搬上云,不如把设备本身变得足够强。

A17 Pro + Neural Engine:苹果真正的AI发布会

这也是为什么,A17 Pro芯片才是整场发布会最重要的AI信息。

35 TOPS(每秒35万亿次运算)的端侧ML算力、16核Neural Engine、2倍提升的神经网络性能——这些数字背后的含义只有AI从业者才真正懂:端侧推理开始“够用”了。

更关键的一点常被忽略:苹果反复强调“on-device training & inference”。Dania Costa一针见血地总结:“你可以在iPhone上训练一个了解你的模型,而数据完全不需要上云。”

这不是性能炫技,而是在为一种全新的AI形态铺路:私有的、个性化的、与你强绑定的AI助手,而不是一个对所有人都差不多的聊天机器人。

从“双击手势”看未来:AI正在改写交互,而不是功能列表

Apple Watch的“Double Tap”看起来很小:拇指和食指轻点两下,接电话、关闹钟、滚动界面。CNET的评价也很冷静:不完美,也不是颠覆式创新。

但如果你从机器学习的角度看,这是一次极具象征意义的突破:通过加速的Neural Engine,实时融合加速度计、陀螺仪、心率传感器数据,在端侧完成模式识别。

换句话说,设备开始真正“理解你的动作意图”,而不是等你点屏幕、喊指令。这是AI交互从“显式命令”走向“隐式感知”的第一步。

今天它只是帮你腾出一只拿咖啡的手,明天它可能会在你开口之前,就知道你想做什么。

总结

苹果的AI策略,表面看是“慢”,本质却是一次极其克制、也极其长期主义的下注:不抢生成式AI的第一波流量,而是押注端侧算力、隐私和个性化交互的终局形态。

对AI从业者来说,这释放了一个强烈信号:未来的机会不只在更大的模型,也在更贴近用户、更懂硬件、更懂真实场景的AI系统里。如果你现在做的AI产品,离“端侧可用”“隐私友好”“无感交互”还有多远?

苹果已经给出了一个方向,但真正的问题是——下一轮AI竞争,你站在哪一边?


关键词: 苹果AI, 端侧推理, Neural Engine, A17 Pro, 隐私计算

事实核查备注: 需要核查:1)A17 Pro Neural Engine算力是否为约35 TOPS;2)Apple GPT与Ajax框架的参数规模与名称;3)苹果WWDC与iPhone 15发布会是否未直接使用“Artificial Intelligence”表述;4)Apple Watch Series 9 Double Tap手势的技术实现描述。