Meta造芯、Apple封禁、学校解禁:AI芯片战争突然全面升级

AI PM 编辑部 · 2023年05月19日 · 3 阅读 · AI/人工智能

正在加载视频...

视频章节

一边是Meta高调宣布自研AI芯片和超级算力,一边是Apple悄悄封禁ChatGPT、同时被曝在内部憋大招,而纽约公立学校却反向操作,重新拥抱生成式AI。这不是零散新闻,而是一场正在成型的“AI基础设施战争”。

Meta造芯、Apple封禁、学校解禁:AI芯片战争突然全面升级

一边是Meta高调宣布自研AI芯片和超级算力,一边是Apple悄悄封禁ChatGPT、同时被曝在内部憋大招,而纽约公立学校却反向操作,重新拥抱生成式AI。这不是零散新闻,而是一场正在成型的“AI基础设施战争”。

AI真正的战场,不在模型,而在芯片和算力

如果你还以为AI竞争的核心是“谁的模型参数更多”,那可能已经慢了一拍。Meta这次抛出的不是一个产品,而是一整套“为AI重做基础设施”的宣言:自研训练芯片MTIA、专用视频处理芯片MSVP、新一代AI数据中心设计,以及第二阶段的16000块GPU研究超级计算机。

这里的信号非常清晰:AI不再只是跑在通用GPU上的软件,而是正在反向定义硬件。Meta明确说MTIA是“为内部工作负载定制”的,这意味着它并不追求通用性,而是追求效率和成本控制。换句话说,大厂已经不满足于被NVIDIA的节奏牵着走,而是要把算力变成自己的护城河。

更有意思的是MSVP这颗视频处理ASIC。它既服务点播,又强调低延迟直播,结合Meta在AR/VR和元宇宙上的长期押注,很难不让人联想到:未来大量AI生成内容,本身就是“视频形态”的。算力,正在向内容生产的最前线移动。

当每家巨头都想要“自己的芯片”,市场已经给出答案

Meta并不是孤例。就在此前,市场传出AMD与微软合作“Athena”项目、开发定制AI芯片的消息。即便微软随后否认,AMD股价依然上涨——这本身就说明了一件事:资本市场已经默认,AI=芯片=长期增长。

这背后有一个残酷现实:在大模型时代,算力成本决定了你能不能持续迭代。对云厂商和平台型公司来说,自研芯片不是“技术炫技”,而是财务问题。谁能把单位token的成本打下来,谁才能把AI真正规模化。

从这个角度看,Meta公布RSC超级计算机的第二阶段,并不是秀肌肉,而是在告诉同行:我们准备长期打这场仗。而这也解释了为什么“AI芯片”这个听起来偏底层的话题,突然成了所有AI从业者绕不开的主线。

Apple一边封ChatGPT,一边偷偷招人,这才是真正的谨慎

和Meta的高调形成鲜明对比的,是Apple的“极度克制”。表面上,它加入了封禁ChatGPT和GitHub Copilot的公司行列,理由很直接:不希望内部数据进入外部模型的训练体系。

但真正值得注意的,是被埋在报道里的那句话:Apple正在开发自己的大语言模型。几乎同时,Apple在招聘网站上悄然放出多条生成式AI岗位,方向集中在视觉生成、多模态、计算摄影、3D重建和Avatar生成。

这其实非常“苹果”。不抢首发、不公开画饼,而是等技术、隐私、产品体验都可控之后,再一次性端上来。下个月的WWDC成了一个微妙的时间点——没人确定Apple会说多少,但几乎所有人都在等它亮底牌。

耐人寻味的是:当科技公司对生成式AI保持高度戒备时,纽约市公立学校却选择了解禁ChatGPT。他们从“本能的恐惧”转向“谨慎探索”,让学生一边用,一边质疑和验证。这可能是目前最成熟的一种态度:AI不是洪水猛兽,而是一种必须学会共处的能力。

总结

把这些看似分散的新闻放在一起,其实是一张清晰的路线图:短期看模型,中期看算力,长期看基础设施和组织能力。Meta用芯片和数据中心下注未来,Apple用封闭和耐心换确定性,教育系统开始学习如何与AI共生。

对AI从业者来说,takeaway很现实:别只盯着Prompt和模型排行榜,开始理解算力成本、硬件趋势和数据治理;别急着站队某个产品,而是观察哪家公司在为“十年后的AI”铺路。下一轮真正拉开差距的,不是谁先用上AI,而是谁能长期、低成本、可控地用下去。


关键词: AI芯片, Meta, Apple, ChatGPT, 算力基础设施

事实核查备注: 1. Meta博客发布时间与MTIA、MSVP芯片名称及定位;2. RSC超级计算机GPU数量(16000)及“第二阶段”表述;3. AMD与微软Athena项目报道时间及微软否认声明;4. Apple封禁ChatGPT与GitHub Copilot的具体政策来源;5. 纽约市公立学校解禁ChatGPT的官方表态与David Banks言论时间。