扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026年,Meta与AWS达成一项价值数十亿美元的协议,采购数千万个AWS自研的ARM架构Graviton5 CPU核心。这一事件标志着AI算力格局的重大转变:在Agentic AI时代,CPU在推理和调度层的重要性回归,ARM架构正挑战x86在数据中心的主导地位。 ## 1. 打破常规的巨额交易 - 2026年,Meta与AWS联合宣布,Meta将部署数千万个Graviton5核心(对应数十万颗物理芯片),协议为期三年,金额达数十亿美元。 - 此举极不寻常,因为Meta作为顶级AI公司,拥有自研芯片能力和超算集群,却选择向竞争对手AWS大规模采购CPU而非GPU。 ## 2. 为何是CPU?Agentic AI的算力需求 - 交易的核心是CPU,旨在应对新兴的Agentic AI(AI智能体)需求。这类AI需执行多步骤任务,如搜索、代码生成和任务编排,是CPU密集型的。 - GPU擅长并行计算,适合模型训练和批量推理,但Agentic AI所需的灵活逻辑调度、条件分支和实时响应,恰恰是CPU的强项。 ## 3. 混合架构与范式转移 - Meta的AI推理架构正演变为混合模式:GPU负责核心的矩阵运算,而CPU(此处为Graviton5)负责调度、编排和逻辑推理层。 - 这代表了一种计算范式的转移,行业共识正形成“训练用GPU,Agentic AI用CPU+GPU”的分工模式。 ## 4. 弹性与战略考量 - Meta选择租赁而非自建,核心考量是“弹性”。通过AWS,Meta能快速获得算力,并将固定成本转化为可变成本,无需承担自建数据中心的漫长周期和巨额资本支出。 - 此举也是“多元化”战略的一部分,旨在分散算力来源,降低对单一供应商(如NVIDIA)或架构(如x86)的依赖,保持议价能力和风险控制。 ## 5. 重塑行业格局:ARM的崛起与x86的挑战 - AWS的Graviton5基于ARM架构,其每瓦性能优于x86,凭借AWS的规模效应建立了成本优势。Meta的采购是对其竞争力的强力背书。 - 这对AMD和Intel构成了严峻挑战,它们在GPU市场追赶NVIDIA已然吃力,现在其x86 CPU在AI推理侧又面临ARM的强势侵蚀。 ## 6. 深远影响:AI生态的成本与未来 - 这一交易是AI算力结构性变化的里程碑。它表明,在Agentic AI推理这个快速增长的市场,CPU和ARM架构正占据中心位置。 - 更便宜、高效的算力架构将降低AI服务的整体成本,可能推动更多AI功能普及到终端设备,重塑整个AI生态的经济模型。
2026-05-05 18:35

2026年,Meta花几十亿美元买了亚马逊的CPU。这可能是AI算力史上最被低估的一份公告。

本文来自微信公众号: 歪睿老哥 ,作者:歪睿老哥


故事是这样的。


2026年4月24日,Meta和AWS一起发了个公告。


内容很平淡,核心意思就是Meta要用数以千万计的AWS Graviton核心。


如果你随手划过,可能错过了一个非常重要的信号。


Meta花了好几十亿美元,买了AWS的芯片,买的是CPU,不是GPU,买的不是NVIDIA的东西,是Amazon自己的东西。


而Amazon把这个协议写进了公告,Meta也跟着一起发新闻稿站台。


这一下给我整不会了。


你想想,Meta是全世界最大的AI公司之一,手上有自己的芯片设计团队,手里握着海量的用户数据,手里攥着全球第四大的超算集群。按常理,它应该自建数据中心,自己设计芯片,自己采购一切。


但它没有。它跑去跟Amazon买。


买的是ARM架构的CPU。


先说具体数字。


Meta将部署数千万个Graviton5处理器核心,对应的是数十万颗物理芯片,每颗芯片192个核心。协议持续时间至少三年。


Meta由此成为全世界最大的Graviton客户之一。


这是什么概念?


Graviton是AWS自己设计的ARM架构处理器,从第一代到第五代,性能不断提升。Graviton5每颗芯片有192个核心,缓存是上一代的五倍,核心间通信延迟最多降低了33%,整体性能比前代提升了25%。


这些芯片不会放到Meta的数据中心。它们跑在AWS的数据中心里,用AWS的电力、网络和管理工具。Meta只是租用这些计算能力,用来支撑自己的AI工作负载。


这已经不是一个简单的采购合同了。


这代表了一个计算范式转移。


过去两年,全世界的目光都在GPU上。


NVIDIA的H100、B200、Rubin,一张卡卖到三四万美元,整个AI基础设施的叙事是谁有GPU谁就有未来。


AMD和Intel也没有闲着。AMD的MI系列GPU在努力追赶,Intel的Gaudi系列也在往外推。


大家都想在这个GPU主导的格局里切一块蛋糕。


但Meta这一单,绕开了整个GPU叙事。


不是不买GPU,GPU对大模型训练仍然不可替代。


Meta的几十亿美元AI基础设施投资里,绝大部分还是花在了GPU上。


但这一次,Meta押的是AI推理和Agentic AI的CPU侧。


什么是Agentic AI?


简单说就是AI智能体。


不是让你问一个问题它答一个问题的聊天机器人,而是能自己搜索、自己推理、自己写代码、自己执行多步骤任务的AI。


它要同时跑搜索、跑代码生成、跑任务编排,这些都是CPU密集型的工作。


GPU擅长并行矩阵运算,适合训练和批量推理。


但Agentic AI需要的是灵活的逻辑调度、大量的条件分支、实时的上下文切换。这些恰恰是CPU的强项。


所以Meta的推理架构正在变成一个混合体。


GPU负责模型训练和模型推理的矩阵计算层,CPU负责调度、编排、逻辑推理和实时响应。


Graviton5在这个混合架构里扮演的是CPU那一层。


AWS的定位也很明确。


他们不再只是一个GPU的合租室友,而是把Graviton做成了AI基础设施的CPU底座。


推理、调度、内存管理、Agent执行,全是CPU在扛。


说句实在话,我有点意外。


不是因为Meta选了ARM架构。ARM在数据中心早就不是新鲜事了,Graviton从第一代到第五代已经证明了自己在性价比上的竞争力。


真正让我意外的是,一个在AI领域如此激进的公司,选择把核心推理算力交给竞争对手。


Meta有自己的AI芯片团队,有Llama模型,有自研的训练集群。


他们完全有能力做更多。但他们选择了这个方向,不是因为他们做不了,而是因为他们算了一笔账。


这笔账的核心是两个字,弹性。


数千万核心,只是起步。协议里写了,随着Meta的AI能力扩展,核心数可以继续增加。这种弹性,自建数据中心给不了。


自建数据中心需要盖楼、布线、买服务器、配冷却、招运维,周期以年计。而用AWS,你签个协议,几个月就能拿到算力。


而且Meta买的不只是芯片,是整条流水线。电力、机柜空间、网络、管理工具,全部打包。这意味着他们不用操心物理层的一切,只需要在软件层调用API,剩下的AWS负责。


从财务角度看,这也是一个聪明的选择。


把固定成本转化为可变成本,不用一次性砸几十亿买硬件,而是按用量付费。对于一个还在高速扩张的AI业务来说,这种财务灵活性太重要了。


但这件事更大的意义不在Meta这边,而在Amazon这边。


Jeff Bezos离开的15年里,AWS从一个卖服务器空间的网站,变成了全球云计算的绝对霸主。现在他证明了一件事。


AWS不只是云基础设施的提供者,它是Agentic AI时代的必需品。


这个判断来自一个非常底层的逻辑。


Agentic AI的规模一旦起来,CPU的需求会爆炸。


不是那种偶尔峰值的弹性需求,而是持续的高强度需求。搜索需要CPU,代码生成需要CPU,任务编排需要CPU,多个Agent之间的通信和同步也需要CPU。GPU在这些场景里帮不上忙。


而在这块需求里,AWS的Graviton有先发优势。


ARM架构的功耗效率天然优于x86,对数据中心来说意味着每瓦性能更高。Graviton从第一代到第五代的演进路径已经验证了这一点。


加上AWS自身庞大的基础设施规模效应,成本优势不是其他玩家能轻易追上的。


对AMD和Intel来说,这是一个不好的信号。他们在GPU训练市场的份额已经被NVIDIA锁死了,在CPU市场,x86架构又面临ARM的持续侵蚀。


现在连Meta这样的顶级AI公司都在大规模采购ARM-based的推理CPU,x86在AI时代的地位越来越尴尬。


Intel还好一些,至少Xeon还在企业级市场有基本盘。AMD就难了,Ryzen和EPYC在通用计算市场跟Intel打得火热,但GPU那边追NVIDIA追得费劲,现在又被ARM从AI推理侧绕开了。


这不是一个芯片的问题,这是一个架构叙事的问题。


我翻了下这件事的前因后果。


在Meta和AWS签这个协议之前几周,Meta刚刚宣布了几笔总计480亿美元的AI基础设施投资。


这笔钱大部分是用来买GPU和建数据中心的。但其中相当一部分是留给CPU推理的。


换句话说,GPU和CPU不是谁取代谁的关系,而是各管一段。


训练用GPU,Agentic AI用CPU+GPU,传统推理混合使用。


这个分工模式正在成为行业共识。


Google自己的TPU也是类似的思路。


TPU是ASIC,专门做矩阵运算,但Google自己的推理调度层大量用的是ARM CPU。


微软也在Azure上用Graviton。


微软的AI业务,训练用自研芯片,推理用GPU,而CPU层也在往ARM迁移。


整个行业都在做同样的事,只是速度不一样。


Meta这一次的动作最激进,量级最大,也最公开。


这件事里还有一个有意思的细节。


Meta公告里还提到,扩展支撑Meta AI愿景的基础设施,计算资源多元化已成为战略必需。


多元化。这个词用得挺有意思。


过去AI圈的多元化是说,不要只依赖NVIDIA。后来又说不要只依赖GPU。


现在又加了一层,不要只依赖x86。


Meta正在把算力来源分散到不同的架构、不同的供应商、不同的用途上。这样做的目的很明确,降低风险,保持议价能力,同时确保在任何一种架构出现瓶颈时都有替代方案。


这是一个很老练的巨头策略,不把所有鸡蛋放在一个篮子里,同时保持对每个篮子的控制权。


读到这里,你可能已经看出来我在说什么了。


这不是一个关于Meta和Amazon的商业故事。


这是一个关于AI算力格局正在发生结构性变化的故事。


GPU统治训练,没错。


但推理,尤其是Agentic AI的推理,CPU又回来了。


在这个主场里,ARM正在蚕食x86的阵地。


在这个阵地里,AWS的Graviton正在建立先发优势。


而整个行业,包括NVIDIA、AMD、Intel、Google,都在这个格局变化中重新调整自己的位置。


你如果觉得这些听起来都像是巨头们的内部账本,跟你没啥关系,可能没错。


但想想看,未来两三年,你用的AI产品,背后的算力成本会决定这些产品能不能持续存在。


一个更便宜的算力架构出现,意味着更多AI功能可以下放到低成本的终端设备上。


ARM架构如果能继续在这个方向上推进,它带来的不只是芯片性能的提升,而是整个AI生态的成本结构变化。


而今天Meta和AWS的这一单,可能就是这个变化的第一个重大里程碑。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜