扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
谷歌与英伟达在AI竞赛中采取不同路径:英伟达专注卖算力芯片(生产资料),谷歌构建全栈式AI工厂(生产体系),通过自研TPU和云服务重塑需求侧格局,证明替代路径的可行性。 --- ## 1. 卖铲子 vs 造工厂:商业模式分野 - **英伟达**:卖GPU算力芯片(市占率80%),2025年数据中心收入1150亿美元,毛利率75%,CUDA生态垄断开发者工具链。 - **谷歌**:自研TPU+Gemini模型+云服务全栈打通,云业务年收入600亿美元,AI需求驱动增长50%,本质是"自建工厂+输出产能"。 ## 2. TPU战略转向:训练/推理分家 - **第八代TPU拆分**:训练芯片(TPU 8t)算力提升2.8倍,推理芯片(TPU 8i)延迟降5倍,针对性优化Agent时代需求。 - **核心动机**:推理token消耗暴增(单季100亿→160亿/分钟),效率直接决定成本,集群优化比单芯片性能更重要。 ## 3. 头部客户倒戈:TPU生态突破 - **Anthropic**签约百万颗TPU(价值数百亿美元),Meta考虑2027年部署,动摇英伟达客户基础。 - **谷歌突破口**:Ironwood TPU总拥有成本比英伟达B200低30%-41%,经济性碾压松动软件生态壁垒。 ## 4. 160亿token的规模效应 - **需求侧统治力**:谷歌日均处理万亿级token(含搜索/广告/YouTube),远超单一模型公司(千亿级/天)。 - **成本驱动创新**:每降低1分钱推理成本,谷歌直接受益,形成与英伟达"定义产能vs吞下产能"的对抗。 ## 5. 竞争终局:基础设施之战 - **短期**:英伟达凭借CUDA生态和80%市占率仍占优,1万亿美元算力需求预期明确。 - **长期**:谷歌用Agent平台(如苹果Siri、GE 800智能体)证明系统级解决方案的价值,打破"唯一选择"垄断。
2026-04-24 07:42

谷歌不想赢英伟达

本文来自微信公众号: 版面之外 ,编辑:画画,作者:版君


英伟达和谷歌,两场大会,两个人,说了同一个词。


3月16日,圣何塞,GTC 2026。黄仁勋把数据中心定义为"生产Token的工厂",并给出一个惊人的判断,到2027年,这个市场的需求规模至少1万亿美元。


4月22日,拉斯维加斯,Google Cloud Next 2026。桑达尔·皮查伊给出另一组数字:谷歌每分钟处理160亿个token,上个季度还是100亿。今年资本开支1750亿到1850亿美元。


两个人都在谈Token。但一个在描述供给,一个在展示消耗。


过去很长一段时间,外界习惯性地把谷歌放在追赶者的位置。


这个判断,正在失效。


把这两场大会放在一起看,会发现一个更关键的变化:这不是同一场竞争。


一、卖铲子的,和造工厂的


理解这两家公司,先要看清它们各自在卖什么。


英伟达的产品,是生产资料。


GPU是通用算力,从OpenAI到Meta,从字节跳动到主权基金,几乎所有头部AI玩家,都在它的客户名单里。


CUDA生态汇聚超600万全球开发者、900余个CUDA-X加速库,二十年持续迭代的生态飞轮,早已成为AI时代算力底层的标准件。


黄仁勋那句判断很有代表性:即便竞争对手的架构是免费的,也未必足够便宜。


2025财年,NVIDIA数据中心业务收入超过1150亿美元,同比增长超过200%,毛利率在75%以上,在全球AI加速器市场占据约80%的份额。


换句话说,每10块AI算力芯片里,至少有8块来自英伟达。


这是一门典型的卖铲子的生意,而且是所有人都离不开的那种。


谷歌的路径完全不同,它提供的不是单一工具,而是一整套运行体系。


自研TPU芯片、训练Gemini模型、运行在Cloud之上,再对外提供服务。从底层算力到上层应用,全部打通。


目前Google云业务年收入已接近600亿美元,过去一年增长接近50%,AI相关需求成为最核心的驱动力。


这种模式更像是自己搭建了一座完整的工厂,再把多余的产能对外输出。


英伟达的逻辑,是把设备卖给所有人。谷歌的路径,则是先把体系跑起来,再让别人接入。


一个掌握生产资料,一个在组织生产过程。


二、TPU一刀切两半


这次谷歌Cloud Next,TPU最值得注意的变化,不在参数,而在结构。


从2017年TPU v2起至2025年v7 Ironwood,整整六代产品,谷歌始终采用单颗通用芯片同时承载大模型训练与推理任务。


直到这次发布第八代TPU,谷歌首次彻底战略转向,将训练、推理拆分为两颗专属独立芯片(TPU 8t、TPU 8i)。


  • TPU 8t,代号Sunfish,博通设计,台积电2nm工艺,专门做训练。单个超级Pod(9600颗芯片)峰值算力121 EFLOPS(FP4精度),是上一代的2.8倍,价格相同。能把前沿模型的开发周期从数月缩短到数周。


  • TPU 8i,代号Zebrafish,联发科设计,这是联发科第一次进入超大规模数据中心芯片领域,专门做推理。性价比比上代提升80%,集合操作延迟降低最高5倍。


分家的原因很直接,Agent时代,推理和训练的负载特征完全不同。


一个智能体完成任务,往往需要多次调用模型,每一次调用都要求低延迟、高并发。这和训练阶段的集中算力需求完全不同。


一颗芯片同时跑训练和推理,哪头都凑合,哪头都不够好。


背后的算账逻辑很清楚。训练是一次性投入,模型训好就行。推理是持续性消耗,用户每用一次就推理一次。


当token规模从100亿/分钟跃升到160亿/分钟,推理端的效率开始直接决定成本结构。


这也解释了两家公司技术路径的差异。英伟达持续优化单颗芯片性能,谷歌更关注集群效率与整体成本。


三、Anthropic的一百万颗芯片


TPU从内部工具走向外部市场,有一个明显的标志,开始承载头部模型公司的核心负载。


2025年10月,Anthropic与谷歌签了一份多年期协议,最多使用100万颗Ironwood TPU,价值数百亿美元。


这是AI历史上最大的单笔算力交易。


紧接着,Meta传出正在考虑从2027年起部署TPU。消息一出,英伟达股价当天大跌。


这一系列动作,对英伟达来说,是最危险的信号。不是某个小公司在试水,是Anthropic,是Meta,全球头部的大模型公司,都要把自家最核心的推理负载全部押在了TPU上。


谷歌的策略很明确:用Anthropic和Meta做样板客户,证明TPU能替代英伟达,然后通过Cloud平台把TPU算力卖给所有企业。


如果说英伟达的优势在软件生态,CUDA形成了强绑定。谷歌的突破口,则来自成本。


Ironwood TPU的核心目标是显著降低总拥有成本。精密分析显示,其每美元性能/价格比较前代提升2倍,相比NVIDIA B200在总拥有成本上具有约30%~41%的优势,可有效帮助企业控制推理成本。


当推理成本被压到对手的一半以下,软件壁垒就开始松动了。因为企业算账的时候,省下来的钱足够覆盖迁移成本。


技术壁垒依然存在,但经济驱动开始改变选择。


四、160亿token背后的真话


皮查伊在Cloud Next上说了三个数字:160亿token每分钟。75%的新代码由AI生成。今年投入1750亿到1850亿美元。


看起来分散,其实指向同一件事。


这些token,不只是API调用,还包括搜索、广告、YouTube推荐、安全系统和内部开发。


从100亿到160亿,单季度增长超过60%,按这个规模估算,谷歌每天处理的token已经达到万亿级。


作为对比,当前头部模型公司的API调用,大致处在数百亿到千亿token/天的区间。


谷歌的体量,已经超出单一模型公司的范畴,更接近一个基础设施级消费体。


这和黄仁勋提出的"Token工厂",形成了一个有意思的对照。


黄仁勋描述的是一个卖方市场。Token是商品,GPU是生产设备,价格分五个层级,从免费到150美元每百万token。你来买设备,生产Token,卖给你的客户。


他在GTC上连Token的定价体系都替行业设计好了。


英伟达围绕供给侧构建体系,谷歌则在放大需求侧规模。


一个定义产能,一个吞下产能。而长期来看,需求会反过来塑造供给。


谷歌对TPU性价比的优化动力,远超任何外部客户,因为每降低一分钱的推理成本,省下来的钱首先进了自己的口袋。本质上,谷歌自己就是全世界最大的Token消费者。


五、谁会赢?


短期看,英伟达赢。CUDA生态的壁垒、80%的市场份额、75%以上的毛利率,这些不会一夜被颠覆。


黄仁勋直言,到2027年英伟达将迎来至少1万亿美元的确定性算力需求;其中60%来自全球前五大超大规模云厂商,剩余40%分散于企业私有部署、主权云、边缘计算及全行业场景。


这份预判,有着十足的底气。


但谷歌正在把竞争拉到英伟达不擅长的维度。


这次Cloud Next上,GE在谷歌的Agent平台上跑了超过800个智能体,覆盖制造、物流和供应链。毕马威首月部署超过100个智能体,90%的员工在用。默克签了10亿美元合同。


谷歌云CEO库里安还确认,基于Gemini构建的苹果新一代Siri将于今年发布,合作每年价值约10亿美元。


当企业客户的需求从一块GPU变成了帮我管住一千个Agent,卖芯片的就比不过卖系统的了。


英伟达解决的是有没有算力,谷歌要解决的是算力怎么被用起来。


这不是谁杀死谁的故事。就像石油行业既有卖钻头的哈里伯顿,也有自己钻井、炼化、零售一条龙的沙特阿美。两种模式会长期共存。


但有一件事正在发生变化。


过去,英伟达是所有人的唯一选择。现在,谷歌证明了另一条路走得通。Anthropic选了TPU,Meta在考虑TPU,苹果把Siri交给了谷歌Gemini。


选择变多了。对垄断者来说,这就是最大的威胁。


ChatGPT出来后的两年多,谷歌看起来像一个追赶者。但Cloud Next讲了一个不同的故事,谷歌没有赢模型竞赛,但它把AI重新变回了一个基础设施问题。


而做基础设施,恰好是谷歌最擅长的事。


谷歌不是在追英伟达,也并非想在芯片战场打败英伟达。


从一开始,它们跑的就不是同一场比赛。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: