扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
英伟达GTC 2026大会发布多项技术进展,但市场预期已提前消化,需新增长故事推动估值提升。 --- ## 1. 数据中心营收与算力分层 - 2025-2027年数据中心累计收入目标1万亿美元,符合市场预期但缺乏订单细节。 - 算力按token层级细分:从免费层到$150/百万token(顶级低延迟),1GW数据中心Grace Blackwell收入为Hopper的5倍,Vera Rubin再提升5倍。 ## 2. Vera Rubin架构与Groq集成 - Vera Rubin采用100%液冷设计,安装时间缩短至两小时,CPO交换机Spectrum-X已量产。 - 新增Groq 3 LPU芯片,通过Dynamo软件拆分推理阶段,解决"内存墙"问题,与Rubin以太网耦合延迟降低50%。 ## 3. 竞争压力与市场担忧 - 英伟达AI芯片份额75%,但谷歌TPUv7性能接近B200,博通获OpenAI等订单,市场份额或下滑。 - 云厂商资本开支/收入比达50%(如Meta),增长持续性存疑,英伟达2027年PE仅13倍。 ## 4. 未来增长方向 - 物理AI、太空算力(Vera Rubin Space-1)和Agent-as-a-Service(NemoClaw)为潜在新故事。 - 需AI应用更快落地或新业务突破(如机器人、自动驾驶合作)以拉动估值。
2026-03-17 16:07

英伟达GTC:AI界春晚,满心期待、扫兴而归?

本文来自微信公众号: 海豚研究 ,作者:海豚君


2026年3月16日,英伟达创始人兼CEO黄仁勋在GTC 2026大会上发表主题演讲,核心议题涵盖CUDA平台20周年、推理拐点与算力需求爆发、Vera Rubin系统架构、Groq集成、OpenClaw代理革命及物理AI与机器人。


一、GTC2026核心要点


1)数据中心营收展望:2025-2027年数据中心累计收入达到1万亿美元(去年GTC大会给的是2025-2026年累计收入5000亿美元),符合预期。市场主流预期本身已经提升至1万亿美元以上,更期待的是公司能给出明确订单等方面的信息。



2)性能和成本:在tokens/watt(吞吐量)和token速度(智能度)两个维度上,英伟达均为全球最高性能;英伟达的token成本全球最低。



3)数据中心成为"token工厂":每个工厂受限于功率(如1GW),需要管理token生产的吞吐量和速度。


token将像大宗商品一样细分层级:免费层(高吞吐、低速度)->$3/百万token层->$6/百万token层->$45/百万token层->$150/百万token层(顶级低延迟、高带宽算力)。


以1GW数据中心为例,每25%功率分配一个层级:Grace Blackwell可比Hopper生成5倍收入,Vera Rubin可再提升5倍。



4)Vera Rubin:在此前6类芯片基础上,新增了Groq 3 LPU。


①Vera Rubin:100%液冷(45°C热水冷却),所有线缆取消,安装时间从两天缩短至两小时;


②CPO(共封装光学)Spectrum-X交换机:已全面量产,与TSMC共同研发;


③CPU:世界上唯一使用LPDDR5的数据中心CPU,独立售卖,将成为数十亿美元级业务;


Vera CPU Tray用于Agentic workload,单个Vera Compute Tray集成了8颗Vera处理器,每个处理器88核,同时支持8通道的LPDDR5x内存,单个socket支持1.2TB/s的内存带宽。CPU Tray上集成了2块BF4-DPU。


④Vera Rubin:已在Microsoft Azure上线运行(第一个rack)。英伟达供应链已可每周生产数千套系统,每月数GW级AI工厂产能;


⑤Rubin Ultra:Rubin是横向滑入机柜,Rubin Ultra要垂直放入新机架Kyber,其中144 GPU在一个NVLink域内,中板后方用NVLink交换机替代铜缆。




5)Groq 3 LPU(新增芯片):Groq和HBM并用,符合预期


技术来自于收购的Groq团队,Groq LP30由三星制造,预计三季度发货。


单颗Groq芯片500MB SRAM vs单颗Rubin芯片288GB,Groq单独无法承载主流大模型的参数和KV Cache。


解决方案:推出了一个Dynamo软件,把推理步骤分解出来:


1.预填充阶段:也称Prefill,也是模型批量处理用户输入的Prompt的阶段,主要是以计算为主,因此在Vera Rubin上完成;


2.解码的注意力环节:主要是计算当前产生的token与历史tokens(KV Cache,对话存储的记忆)的关系,是计算和存储并重的工作性质,也是在Vera Rubin上完成,频繁读取Rubin上的HBM内存单元。


3.解码的前馈网络(FNN):在Attention环节确定上下文关系后,前馈网络负责基于前Token来输出下一个Token的概率分布,并选出下一Token,即“吐字”。


这个环节的每一层都要读取模型的权重参数,读一次只能处理一个Token,原本参数放在HBM中,计算单元一直在等着数据从HBM搬运过来,这也是“内存墙”的真正堵点。


把解码分成用软件拆出两个阶段后,等于把模型在工作的“上下文记忆”仍然保留在HBM上,但把大部分模型参数转移到了Groq的SRAM上,芯片上内嵌的存储层SRAM能够以极低的延迟读取这些权重参数,从而解决推理吐字慢的问题。


Rubin和Groq之间用以太网紧密耦合,RDMA特殊连接模式可以让两芯片之间的交互延迟降低约一半。



6)Feynman:全新GPU+LP40(LPU)+Rosa CPU(以Rosalind命名)+BlueField-5+CX10。


Kyber铜缆scale-up+Kyber CPO scale-up(首次同时支持铜缆和CPO scale-up)。这意味即使在Feynman阶段,也将同时支持铜和CPO的混合方式。


虽然英伟达长期看好CPO方案,但客户方面倾向于将铜缆方案用到极致后再切换CPO(部署/维护更简单)。



7)其他信息:


①太空数据中心:针对能源不足问题,英伟达宣布Vera Rubin Space-1,计划将数据中心部署到太空(需解决辐射散热问题,太空中无传导和对流,仅有辐射);


②OpenClaw:每家SaaS公司将变成GaaS公司(Agent-as-a-Service)。


代理系统在企业网络中可以访问敏感信息、执行代码、对外通信——这需要企业级安全。英伟达与OpenClaw创始人Peter Steinberger合作推出NemoClaw(OpenClaw的企业安全参考设计),集成OpenShell技术,包含网络护栏(network guardrail)和隐私路由器(privacy router),可连接各SaaS公司的策略引擎;


③物理AI与机器人:自动驾驶方面,比亚迪/吉利/现代/日产等厂家加入Robtaxi,并与Uber合作。然后机器人方面KUKA/ABB等厂商,还有很多机器人/无人机平台等。


总体来说,这次发布会,除了澄清了铜缆和CPO会并用,主要就是新加入了一个服务器中新加入了Groq的LPU选项。这个在Groq被买后,市场已有充分预期;甚至指引的三年一万亿美金收入,市场实际其实也已经超过这个数字了。


整体上从英伟达的产品迭代可以看到:最近几年的迭代重心不再芯片微架构的创新,从Hopper到Blackwell解决主要是组合和连接的问题,英伟达主要是完成了卖芯片到卖系统和服务的切换。


而从Blackwell到Rubin,无论是新加入的DPU(NAND芯片),还是这次新买来后紧急放进来的LPU(SRAM),主要完成的是AI进入推理和Agent时代,内存墙的问题。


二、英伟达的近况:大会指引平淡,需要“成长性新故事”


英伟达的股价表现,在近半年的时间内基本上一直都在170-200美元的区间内震荡。即便下游大厂增加资本开支、公司业绩持续超预期,公司股价也没能实现向上突破,主要是市场有以下几方面担心:


a)大厂资本开支持续性:Meta、谷歌等厂商都明确增加了2026年的资本开支,四大核心云厂商在2026年的资本开支有望达到6600亿美元以上,同比增长60%。但值得注意的是,大厂资本开支在收入中的占比处于达到了相对较高的位置。


以Mete为例,公司预期2026年资本开支将达到1150-1350亿美元,资本开支/年度收入将达到50%以上,进一步提升的空间相对有限。即使各家大厂增加了2026年的投入展望,但依然难以打消市场对后续资本开支增长持续性的担心。


b)AI芯片市场份额:当前英伟达在AI芯片市场的份额维持在75%以上,较高的价格和“近乎垄断”的市场结构,促使下游云厂商寻求“替代方案”。


在谷歌之外,博通AVGO已经明确收获了Anthropic、Open AI等的大额订单,多个客户也都开启了自研方案。即便英伟达后续还有Rubin新品,但市场普遍预期公司在AI芯片市场的份额将逐步下滑。



3)产品竞争力:当前谷歌TPUv7在FP8等领域的表现大致已经接近于英伟达的B200(2024年四季度量产),谷歌TPU大致落后于英伟达一年左右。


英伟达在Blackwell系列中引入了NVFP4格式,能使推理性能在FP8的基础上再翻一倍。但其实FP8满足了当前市场大部分的需求,TPUv7已经是一个“替代选项”。


为了对抗行业竞争,英伟达正在通过战略投资和算力扩容,来锁死供应链上下游,比如说,以芯片部署为前提的战略投资Open AI(300亿美元)和Anthropic(100亿美元)、为Meta旗下全新AI实验室MSL提供数百万块GPU的算力支持,其中部分协议有一定的降价锁定客户需求的意味。



结合上述的市场担心,公司估值也处于相对较低的位置。海豚君按照截止25-27自然年数据中心收入1.15万亿(高于公司目前指引的1万亿),英伟达当前市值(4.4万亿美元),对应2028财年(接近2027自然年)净利润约为13倍PE左右(假定营收两年复合增速64%,毛利率72%,税率18%)。


英伟达上季度交出了超预期的财报,但公司股价并未迎来上涨。这主要是因为2027年收入预期已经全部打进去后,市场担心下游云厂商在资本开支强度拉到50%以上的之后,进一步拉高资本开支的空间非常有限。


理论上,处于云厂商二级导上的英伟达,即使客户资本开支高位维持,英伟达来自云客户的收入会就变成零增长,市场不敢给2027年之后的英伟达高估值,导致英伟达当前只有27年利润13X的PE,建筹的兴趣也不高。


结合本次GTC大会的内容来看,老黄给出的“至2027年数据中心累计收入达到1万亿美元以上”,其实市场预期早已拉到比这个数还更高一些。


会议中更多的时间,给到了英伟达的产品推销和路线规划,对产业链公司的影响更多(CPO和铜仍将混合使用、LPU与HBM分担不同的工作),对公司自身的增量信息并不多。


未来英伟达公司的PE再次提升,海豚君认为除了AI应用上能够更大规模、更快速度落地之后,还需要新的“成长曲线”来拉动,比如“Physic AI”、“太空算力”等。

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: