扫码打开虎嗅APP
本文来自微信公众号: 硅星GenAI ,作者:大模型机动组,原文标题:《黄仁勋一锤定音:Agentic AI拐点已至,英伟达Q4财报再创历史》,题图来自:视觉中国
2026年2月25日(美东时间),英伟达再次向全球展现了什么是“算力霸权”。
在刚刚发布的2026财年第四季度(即2025年11月-2026年1月)及全年财报中,英伟达交出了一份粉碎华尔街预期的答卷:单季营收达到创纪录的681.3亿美元,同比增长高达73%。全年营收更是飙升至2159亿美元。
但这绝不仅仅是一份关于数字的通报。在这场万众瞩目的财报电话会议上,英伟达创始人兼CEO黄仁勋用极其笃定的语气,为全球科技产业定义了下一个时代:
“Agentic AI(智能体人工智能)的拐点已经到来。”
——Jensen Huang,英伟达创始人兼CEO,2026年2月25日财报电话会
过去一年,市场一直在争论大模型的商业化落地、争论高昂的算力支出究竟能带来什么。而英伟达的这份财报,以及黄仁勋详尽的深度输出,为这波AI浪潮的商业逻辑给出了最权威的解答。
以下是本次英伟达Q4财报及电话会议的编译解读。
一、681亿美元的暴力美学:数据中心业务的极速狂飙

我们需要把这681亿拆开来看,才能理解英伟达当下的统治力。
总营收:681.3亿美元,超出华尔街分析师预期约662亿美元(CNBC数据)
数据中心收入:623亿美元,环比增长22%,同比增长75%。这项核心业务目前已经占到英伟达总营收的91.5%
毛利率:无论是GAAP(75.0%)还是Non-GAAP(75.2%),依然维持在令人窒息的75%上下
自由现金流:从去年同期的155亿美元直接翻倍至349亿美元(全年累计达970亿美元)
下一季指引:预计2027财年Q1营收将达到780亿美元(上下浮动2%)
在电话会议上,黄仁勋强调了一个最底层的商业闭环逻辑:
“Compute equals revenues.”(算力即收入)
他指出,在当前的AI生态中,购买算力已经不再被视为单纯的“基础设施沉没成本”。相反,算力正在直接转化为模型提供商的收入。客户投资购买GPU,是因为每增加一块计算单元,都能直接支撑API调用、企业订阅和终端服务的变现。
“世界已经觉醒,迎来了Agentic AI时代,”黄仁勋如此定调,“企业正在将这些数据中心视为驱动AI工业革命及其未来增长的工厂。”
二、最大的风向标:“Agentic AI”拐点正式确认
如果说整场财报电话会一定要划一个技术重点,那就是“Agentic AI”(智能体AI)的彻底爆发。
黄仁勋在会上明确宣告:
“The agentic AI inflection point has arrived.”(Agentic AI的拐点已经到来。)
什么是Agentic AI带来的质变?
在过去,生成式AI主要依赖用户的单次提示词(Prompt)生成一次性的文本或图像。而进入2026年,企业级市场的刚需已经从“对话”升级为“多步骤执行”。企业需要AI系统能够自主规划、自主调用外部工具、在没有人类持续干预的情况下跑完一整个复杂的工作流(比如自动化软件测试逻辑,或者处理一单完整的售后赔偿)。这就是Agentic AI。
智能体正在引爆“推理(Inference)”算力
这也是英伟达业绩持续超预期的核心原因之一。黄仁勋解释道,智能体的实用性正在催生不可思议的算力需求。当一个Agent在后台工作时,它可能需要反复推理、自我验证、多模态交互好几次,才能给出一个最终结果。
这意味着,“推理(Inference)”端的算力消耗正在呈现指数级的爆发。黄仁勋在会上明确点名:Anthropic的Claude Code、Claude Cowork,以及OpenAI的Codex,正在引领这一波企业智能体化浪潮——“这些公司的收入在一年内翻了十倍,而它们严重受限于算力供应。”大模型巨头和科技公司正在采购“数以百万计”的Blackwell和下一代Vera Rubin GPU,以应对生成式AI和智能体AI急速攀升的落地需求。
三、软硬融合:AI算力与企业级软件的深度绑定
除了底层算力的激增,英伟达在本次财报中着重展现了其推动AI走向产业深处的战略布局,即与全球顶尖软件公司的深度融合。
黄仁勋在会上高频提及了“效率”(Efficiency)。英伟达的算力不仅提供给大型云厂商训练基座模型,更在深刻改造传统的工业级和企业级软件生态。
英伟达宣布,正在不断扩大与一系列行业软件领导者的合作伙伴关系,包括Cadence(楷登电子)、Siemens(西门子)以及Synopsys(新思科技)。
其合作模式非常清晰:将英伟达的AI基础设施、Omniverse数字孪生技术、世界模型以及CUDA-X代码库,深度集成到这些工业软件中。这意味着,未来数以百万计的研发人员、工程师和设计师在日常使用的专业软件里,将直接长出基于英伟达算力底座的AI引擎。
这从根本上拓宽了英伟达技术栈的护城河,让AI真正在生产力工具中扎根。
四、Blackwell的真实经济学:极端的能效革命
市场目前最关心的另一个议题是:随着算力规模的膨胀,建超大型数据中心的能源消耗和运营成本是否可控?
英伟达在电话会议中给出了明确的经济学解答。黄仁勋花大量篇幅解释了AI经济学中的“吞吐量和效率”(throughput and efficiency),强调了“每瓦性能”(performance per watt)在规模化生产工作负载中的决定性作用。
针对目前正在大规模出货的Grace Blackwell架构计算平台,黄仁勋称其为当下的“推理之王(King of Inference)”。除了绝对性能的提升,Blackwell最核心的商业价值在于它的经济账:
“delivering an order-of-magnitude lower cost per token”(相比上一代Hopper架构,单Token推理成本降低一个数量级)
而下一代Rubin平台相比Blackwell,将再降低最高10倍的推理Token成本。
当数据中心的能耗和算力规模达到极致时,如何将单位算力的能耗压缩到最低,直接决定了AI应用的定价空间和利润率。通过大幅降低每次计算的硬件和电力成本,英伟达不仅保卫了自己75%的超高毛利率,也为整个智能体AI时代的全面普及清除了“成本过高”的物理路障。
五、写在最后:新时代的“中央发电厂”
总结这份强劲的第四财季报告与电话会议,我们看到了如下清晰的趋势:
1. 变现逻辑的闭环:大模型的变现场景正在从探索期进入兑现期。算力正在以“Compute = Revenues”的铁律,转化为真实的业务收入。
2. 新引擎的确认:“Agentic AI”已经不仅是一个学术或产品概念,它已成为算力需求二次爆发的新引擎,重塑了从云端到企业端的基础设施规划。每一次Agent的自主推理、工具调用,都是一笔流向英伟达GPU的算力账单。
3. 能效比为王:在算力角逐的下半场,芯片的绝对性能固然重要,但极致的能效与极低的单次推理成本才是统治市场的真正壁垒。Blackwell之后还有Rubin,英伟达的每代产品都在承诺“比摩尔定律更快的性能/功耗跨越”。
如果说前两年的英伟达是在为AI淘金热“卖铲子”,那么从这份宣告“Agentic AI拐点”的财报起,英伟达已经通过其芯片、网络、软件库构成的完整生态,正式确立了其作为这场新型工业革命“全球中央发电厂”的地位。
财报核心数字速查
数据来源:
NVIDIA官方新闻稿
Motley Fool电话会实录 ·
Seeking Alpha财务分析