扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
2026-01-21 09:50

一个被英伟达掩盖的、中美AI最残酷的物理真相

本文来自微信公众号: TOP创新区研究院 ,作者:新兴产业研究组,题图来自:视觉中国


在过去两年里,当我们在谈论中美AI差距时,由于Nvidia GPU的显性存在,我们几乎把所有的目光都聚焦在了“算力鸿沟”上:因为制程封锁,由于H100/H800的禁售,中国AI”似乎“被卡住了脖子。


然而,就在所有人的眼睛都盯着硅(Silicon)的时候,大洋彼岸的华尔街和硅谷巨头们,却开始因为电子(Electrons)而焦虑。


微软CEO萨提亚·纳德拉(Satya Nadella)在上一季的财报电话会议上,以及马斯克在最近的长达3小时的《Moonshots》对话中,几乎是明着说了:


显卡不再是唯一的瓶颈,真正的瓶颈正在变成吉瓦(GW)级别的电力和带电的数据中心。


但在这个层面,也就是AI的基础物理层,电力供应上,中美正面临着完全相反的两种“绝境”——美国面临严重“缺电”危机,而中国却拥有20倍的冗余!


但中国即便电费便宜,AI算力的能源成本却可能比美国高出40%?


这到底是怎么回事呢?


美国需要一场AI曼哈顿计划


让我们先看一组数据,这组数据来自麦格理(Macquarie)最新的估算:


到2030年,中国AI发展所需要的电力增量,仅相当于过去五年中国新增发电能力的1%到5%。而在同一时期,美国AI发展所需要的电力增量,将占据其过去五年新增发电能力的50%到70%。


麦肯锡的最新预测更是表明,到2030,美国数据中心电力需求将翻两番,达到80~100吉瓦:



请细品一下这组对比数据。


如果你品出来了,就知道,中国在过去五年里,为了这个AI时代提前储备了近乎20倍于AI实际需求的电力冗余。中国的电网,就像是一个蓄满水的巨型水库,AI这条“大鱼”游进去,水位线几乎纹丝不动。


反观美国,它的电网建设速度不仅缓慢,而且面临着巨大的存量替换压力。如果要把AI这个新的巨兽塞进美国的电网系统,它将一口吞掉整个国家未来几年新增电力的大半壁江山。


2023年,美国全年新增发电装机容量约为51 GW(吉瓦)。同年,中国新增发电装机容量达到了惊人的429 GW。


8倍的差距。


这是一个物理世界的降维打击。



所以当OpenAI的Sam Altman在四处游说,声称需要7万亿美元来重构芯片产业链时,他其实更应该担心的是,即便有了芯片,他在美国哪里能找到足够的电把它们跑起来?


在美国弗吉尼亚州的“数据中心走廊”,电力公司Dominion Energy已经无数次发出警告,由于输电瓶颈,他们可能无法及时为新的数据中心供电。


而同样的故事,正在全美各地重演。变压器短缺、环保审批流程(NEPA)长达数年的拖延、老旧电网的各种物理限制,正在成为美国AI头顶的“天花板”。


但,中国已经“解决”了近期的AI电力供应问题。


如果你是一个在中国做AI基础设施的创业者,你可能还在为拿不到H100而头疼,但你绝不会像你的美国同行那样,因为申请不到市电扩容指标,而不得不去考虑自建核反应堆。


哪怕电费为零,中国AI的成本依然可能更高


读到这里,我们中国的读者可能会觉得:稳了。


既然电力是AI的血液,而中国拥有庞大的造血能力,那我们在AI竞赛中岂不是占据了绝对的地利?


且慢。这里有一个巨大的“但是”。


中国有电,但是,“电怎么转化成算力”(Efficiency)


这就要回到半导体物理学的基本常识。


目前,美国顶级AI芯片(如Nvidia的B200/GB200)采用的是台积电最先进的4nm甚至3nm工艺。而受限于制程封锁,中国的主流国产AI芯片不得不停留在7nm或更成熟的工艺节点上。


制程落后不仅仅意味着单卡算力(FLOPs)的差距,更意味着能效比(Performance per Watt)的巨大鸿沟。


在微观层面,晶体管越小,驱动它所需的电压越低,漏电率控制越好。反之,为了在落后制程上堆出同样的算力,工程师必须堆叠更多的晶体管、拉高频率、忍受更高的发热。


Weijin Research做了一个场景模拟:


对比CloudMatrix集群(基于国产芯片)与Nvidia的GB200集群。即便在最理想的优化下,要在同样的算力输出(FLOPs)上对标英伟达,国产系统消耗的能源可能要高出100%甚至更多。


这是一个非常可怕的乘数效应。


让我们算一笔账:假设美国的工业用电平均成本是每千瓦时0.12美元,而中国依靠强大的煤电和新能源优势,将成本压到了0.08美元(便宜33%)。但是,如果国产芯片跑同样的模型需要消耗2.5倍的电力(能效比落后),那么最终每生成一个Token,或者每训练一个参数,中国的电力成本实际上是美国的140%。


这就是“效率黑洞”


即使我们的电网里流淌着世界上最充沛、最廉价的电子,但由于终端转换设备(芯片)的能效瓶颈,这些电子在转化为智能的过程中,被大量的热损耗浪费掉了。


这就解释了为什么中国巨头在最新的技术白皮书中,疯狂强调“液冷”、“系统级能效”、“集群优化”。因为在单点物理能效无法突破制程天花板的情况下,必须通过系统工程(System Engineering)来补课。


液冷CDU,核心作用是安全、精准、高效地将冷却液输送到服务器芯片,并回收热量


但散热也是物理限制。


当一个机柜的功率密度从10kW飙升到100kW甚至更高时,传统的风冷彻底失效,数据中心必须进行伤筋动骨的液冷改造。这对于基础设施的运营能力提出了地狱级的挑战。


电网设计正在成为新的核心国力


如果我们跳出单纯的“芯片卡脖子”叙事,站在更高的维度——能源与计算的共生(Energy-Compute Symbiosis)来看待这场博弈,你就会发现:


电力、电网设计和计算效率,正在成为AI时代的核心国家能力(Core National Capabilities)


我们先来看美国的策略


面对陈旧的大电网,美国科技巨头正在试图“绕过”电网。


  • 亚马逊买下了核电站旁边的数据中心,直接取电。

  • 微软和OpenAI正在投资核聚变和小型模块化反应堆(SMRs)

  • Google正在探索地热供电。


SMRs产生的热量可用于烧开水、产生蒸汽、驱动涡轮机和发电机,从而在火力发电厂中发电


这是一场“去中心化”的自救运动。美国正在倒逼其能源技术创新,试图用技术突破来弥补基建的亏欠。如果SMR(小型核堆)技术一旦成熟,美国将解决算力能源的“最后一公里”问题。


美国策略的关键词是:分布式突围与核能复兴。


中国这边则在打一场完全不同的仗。


我们拥有世界领先的特高压(UHV)输电技术,能够将西部(甘肃、内蒙、四川)过剩的风光水电,跨越数千公里输送到东部的算力中心,或者直接在西部建设“东数西算”基地。但这还不够。


中国的真正野心在于将AI嵌入到能源系统本身。


比如,宁德时代正在把电池塞进数据中心,作为UPS(不间断电源)和削峰填谷的神器。比亚迪正在构建从太阳能板到储能电站的闭环。


这是一种“全栈式”的打法。


中国正在试图用极其强大的宏观能源调度能力(Macro Energy Management),去对冲微观芯片能效(Micro Chip Efficiency)的不足。


既然我的芯片费电,那我就把电变得更便宜、更稳定、更易得。用物理世界的“大力”,去出奇迹。


我们这里的关键词是:系统级碾压与特高压输送。


终局


文章的最后,我们需要看到一个更深远的趋势。


“当全世界都需要AI时,谁能提供‘交钥匙’方案?”


想象一下,未来一个发展中国家(比如沙特、巴西或东南亚国家)想要建设自己的主权AI。他们面临两个选择:


选项A(美国模式):花费巨资购买Nvidia的H200芯片(如果美国商务部批准的话),然后自己解决头疼的电力供应问题,自己去搞定电网扩容,自己去建设昂贵的液冷设施。这对于很多基建薄弱的国家来说,是不可承受之重。


选项B(中国模式):中国公司提供一套“交钥匙”方案(Turnkey Solution)。我不只卖给你AI服务器(虽然能效稍差一点,但也能用),我还打包卖给你配套的:


  • 一片GW级别的光伏电站;

  • 一套巨型的储能电池系统;

  • 一套全液冷的数据中心基础设施;

  • 甚至是特高压输电网络。


这不仅仅是卖铲子,这是把“矿山”和“运矿车”一起打包卖了。


在“一带一路”沿线,这种“绿色能源+数字基建”的组合拳,正展现出极强的竞争力。美国或许在芯片的最尖端拥有无可比拟的统治力,但中国正在掌握“将算力落地为物理现实”的完整产业链。


中国提议在全球范围内构建AI驱动的卫星巨型网络,惠及所有人


回到文章开头,AI的战争绝不仅仅发生在几纳米的微观世界里,同样发生在高耸的输电塔、连绵的光伏板和轰鸣的变压器之间。


美国焦虑的是“无米下锅”——有最好的炉子(芯片),但缺柴火(电力)


中国焦虑的是“柴火利用率”——有堆积如山的柴火,但炉子的热效率不够高。


这两种焦虑,将塑造未来十年两个超级大国的科技树走向。


值得注意的是,对于中国的产业界而言,不要因为我们在电力基建上的巨大优势而沾沾自喜,从而忽视了芯片能效落后带来的长期成本黑洞;但也绝不要妄自菲薄,因为在即将到来的“能源算力时代”,我们有牌可打。


游戏,才刚刚开始。

本内容来源于网络 原文链接,观点仅代表作者本人,不代表虎嗅立场。
如涉及版权问题请联系 hezuo@huxiu.com,我们将及时核实并处理。

大 家 都 在 搜