扫码打开虎嗅APP

搜索历史
删除
完成
全部删除
热搜词
人工智能的发展浪潮正从“缺芯片”转向“缺电力”。中美两国作为AI竞赛的主要参与者,在兑现其“token经济学”愿景时,都面临着严峻的电力挑战,但问题的核心各不相同:美国受制于老旧的发电与电网基础设施,导致电力短缺;中国则因国产芯片能效相对较低,推高了单位算力的电力成本。 ## 美国:电力短缺制约算力扩张 - 微软CEO纳德拉指出,当前AI基础设施的主要瓶颈已非GPU芯片,而是电力供应与数据中心建设速度。 - 美国科技巨头正陷入一场“电力竞赛”,Meta的扎克伯格也表示,能源获取是扩大算力集群规模的关键。数据中心规模正从1GW级向10GW级迈进,例如Crusoe在怀俄明州规划的数据中心远期目标达10GW。 - 电网扩容面临多重困难:公用事业公司因担心AI泡沫不愿签署大额购电协议;老旧电网难以承载5GW乃至10GW的负荷;即使最高容量的765kV输电线路,长距离也只能支持6-7GW。 ## 中国:能效差距推高算力成本 - 中国发电量是美国的2倍多,电网更为“坚强”,但AI算力建立在国产芯片基座上,其能效劣势成为核心挑战。 - 以华为CloudMatrix 384与英伟达GB200 NVL72对比,完成单位算力(1 FLOP)的任务,前者耗电量比后者高出130%(1.87 pJ/FLOP vs 0.81 pJ/FLOP)。 - 尽管通过西部算力枢纽的电价补贴(可低至0.4元/度以下,约5.6美分/kWh),能部分对冲高能耗,但综合考虑能效差距,中国AI生态完成同等算力任务的电费成本仍相当于美国的140%。 ## 应对策略与未来竞争 - 美国产业界已向白宫建言,将电网发展列为AI基础设施的核心。OpenAI建议美国需每年新增100GW电力容量才能与中国竞争,而去年美国新增装机为51GW,中国为429GW。 - 中国正通过举国体制攻关芯片与计算效率,并出台政策鼓励数据中心使用国产芯片。资本市场上,多家国产芯片公司正加速上市进程。 - 长期来看,若中美AI竞争扩展至全球市场,中国的电价补贴优势将减弱,最终仍需依靠模型效率、芯片能效的提升,以及新能源与储能技术的出海来保持竞争力。
2025-11-05 16:43

中美算力,都等电来

题图来自:视觉中国


中国与美国要兑现token经济学,都需要用电力来破题。两国情况各有不同。美国的问题在于缺电,发电与电网基础设施落后,token产出规模受限于电力规模;中国的问题在于用电力换算力,相对低能效的硬件,推高了token单位成本。


在上周的采访中,微软CEO纳德拉(Satya Nadella)认为,现在与其说是缺卡,不如说是缺电 ,电力与就近数据中心的建设速度,限制了token的产出与变现。电不到位,通电的建筑(Warm Shell)不到位,GPU再多也只能躺着吃灰。


美国巨头之间新一轮AI基础设施投资高潮,已经变成了一场电力竞赛。扎克伯格也说,如果能获得能源,Meta就可以建立比现在更大的集群。它们的电或者来自公共电网,或者自建表后电力(behind-the-meter),或者两者结合。但每一项都不简单。尤其是ChatGPT智能体,正养出百万卡算力巨兽。美国的数据中心,正在从1GW级稳步迈向10GW级。Crusoe就声称,目前正在建设中的怀俄明州单一数据中心,一期目标1.8GW,远期目标10GW。


目前巨头自建离网电力,迄今还没有达到1GW级别的。它涉及到大规模天然气管道等基础设施的建设与燃气轮机的部署。但是,即使电力主要来自公共电网,在电力规模不断扩展的趋势下,同样困难重重。


研究机构EpochAI分析称,因为市场时不时担心AI泡沫,出于对需求方“跑路”的担心,美国的公用事业公司,通常不愿签署非常大的购电协议,也不愿对输电基础设施进行相应的资本投资。当然,OpenAI的奥特曼估计也不愿意亲自和电力签长约,上周他就说,“如果极廉价能源在短期内大规模上线,很多人会被自己签过的长约反噬”。


还有一个重要原因在于,数据中心规模与负荷越来越大,将对老旧的电网带去风险。美国最大的公用事业公司NextEra的首席执行官John Ketchum就称,支撑1GW需求相对容易,但要容纳5GW需要“一些工作”,更不用说10GW了。而且,即使美国最高容量的765kV双回路电压走廊,长距离也只能承载6-7GW容量规模的数据中心。


硅谷巨头已经多次向白宫喊话,索要产业政策的支持。面对白宫征询AI行动计划(AI Action Plan)意见,谷歌第一条建议就是基础设施主要是电力系统。谷歌已经看到,创新需要迫切地从芯片(Chip)转向电网(Grid)了。此后,白宫也确实将“发展与人工智能创新速度相匹配的电网”,写入了“建设美国AI基础设施”这一章节,包括探索利用现有承载量的创新方法,优先考虑可靠、可调度电源的互联,并拥抱技术前沿的新能源发电来源。


上周,OpenAI继续向白宫建言,要和中国在AI上竞争,美国必须每年新增100GW的电力容量。去年,美国新增装机51GW,中国新增429GW,“电力鸿沟”巨大。



中国的发电量是美国的两倍多,电网比美国更加“坚强”,但是,中国的AI基础设施也有自己的“电力”难题。它建立在国产芯片的基座之上,后者在能效等方面仍然处于劣势。随着多模态模型与智能体协作的渗透,中国巨头对于算力的需求,向百万张卡级别迈进也是时间问题,低能效的短板会进一步放大。字节跳动的日均token调用,从今年5月的16.4万亿攀升至9月的30万亿,4个月翻了一倍。


在token经济学中,token成本是相当重要的组成部分。对于市场化的互联网巨头而言,token的成本就是AI基础设施的竞争,既包括硬件之上的软件与工具,也包括硬件本身,当然还包括让这些软硬件运行起来的电力与冷却系统。


长期而言,缺芯片的中国,正在举国攻关芯片和计算效率的突破。最重要的长期战略之一,就是维护国产算力生态健康有序地竞争与创新。在产业方面,DeepSeek等开源模型厂商正在牵引着芯片厂商软硬件协同设计;在资本方面,A股也在加速迎接摩尔线程与沐曦股份上市,壁仞科技、砺算科技与燧原科技也在推进中;在政策方面,国家也出台多项政策鼓励数据中心使用国产芯片,尤其是央企与政务相关。


这意味着,如果互联网巨头为长期战略选择国产芯片,也就在短期内承担了国产芯片用电力换算力的相对成本。在国内,一个家主流云厂商,1GW的全年电费,大概在80亿元~90亿元。


上半年,华为CloudMatrix 384发布,被视为用电力换算力的典型。相比当时英伟达最新推出的GB200 NVL72,它差不多在总算力上提升了1.7倍,但全系统能耗相应提高了3.9倍。为方便比较,不考虑单位内存或单位带宽的能耗,仅比较单位算力性能,那么,GB200 NVL72的约为0.81pJ(皮焦耳)/FLOP,而CloudMatrix 384约为1.87pJ/FLOP。相当于,超节点每执行需要1个FLOP的算力的任务,CloudMatrix 384就要比GB200 NVL72多消耗130%的电力。


下半年,华为在全联接大会上展示了昇腾AI芯片4年5款产品的路线图,以及更强大的Atlas 950 SuperPoD和Atlas 960 SuperPoD超节点,在卡规模、总算力、内存容量、互联带宽等关键指标上全面领先,不过没有披露最新的能效数据。考虑到在中国先进制程等半导体设计与制造领域,尚未追平全球最领先的水平,单位能效的差距在短期内也无法迅速抹平。


补贴等产业政策仍然可以与支持国产算力生态形成组合拳。甘肃、贵州和内蒙古等省份的工业电力单位成本,比中国东部更发达的沿海地区低约30%,随着算力枢纽补贴采用国产芯片的数据中心,电价已经降至每度电4毛钱(5.6美分/kWh)以下甚至更低;而根据美国能源信息署8月份发布的数据,美国工业电力平均成本约为9.1美分/kWh。这相当于,中国AI生态每执行需要1个FLOP的算力的任务,花费的电费相当于美国AI生态的140%。这还没算上更低能效带来的更大的散热用电需求。


但是,一旦中国与美国的AI竞争扩展到全球,相应的补贴优势就会削弱。这就得进一步依靠模型效率与芯片能效的提升,以及新能源与储能出海的配合了。

本内容由作者授权发布,观点仅代表作者本人,不代表虎嗅立场。
如对本稿件有异议或投诉,请联系 tougao@huxiu.com。

支持一下

赞赏

0人已赞赏

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: