正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2024-03-11 16:08

ChatGPT一年电费2亿元,AI咋这么费电?

本文来自微信公众号:量子位(ID:QbitAI),原标题《ChatGPT每年电费2亿?!日耗电量≈1.7万个家庭,网友:挺值!》,作者:明敏、丰色,题图来自:视觉中国

文章摘要
ChatGPT每年耗电2亿元,相当于1.7万个家庭的用电量。人工智能的用电量将来还会大幅增加,谷歌每年耗电将高达290亿千瓦时。然而,AI的能耗与其创造的价值相比仍然值得商榷。

• 💡 ChatGPT每天耗电量超过50万千瓦时,相当于1.7万个家庭的日耗电量。

• 💡 谷歌每年耗电高达290亿千瓦时,未来AI的用电量还会继续增加。

• 💡 AI的能耗与其创造的价值相比,需要综合考虑投入产出的关系。

ChatGPT居然这么费电?


最新的等式出现了:ChatGPT日耗电量≈1.7万家庭日耗电量。


什么概念?一年光电费就要花2亿元。


美国普通家庭平均单日用电29千瓦时,而ChatGPT的单日用电量超过了50万千瓦时。(美国商业用电一度约为0.147美元也就是1.06元,相当于一天53万元)


消息一出就直接冲上热搜第一了。


除了OpenAI,谷歌也“不容小觑”:在谷歌搜索中应用生成式AI技术,谷歌每年的耗电量将高达290亿千瓦时,也就是每天约7900万度。


而在未来,AI这一“吃电巨兽”的食量还会更惊人。


数据统计:到2027年,人工智能数据中心的用电量将和荷兰、瑞典等小国用电量相当。


有网友看完表示:这是利好光伏和风电?



所以AI最后拼的是谁发电多、谁发电成本低?



一、AI要耗多少电?


如上数据来自一篇论文The growing energy footprint of artificial intelligence。


作者是荷兰数字经济学家Alex de Vries,他通过英伟达、OpenAI、谷歌等公开数据进行估算。


结果就得出了很多意想不到的结论。


首先,现在大模型训练时期的耗电量和推理阶段相比,已经不值一提了。


SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。


ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。


而GPT-3整个训练阶段的耗电量预估为1287兆瓦时,是ChatGPT大约4天的消耗量。


谷歌报告也表示,2019年~2021年,与人工智能相关的能源消耗中有60%来自推理部分。


因此论文提出未来研究AI用电量时,更应该从全周期角度考量。


但这也与模型再训练频率、模型性能与功耗之间的平衡有关系。比如BLOOM在推理阶段的耗电量就显著降低。


其次,搜索引擎如果用上AI,耗电量还会更高。


谷歌方面曾在去年2月表示,AI响应请求的成本可能是普通搜索的10倍。


数据显示,使用一次谷歌搜索消耗的电量是0.3瓦时。这和上面分析给出的数据相呼应。


如果要将大模型能力植入到谷歌搜索中,预计需要512821个HGX A100,按照每台设备功耗为6.5千瓦来计算,每天将需要80吉瓦时的电力消耗,一年需要29.2太瓦时。


目前谷歌每天需要处理高达90亿次搜索,换算一下,平均每个请求要消耗6.9~8.9瓦时,已经是普通搜索的20倍+。



同样的现象在英伟达的财报数据中也可以看到。


去年第二季度,英伟达收入创纪录,其中数据中心部门较上季度相比增长了141%,这表示AI方面的需求扩增。


今年,英伟达AI服务器出货量可能达到150万台,总功耗可能达到9.75-15.3吉瓦。这一数量级的服务器,每年的用电量将达到85.4~134太瓦时。


不过AI用电量会一路飙升吗?


研究认为也不一定。


哪怕像谷歌这样在全球拥有数十亿用户的厂商,也会慎重考虑AI与搜索引擎的融合。硬件、软件和电力成本压力下,厂商脚步或许没那么快。


硬件生产本身还受到掣肘,AI热潮使得台积电CoWoS先进封装产能吃紧,但新建工厂真正可能开始批量生产要等到2027年,这或许也会影响英伟达的出货量。


模型本身的算法和架构也会让AI功耗在一定程度上降低。


最终研究认为,关于AI用电量的问题,过于悲观或乐观都不可取。


短期内,在各种资源因素影响下,AI用电量增速会被抑制;但硬件和软件的能效提高,显然也无法抵消长期的电力需求增长。


总之,作者认为在AI开发方面,还是不要铺张浪费的好。监管机构也需要考虑要求厂商披露相关数据,提高整个AI供应链的透明度,从而更好了解这一新兴技术的环境成本。


实际上,此前关于AI消耗资源的话题已经多次引发讨论。


有研究指出,到2027年,数据中心人工智能的用电量将与荷兰或瑞典等小国的用电量相当。


加州大学河滨分校研究表明,问ChatGPT5~50个问题,就可消耗500毫升水。


因为AI超算数据中心需要大量水来散热,微软也承认用水是训练模型的一大成本,从2021年到2022年,其全球用水量飙升了34%,相比研究AIGC前急剧增加。



二、网友:也要看产出


除了微博,#ChatGPT日耗电超50万度#的消息也在知乎冲上热榜第三。



尽管这一数据看起来惊人,但不少网友都表示:我们还是需要比较一下投入产出。



知乎网友@段小草就浅算了一下:


一天50万度电,1.7万个美国家庭。但美国有1.2亿个家庭,也就是只需万分之一的家庭用电,就能支撑一个服务全球TOP 1的AI产品、服务几亿用户,这还是在浪费能源破坏环境吗?


言外之意,如下所说(来自知乎网友@桔了个仔)ChatGPT创造的价值其实远超它的能耗。


和某些技术(咳咳,懂得都懂)的耗电量相比,它可能更不值一提了。



所以,有人(知乎网友@玩吾伤智)直接就表示,这则消息应该这么理解:震惊, 只需要1.7万普通家庭的电量即可满足ChatGPT的一日用电需求。(手动狗头)



有意思的是,上面的答主@段小草还提到了一篇论文,题为The Carbon Emissions of Writing and lllustrating Are Lower for Al than for Humans,讲的是AI在画画和写作上的碳排放量一个比人类少310到2900倍,一个比人类少130到1500倍。



这样看来,AI甚至算得上“节能减排的先锋”。(手动狗头)


呐,我们还是早点洗洗睡、关注GPT-5什么时候发吧。



三、奥特曼:我们需要可控核聚变


话又说回来,尽管比起收益,ChatGPT一日1.7万个家庭的能耗还不值一提,但AI能耗确实也是一个值得关注的问题。


而这点,奥特曼早就在“担忧”了。


在今年1月的一场达沃斯会议中,他就表示:人工智能的未来取决于清洁能源的突破。


具体而言,他认为:


随着技术越来越成熟,AI将消耗越来越大量的电力,如果能源技术无法突破,就无法实现这一目标(即让AI技术释放全部潜力)


而现在,公众还不是很了解这个需求究竟有多大,奥特曼本人表示也远超他的预期。


至于如何提升能源产量,他也直言:需要可控核聚变,或者更便宜的太阳能及存储等等。


说起可控核聚变,奥特曼其实早就押注了一家相关公司,名叫Helion。他给这家公司投资了3.75亿美元,这是他以个人名义投资的最大一笔。


除此之外,奥特曼的“爸爸”微软也押注了这家公司。


据了解,Helion成立于2013年,目前约150+员工。他们预计将在2028年上线50兆瓦规模的可控核聚变发电项目,微软将率先采购。


报告: https://www.cell.com/joule/abstract/S2542-4351(23)00365-3


参考链接:

[1]https://weibo.com/1642634100/O4lb78n3U?refer_flag=1001030103_ 

[2]https://www.businessinsider.com/chatgpt-uses-17-thousand-times-more-electricity-than-us-household-2024-3 

[3]https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai 

[4]https://www.theverge.com/2024/1/19/24044070/sam-altman-says-the-future-of-ai-depends-on-breakthroughs-in-clean-energy 

[5]https://www.zhihu.com/question/647926823


本文来自微信公众号:量子位(ID:QbitAI),作者:明敏、丰色

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文
文集:
频道:

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: