正确的提示信息

扫码打开虎嗅APP

从思考到创造
打开APP
搜索历史
删除
完成
全部删除
热搜词
2023-10-17 12:48
为了成为“英伟达平替”,大模型厂商开卷了

本文来自微信公众号:小饭桌(ID:xfzmedia),作者:黄泽正,编辑:张丽娟,题图来自:unsplash

文章摘要
本文介绍了当前大模型厂商们纷纷开展自研AI芯片的动态,以替代英伟达的垄断地位。文章指出,大模型厂商们希望减少对英伟达的依赖,降低算力成本,并且构建自身的技术壁垒。同时,国内AI芯片市场也在崛起,中国的AI芯片投融资额世界第一,国产AI芯片厂商也在追赶英伟达。然而,英伟达的GPU市场份额仍然高达80%,其庞大的AI软件生态CUDA也是其壁垒之一。因此,大模型厂商自研AI芯片成为一种必然趋势。

• 大模型厂商们希望减少对英伟达的依赖,降低算力成本,并构建自身的技术壁垒。

• 国内AI芯片市场崛起,中国的AI芯片投融资额世界第一,国产AI芯片厂商也在追赶英伟达。

• 英伟达的GPU市场份额高达80%,其庞大的AI软件生态CUDA也是其壁垒之一。

最近,中美的大模型厂商们都在干同一件事——卷AI芯片。


在硅谷,谷歌给最新款的Pixel手机装上了Tensor G3芯片,让用户可以在手机端解锁生成式AI应用;微软宣布将在11月推出首款自研AI芯片,以此降低算力成本并减少对英伟达的依赖;OpenAI也表示正尝试自研AI芯片,并已开始评估潜在的收购目标;亚马逊以40亿美金投资大模型创企Anthropic后,要求其使用亚马逊自研AI芯片来构建、训练和部署大模型……


总结起来就是,有AI芯片生产能力的,如谷歌、亚马逊,想用自研芯片替换英伟达。没有AI芯片生产能力的,如微软、OpenAI,创造条件也要替换英伟达。


而在国内,AI芯片市场也再起波澜。华为发布AI芯片昇腾910,配合全新架构的昇腾AI计算集群,可支持超万亿参数的大模型训练;AI芯片厂商燧原科技宣布完成D轮融资,融资规模达到20亿人民币……


为什么大家都不约而同地将大模型,卷向了AI芯片?很显然,AI芯片研发是一项长周期、重投入的工作,也已经有了行业巨头英伟达,可以提供高性能的AI芯片。


细究起来,恐怕只能概括为“成也英伟达,败也英伟达”。英伟达对AI算力的垄断,让全球AI公司都要不断承担英伟达芯片的溢价,并且由于英伟达生产能力有限,算力短缺正在制约一些AI公司的发展。


根据dealroom.co数据,在这波生成式AI的热浪中,美国获得了全球投融资的89%,而在AI芯片的投融资中,中国AI芯片投融资世界第一,超过美国两倍。


也就是说,尽管在大模型发展方式、发展阶段上,中美大模型企业还存在诸多差异,但在掌控算力这件事上,大家却显得格外一致。


一、让英伟达少赚点钱


实际上,无论是OpenAI还是微软、谷歌,亦或是国产芯片厂商,与其说是要抢英伟达的生意,不如说是想让英伟达少赚自己点钱。


比如微软就大方承认,自己即将发布的AI芯片并不能直接替代英伟达的芯片,但随着微软继续推动在Bing、Office、GitHub和其他方面推出AI驱动的功能,自研芯片可能会大幅削减运算成本。


换言之,微软等大厂自研AI芯片,其实并非想取代英伟达,而更像是想自研一款平替产品,以缓解算力不足和算力成本过高的问题。


毕竟英伟达对AI算力的垄断,已经到了令人瞠目结舌的地步,大模型厂商们也苦英伟达久矣。


根据公开数据,英伟达在独立GPU市场份额达80%,在高端GPU市场份额高达90%。


2020年,全世界跑AI的云计算与数据中心,80.6%都由英伟达GPU驱动。2021年,英伟达表示,全球前500个超算中,大约七成由英伟达芯片驱动。2023年第二季度,英伟达的H100显卡出货量达800多吨,依然供不应求。


由于英伟达霸占了高端GPU市场,产品不可避免出现了溢价。一个典型案例是,由于英伟达AI芯片供不应求,国内有人从机房把旧A100芯片拆出来倒卖。这些旧货非但没有贬值,反而卖到10万一片,比去年同期新品8万左右的售价还要更贵。


对于算力需求巨大的大模型厂商来说,不仅短期承担了过高的芯片溢价,长期角度更是为英伟达的发展壮大做了嫁衣。


比如英伟达第二季度财报显示,公司第二季度收入为135.1亿美元,较去年同期增长101%。其中,数据中心收入占据大头,创下了103.2亿美元的纪录,较去年同期增长171%,远超分析师预期。


而英伟达巨额利润的背后,其实是各大科技巨头的输血支持。公开财报显示,大部分数据中心的扩建费用主要由各家科技巨头承担,谷歌、微软、Meta的财报中都强调了数据中心的成本支出。


在市场环境整体下行,大家日子都不好过的当口,还要将巨额利润上供给英伟达,帮助其进一步垄断市场份额,掌握定价权,各家科技巨头无疑成为了冤大头。


同时更进一步,除了钱的因素,英伟达已经数次表示,即便已经开足马力生产,自己的GPU产能也难以满足当前市场的需求。


按照硅谷流行的说法,英伟达就像大模型时代的卖铲人,不论大模型之战的胜利方是谁,笑到最后的都是卖铲子(算力)的英伟达。


随着大模型之战愈演愈烈,英伟达当然可以从容生产,毕竟AI芯片卖给谁不是卖。但对于身处战斗第一线的微软、谷歌,以及OpenAI等一众创业公司来说,如果在短兵相接的时候,英伟达断供了,就等于没了武器,企业的命运将何去何从,恐怕要打上一个大大的问号。


毕竟,连与黄仁勋私交甚密,且不差钱的OpenAI在开发GPT-4时都因为算力短缺而受阻,又有哪家公司能确保英伟达不会断供呢?


因此,无论从经济性还是安全性角度,大模型厂商自研AI芯片都在情理之中。


二、钱多了得花出去


除了逻辑成立,大模型厂商卷向AI芯片的最直接原因,还在于兜里的钱变多了。


根据dealroom.co数据,过去五年全球生成式AI企业融资额超过220亿美元,尤其是2023年,融资额足有150亿美元。而这些巨额投资,有89%都流向了美国的初创公司,尤其是OpenAI,一家就拿到了VC将近120亿美金的投资。


对创业公司来说,钱少了固然万事皆休,但有时账目上钱太多了,也成了幸福的烦恼,对大模型创企尤其如此。


一方面,当前大部分大模型创企,还不具备自我造血能力,其账目上的巨额资金,都是投资人打进去的。那另一方面,投资人不光会打钱,还会盯着企业花钱。在收获巨额融资后,如果没有相关的业务进展,企业恐怕很难给投资人交差。


既不能不花钱,又不能乱花钱,“自研AI芯片”就顺理成章提上了企业日程表。主要原因有两个:刚需+阶段性要求。


首先,大模型发展的底层是算力,AI芯片可以说是大模型创企的水和电。但这个刚性需求,长期以来被英伟达所把持。


OpenAI的CEO山姆·奥特曼就曾公开抱怨GPU短缺,他认为GPU市场完全由英伟达主导,“这家公司控制着全球80%以上最适合人工智能训练的芯片市场。”而英伟达对AI芯片的垄断,也直接影响了OpenAI的发展。


山姆·奥特曼透露,其实早在GPT-4发布之初(今年3月),OpenAI就计划将ChatGPT的上下文输入长度提升到32k token,但直到GPT-4上线很长一段时间,这一计划都未能达成。其中一个关键因素,就是英伟达的算力芯片供不应求,以及算力成本过高。


如果说以往公司规模较小,缺乏资金时,被英伟达“卡脖子”是无可奈何。现如今,OpenAI兵强马壮,资金充裕,恐怕很难再忍受将企业命脉交给别人,打乱自己的全盘计划。


除了刚性需求,大模型厂商最近不约而同“围剿”英伟达,还在于大模型发展的阶段性需求。简单来说,就是到了烧硬件的时候。


需要明确的是,大模型训练有些类似押注,并非每次训练都能得到满意的结果。换言之,训练次数增多不一定能达到优化的效果,如果盲目将钱投入训练,大模型创企为算力支付的高昂费用只能是试错成本。


而如果把资金花到芯片研发上,效果则完全不同。


比如OpenAI的做法,收购芯片研发公司,就等于把原本要上供给英伟达的钱,沉淀成了公司资产。不仅能在未来增强公司核心竞争力,在当前也能给投资人合理的解释——公司正把钱用在刀刃上,构建自身技术壁垒。


对于谷歌、亚马逊和微软等不差钱的硅谷大厂来说,花钱搞芯片研发更是必选项。


原因很简单,一方面,随着生成式AI大热,英伟达的市值突破万亿美元,即便是硅谷大厂,心头应该也是羡慕不已,想要分一杯羹。另一方面,随着生成式AI被各大厂摆上核心位置,算力之争大概率将决定未来企业的生态位,大厂们自然不能让英伟达掌握自己的核心命脉。


三、先成为60%的英伟达


反观国内市场,尽管国产大模型与硅谷大模型发展阶段不同,但在追赶英伟达这件事上,大家的目标却非常一致。


中国工程院院士、清华大学计算机系教授郑纬民就认为:“今天国产AI芯片只要达到国外芯片60%的性能,如果生态做好了,客户也会满意。


其实从钱的流向来看,国内对AI芯片非常重视。最近5年中国AI芯片的投融资额世界第一,达到了74亿美金,比美国还多两倍。


在烧了大量的研发经费后,国内AI芯片厂商已经有了6000+家,其中主流厂商约60余家,已经大致形成了三个梯队。


第一梯队包括海光、华为、寒武纪等厂商,有成熟产品,且有商业化量产规模的应用;第二梯队主要是燧原、昆仑芯、天数、壁仞、沐曦等创企,已经发布了AI产品,但应用领域还相对有限;第三梯队则是一众仍在埋头AI芯片研发,尚无AI芯片量产的早期企业。


实际上,在硬件性能方面,国产第一梯队的AI芯片已经与英伟达相差不远。比如科大讯飞总裁刘庆峰就公开表示,“华为的AI芯片性能,已经可以对标英伟达的高端显卡A100,尤其在显卡的裸金属性方面。”


当然,在硬件性能上接近英伟达,并不意味着国产AI芯片可以取代英伟达。因为英伟达真正的壁垒,并不只有GPU硬件性能,还在于其庞大的AI软件生态CUDA。


简单来说,决定GPU性能的不只是显卡本身,还包括配套软件和开发工具对应用的支持。作为一家成立30年,并且早早确定专注于生产GPU的公司,英伟达定义了GPU通用计算编程框架CUDA,开发者们早已习惯了用CUDA专有的编程语言,制作GPU驱动的应用程序。


换句话来说,如果开发者要迁移到谷歌、亚马逊、微软或国产的GPU芯片,他们甚至需要学习全新的软件语言,迁移成本显然很高。


郑纬民教授也指出,行业抢货国外AI芯片而不用国产芯片,这一现象本质还是国产芯片生态仍有差距。


他认为完善的GPU生态应该包括两个方面:一方面是基于其他系统研发的软件要能容易地迁移到国产生态中;另一方面是国产系统的开发套件要能很好地支持新软件的开发。“如果能达到生态的成熟,哪怕芯片硬件性能只有国外的60%,执行大多数任务也不会有明显感知。”


生态起决定作用,英伟达有先发优势,这两个因素叠加在一起似乎成了一道无解的命题——英伟达就是会垄断市场。


但更多AI厂商自研芯片,却引入了新的变量。


首先,自研芯片意味着AI公司可以根据自身需求,对软件和硬件进行改造,确保芯片设计完全符合算法需求,提高运算效率和性能。与此同时,AI公司还可以围绕自研芯片,建立私有的生态系统,包括软件库、框架、工具和支持服务,以此满足客户定制化需求。


对国产AI公司而言,虽然很难跟英伟达正面硬刚,但可以先成为60%的英伟达。虽然无法满足全球AI算力需求,但至少可以先满足自身算力需求。


而从长期角度,正如百川智能创始人王小川所言,大模型发展分为训练、推理两部分,虽然训练目前只有英伟达做的最好,但推理需要有国产AI芯片。“未来如果要往更高模型发展,算力储备非常关键。这场‘算力仗’,中国的国产AI芯片必须要能顶上。”


AI芯片快速迭代的特性,注定了这一赛道的格局不会永远固定。比如,就在燧原科技宣布完成D轮20亿元融资,缔造今年芯片最大融资金额之际。


另一条新闻也在业内刷屏,长期亏损的国产AI芯片第一股寒武纪宣布,国投基金减持完毕,基本清仓。而这种创投股东集体清仓的情形,对寒武纪来说已不是第一次。


即便在AI芯片热潮汹涌的当下,要想真正搭上这股东风,恐怕也并不容易。


本文来自微信公众号:小饭桌(ID:xfzmedia),作者:黄泽正,编辑:张丽娟

本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
如对本稿件有异议或投诉,请联系tougao@huxiu.com
打开虎嗅APP,查看全文

支持一下

赞赏

0人已赞赏

大 家 都 在 看

大 家 都 在 搜

好的内容,值得赞赏

您的赞赏金额会直接进入作者的虎嗅账号

    自定义
    支付: