扫码打开虎嗅APP
本文来自:硬AI,作者:李笑寅,题图来自:AI生成
上周五(12月13日)晚,美股市场惊现“买博通、卖英伟达”:博通(broadcom)股价大涨27%,创下历史最高单日涨幅,公司市值突破1万亿美元,同时,芯片龙头英伟达的股价录得3.3%的下跌。
引爆买盘的导火索来自博通CEO Hock Tan在当天业绩会上的大胆预测:2027年,市场对定制款AI芯片ASIC的需求规模将达600亿至900亿美元。
有分析指出,这个数据如果实现,意味着未来三年(2025~2027年),博通ASIC相关的AI业务将实现每年翻倍增长,这大幅提升了市场对于ASIC的预期,可能意味着ASIC有望迎来爆发期。
数据枯竭、边际效益递减……大模型从训练转向推理
作为AI模型的第一阶段,预训练是个不断给模型“喂”数据并不断迭代更新的过程。
为了提升模型性能,秉持着数据量、计算量和模型参数量的规模越大越好(即Scaling law)的原则,各大科技巨头纷纷哄抢当前市面上性能最为强悍的英伟达GPU,希望用囤积的GPU数量给AI模型效用“做担保”。
然而,高强度、大规模的模型训练正在“榨干”全球数据库,并且在模型扩展边际效益递减的同时,算力成本仍然高企,这引发了对AI训练阶段是否已经即将终结的讨论。
近日,前OpenAI联合创始人、SSI创始人Ilya Sutskever在NeurIPS 2024大会上发表演讲时表示,预训练时代即将结束,数据作为AI的化石燃料是有限的,目前用于AI预训练的数据已经达到了峰值。
OpenAI大神Noam Brown也于近日回应称,AI从2019年到现在,取得的难以置信的成就都来自数据和算力规模的扩大,但大语言模型仍然无法解决像井字棋这样的简单问题。
随之而来的问题是:Is Scaling is All you Need?我们真的还需要再消耗更高的成本来训练更好的AI吗?
外界的目光由此开始移至AI大模型的下一阶段——逻辑推理。
作为大模型预训练的下一阶段,逻辑推理是指基于现有大模型,开发AI在各细分垂直领域的应用,以实现终端落地。
从市面上的大模型产品看,包括谷歌的Gemini 2.0、OpenAI的o1等在内,AI Agent(智能体)目前已经成为各大公司的主攻方向之一。
随着AI大模型日趋成熟,有观点认为,以ASIC(专用集成电路)为代表的推理芯片将逐步取代以GPU为代表的训练芯片,成为各大AI公司的“新宠”。
而博通CEO对ASIC市场的乐观预期在一定程度上印证了外界对AI范式转向的预期,进而引发了上周五的股价暴涨。
ASIC是什么?比GPU更“专一”
半导体大致可以分为标准半导体和专用集成电路(ASIC)。标准半导体拥有标准化规格,只要满足基本要求,就可以应用于任何电子设备,而ASIC则是半导体制造商根据特定产品要求生产的半导体。
因此,ASIC一般会被应用于特定设计和制造的设备中,执行必要的功能。
AI运算也就由此衍生出两条路径:一种是英伟达GPU代表的通用路径,适合通用高性能计算,另一种是ASIC定制芯片为代表的专用路径。
作为标准半导体成品,GPU在处理大规模并行计算任务时表现出色,但当处理大规模矩阵乘法时,存在内存墙问题,而经过特殊设计的ASIC就可以解决这个问题,一旦大规模量产,ASIC的性价比会更高。
简单来说就是,GPU贵在目前产品成熟、产业链成熟,而ASIC的想象力在于更“专一”,并且在处理单个运算任务时能实现更高的处理速度和更低的能耗,因此也更适用于推理端边缘计算。
为科技巨头定制AI芯片,成了迈威尔和博通的“摇钱树”
由于GPU产能趋紧且价格昂贵,众多科技巨头开始加入自研ASIC芯片的队伍,仅供自家使用。
有观点认为,谷歌是AI ASIC芯片的先驱,因为其于2015年发布第一代TPU(ASIC)产品,同样具有代表性的ASIC芯片还包括亚马逊的Tranium和Inferentia、微软的Maia、Meta的MTIA以及特斯拉的Dojo等。
在自研AI芯片的上游供应链上,迈威尔和博通是常年称霸的两大制造商。
迈威尔的崛起离不开其新领导层的成功战略。仿佛早有预见般,该公司的CEO Matt Murphy自2016年上任以来,趁公司重组之际将公司战略重心转向为科技巨头定制芯片,成功在AI大潮中抓住了机遇。
除了谷歌和微软两个大客户,迈威尔还在近期与亚马逊AWS签订了为期5年的合作协议,帮助亚马逊设计自有AI芯片。业内人士认为,这将助推迈威尔AI定制芯片业务在下一财年实现翻倍增长。
作为迈威尔的主要竞争对手,博通同样拥有谷歌、Meta和字节三家大客户。
有分析预计,到2027~2028年,每家客户都会达到1年百万片ASIC的采购规模,随着第四和第五大客户的采购量也开始快速爬升,这些科技公司的芯片订制订单将在未来几年给博通带来十分可观的AI收入。
随着AI大模型进入“下半场”,真正的推理端刚刚开始,关于芯片的又一场鏖战即将打响。正如博通的CEO Hock Tan此前所预言:
“未来50%的AI Flops(算力)都会是ASIC,甚至CSP(超大规模云计算产商)内部自用的芯片有100%都将是ASIC”。
本文来自:硬AI,作者:李笑寅