扫码打开虎嗅APP
本文来自微信公众号:半导体行业观察 (ID:icbank),作者:编辑部,原文标题:《英伟达狂飙,今年市值大涨65%》,头图来自:视觉中国
据路透社报道,随着人工智能热潮的兴起,英伟达(Nvidia)有望成为芯片制造商中最大的赢家——尽管不是唯一的赢家。
英伟达周三公布了好于预期的季度收益,并预测销售额高于华尔街预期,这与竞争对手英特尔公司预计亏损和削减股息形成鲜明对比。
Nvidia的市值让英特尔、AMD相形见绌
Nvidia 股价在本周四上涨近 14% 至 236.70 美元。自今年年初以来,涨幅已超过 65%,几乎是费城半导体指数涨幅的三倍。该公司通过帮助视频游戏看起来更逼真,开始了 PC 的图形芯片业务,然后随着其芯片用于采矿而乘上了加密货币浪潮。现在,下一个推动力来自生成式 AI。
Nvidia 周四的飙升使其市值增加了超过 700 亿美元。这使其市值超过 5800 亿美元,约为英特尔的五倍,成为美国第七大上市公司。该公司成功的关键是它控制了大约 80% 的图形处理单元(GPU)市场,这是一种专用芯片,可给 ChatGPT 聊天机器人等服务提供所需的计算能力。
GPU市场的王者
图形处理单元(GPU)旨在非常高效地处理人工智能计算中涉及的特定类型的数学,而英特尔的通用中央处理器(CPU)用于以较低的效率处理更广泛的计算任务。但人工智能正在接管科技行业,据研究公司 Gartner 称,到 2026 年,数据中心使用的 GPU 等专用芯片的份额预计将从 2020 年的不到 3% 上升到 15% 以上。
AMD是 GPU 行业的第二大玩家,其股价在周三 Nvidia 财报公布后也有所上涨,市场份额约为 20%。
“在硬件和处理方面引领 AI 革命的两家公司是 Nvidia 和 AMD,在我们看来,这两家公司遥遥领先于其他公司,”Piper Sandler 分析师 Harsh Kumar 说。
Lisa Su 领导的 AMD 近年来在 AI 方面进行了大量投资,包括一系列旨在与 Nvidia 最快的产品竞争的芯片。作为对比,英特尔占有不到 1% 的份额。
“对 ChatGPT 的热情及其解锁的潜在用例可能代表了人工智能采用的转折点,”持有英伟达 0.54% 股份的 AllianceBernstein 技术基金投资组合经理 Lei Qiu 表示。“虽然很难准确地确定今天人工智能占(Nvidia)收入的百分比有多大,但随着大型科技公司竞相开发类似类型的人工智能应用程序,它有可能呈指数增长,”Qiu 说。
英伟达在 AI 行业的实力也引起了风险投资家和初创公司的关注,他们正在投资数十亿美元,并承诺进行诸如降低电力消耗等改进。但到目前为止,它们都没有对 Nvidia 的业务造成重大影响。
所有这一切对英特尔来说都是坏消息,英特尔在数据中心和个人电脑行业的 CPU 市场份额也正在被 AMD 夺走,而 AMD 曾一度占据主导地位。该公司现在面临失去该行业下一个增长点的风险。近几个月来,它努力加强对 GPU 的关注,包括在去年 12 月将其图形芯片部门一分为二:一个专注于个人电脑,另一个专注于数据中心和人工智能。
不过,分析人士表示,在英特尔在市场上占有一席之地之前,该公司还有很长的路要走。
Wedbush Securities 分析师 Matthew Bryson 表示:“英特尔有更多的设计试图渗透(AI)市场,但迄今为止,尽管其解决方案很多,但它的牵引力令人失望。”
ChatGPT 助力英伟达狂飙
华尔街日报在最近的报道中指出,芯片制造商热衷于科技领域的最新热点:人工智能工具可以在最少提示的情况下生成文本,但这需要强大的计算能力才能运行,并有望给相关供应商带来丰厚的新收入来源。
分析师估计,对于半导体制造商而言,新工具如果得到广泛采用,可能会带来数百亿美元的年净销售额。
自去年年底,总部位于旧金山的 OpenAI 发布聊天机器人ChatGPT以来,市场对所谓的生成式 AI 的兴奋已经达到了狂热的程度。该技术通过产生令人信服的真实反应(有时甚至是不准确的反应)吸引了用户,并获得了微软数十亿美元的投资。
英伟达首席执行官黄仁勋甚至表示,该技术已达到拐点。“生成式 AI 的能力引发了全球企业开发和部署 AI 战略的紧迫感,”他在公司周三公布季度收益及一项新的云计算计划时表示。
他说,对此类人工智能工具的兴趣正在促使公司重新调整他们的业务预期。“毫无疑问,我们对今年的看法已经发生了相当大的变化。”
随着个人电脑、智能手机和其他电子产品销售疲软,芯片行业正在努力应对半导体行业的急剧下滑。由于对经济衰退的担忧导致消费者和企业缩减支出,大多数芯片制造商都报告称销售放缓。
Nvidia 是无可争议的 AI 芯片市场领导者,据 Omdia 估计,截至 2020 年,它在此类 AI 处理器中的份额约为 80%。
不过,有这么多资金可供争夺,其他芯片制造商也想加入其中。
英特尔公司首席执行官帕特基辛格周三表示,英特尔拥有一套广泛的芯片解决方案来应对生成式AI的机会,包括面向人工智能计算的专业芯片、面向数据中心的图形芯片和新一代数据中心中央处理器——计算机的数字大脑——他说这在人工智能工作中表现良好。
AMD为 AI 量身定制了 CPU、图形芯片和其他硬件,同时押注于大型云计算公司对这些硬件的需求。AMD 首席执行官Lisa Su上个月底表示 ,这项业务明年应该会开始变得更有意义。
美国银行分析师 Vivek Arya 表示,到 2027 年,生成式人工智能每年可为整个人工智能芯片市场增加 200 亿美元。他说,Nvidia 应该能够保持至少 65% 的人工智能芯片市场份额。
互联网搜索巨头谷歌是Alphabet Inc.的子公司,本月展示了其称为 Bard 的 ChatGPT 竞争对手。中国的百度公司正在开发一个名为 Ernie Bot 的类似于 ChatGPT 的人工智能聊天机器人,计划在下个月推出。微软已经在其 Bing 搜索引擎结果中为用户提供了受限的 ChatGPT 体验。
至少在短期内,Nvidia 在 AI 领域仍处于主导地位。该公司通过允许软件开发人员利用其图形芯片的特性夺得了领先地位,这些芯片从大约 15 年前开始就被证明擅长 AI。瑞银分析师在一份报告中表示,现在,该公司的芯片是唯一可用于创建大规模 AI 语言系统的可行产品,并补充说,他们估计 ChatGPT 需要大约 10000 个该公司的图形芯片来训练。
黄仁勋在财报说明会上提出该公司下个月可能会更新其潜在市场规模的前景,大约一年前,黄仁勋预测其从提供视频游戏芯片到汽车的业务将达到 1 万亿美元。
“由于生成式人工智能令人难以置信的能力,以及去年年中和年底发生的所有突破,我们可能会提早达到那个[市场规模],”他说。“毫无疑问,这对计算机行业来说是一个非常重要的时刻。”
Nvidia 正试图通过开始为企业提供云计算服务来更快地实现这一目标,以使用其硬件和软件开发生成式 AI 聊天机器人和其他工具。该服务将通过成熟的云计算公司提供,旨在降低人工智能在商业中应用普及的门槛。
Nvidia 表示,它正在与所有主要的云计算提供商(包括亚马逊、微软和谷歌)就生成式人工智能工具以及消费互联网公司和初创公司展开合作。
上万美金的A100是新武器
在CNBC看来,在当前火热的AI芯片市场,售价上万美金的Nvidia A100已经成为了该市场的新武器。
A100 目前已成为人工智能专业人士的“主力”,投资者Nathan Benaich 说。他发布了一份涵盖人工智能行业的时事通讯和报告,其中包括使用 A100 的超级计算机的部分清单。根据 New Street Research 的数据,Nvidia 占据了可用于机器学习的图形处理器市场的95%份额。
在他看来,A100 非常适合支持ChatGPT、Bing AI或Stable Diffusion等工具的机器学习模型。它能够同时执行许多简单的计算,这对于训练和使用神经网络模型很重要。
A100 背后的技术最初用于在游戏中渲染复杂的 3D 图形。它通常被称为图形处理器或 GPU,但如今 Nvidia 的 A100 配置和目标是机器学习任务,并在数据中心运行,而不仅是在游戏 PC 中运行。
开发聊天机器人和图像生成器等软件的大公司或初创公司需要数百甚至数千个 Nvidia 芯片,并且要么自行购买,要么从云提供商处安全访问计算机。
例如开发当前火热的ChatGPT所需的大型语言模型,就需要数百个 GPU来训练。这些芯片需要足够强大以快速处理数 TB 的数据以识别模式。之后,还需要像 A100 这样的 GPU 来进行“推理”,或者使用模型生成文本、进行预测或识别照片中的对象。
这意味着 AI 公司需要获得大量 A100,该领域的一些企业家甚至将他们获得的 A100 数量视为进步的标志。
“一年前我们有 32 块A100,”Stability AI 首席执行官 Emad Mostaque在一月份的推特上写道。“Dream big and stack moar GPUs kids. Brrr.” 他继续写道。Stability AI 是帮助开发 Stable Diffusion 的公司,Stable Diffusion 是去年秋天引起关注的图像生成器,据报道其估值超过10 亿美元。
根据 State of AI 报告的一项估计,Stability AI 现在可以使用超过 5400 个A100 GPU ,该报告绘制并跟踪了哪些公司和大学拥有最多的 A100 GPU——尽管不包括云提供商,它们不公开公布相关数据。
Nvidia 首席执行官黄仁勋周三在与分析师的电话会议上不停地谈论人工智能,暗示最近人工智能的繁荣是公司战略的核心。
黄仁勋说:“过去 60 天,围绕我们构建的 AI 基础设施的活动,以及使用 Hopper 和 Ampere 影响大型语言模型的推理活动刚刚爆发。”
“云服务”带来的新可能
其他类型的软件(如网页服务)偶尔会以微秒为单位突发性地使用处理能力,而机器学习任务可能会占用整个计算机的处理能力,有时长达数小时或数天。
这意味着拥有热门 AI 产品的公司通常需要购买更多 GPU 来处理高峰期运算或改进他们的模型。这些 GPU 并不便宜。除了可以插入现有服务器卡上的单个 A100 之外,许多数据中心还使用一个包含八个 A100 GPU 协同工作的系统。
这个来自Nvidia的,名为DGX A100的系统建议售价接近 200000 美元,但它配备了所需的芯片。周三,Nvidia 表示将直接出售对 DGX 系统的云访问,这可能会降低修补系统的成本以及研究人员的入门成本。
很容易看出 A100 的成本是如何增加的。
例如,New Street Research 的一项估计发现,Bing 搜索中基于 OpenAI 的 ChatGPT 模型可能需要 8 个 GPU 才能在不到一秒的时间内响应问题。按照这个速度,微软将需要超过 20000 台 8-GPU 服务器才能将 Bing 中的模型部署给每个人,这表明微软可能需要 40 亿美元的基础设施支出。
“如果你来自微软,并且你想扩展它,以 Bing 的规模,那可能是 40 亿美元。如果你想扩展到谷歌的规模,每天服务 80 亿至 90 亿次查询,你就需要在 DGX 上花费 800 亿美元。” New Street Research 的技术分析师 Antoine Chkaiban 说。“我们得出的数字是巨大的。但它们只是反映了这样一个事实,即每个使用如此大型语言模型的用户在使用它时都需要一台大型超级计算机。”
根据 Stability AI 在线发布的信息,最新版本的图像生成器 Stable Diffusion 在256 个 A100 GPU或 32 台机器上进行了训练,每台机器有 8 个 A100,总计 200000 个计算小时。
Stability AI 首席执行官莫斯塔克在 Twitter 上表示,以市场价格计算,仅训练模型就花费了 60 万美元,他在推特交流中暗示,与竞争对手相比,这个价格异常便宜。这还不包括“推理”或部署模型的成本。
Nvidia 首席执行官黄仁勋在接受 CNBC 的 Katie Tarasov 采访时表示,就这些模型所需的计算量而言,该公司的产品实际上并不昂贵。
“我们将原本价值 10 亿美元的运行 CPU 的数据中心缩小为 1 亿美元的数据中心,”黄仁勋说。“现在,当你把它放在云端并由 100 家公司共享时,仅需1 亿美元。”
黄仁勋表示,Nvidia 的 GPU 允许初创公司以比使用传统计算机处理器低得多的成本训练模型。“现在你可以用大约 10万 到 2000 万美元构建类似大型语言模型的东西,比如 GPT,”黄仁勋说。“这真的非常实惠。”他补充说。
也许,在谈到这个英伟达“云服务”的时候,很多人会把他看作类似AWS、Azure和谷歌这样的公有云竞争者。但按照nextplatform的说法,英伟达只是将其自己的 DGX 系统放入云中,这样客户就可以在云上使用与安装在自己的数据中心中的完全相同的服务。
“这类似于VMware在 2016 年秋季放弃云,与亚马逊合作构建 VMware Cloud on AWS的尝试”,nextplatform说。
但无论如何,在其他竞争对手还在挣扎的时候,英伟达似乎已经正式复苏并迈入了新时代。
参考链接:
https://www.reuters.com/technology/nvidia-results-show-its-growing-lead-ai-chip-race-2023-02-23/
https://www.wsj.com/articles/chip-makers-see-chatgpt-stirring-strong-demand-for-advanced-processors-76f152d1
https://www.cnbc.com/amp/2023/02/23/nvidias-a100-is-the-10000-chip-powering-the-race-for-ai-.html
本文来自微信公众号:半导体行业观察 (ID:icbank),作者:编辑部