GPU营收,大增

B站影视 2024-12-28 20:05 2

摘要:Dell'Oro Group 高级研究总监 Baron Fung 表示:“随着超大规模企业竞相部署用于大型语言模型训练和推理的基础设施,对加速器的需求一直以惊人的速度增长。”

Dell'Oro 表示,2024 年第三季度,由 GPU 和定制加速器组成的加速器收入增长了 130%。

美国超大规模企业——亚马逊、谷歌、Meta 和微软——将在 2024 年部署超过 500 万台具有 AI 训练功能的加速器。

Dell'Oro Group 高级研究总监 Baron Fung 表示:“随着超大规模企业竞相部署用于大型语言模型训练和推理的基础设施,对加速器的需求一直以惊人的速度增长。”

“除了商用 GPU 之外,美国超大规模企业还在增加使用定制加速器的 AI 基础设施的部署。随着大型语言模型的规模不断扩大,推动了对更大计算集群的需求,超大规模企业正在加速采用定制加速器。这些定制解决方案通常与 Broadcom 和 Marvell 等芯片制造商共同开发,旨在提高性能效率、降低成本并减少对 NVIDIA GPU 的依赖。”

预计 2024 年服务器和存储系统组件市场将增长 100% 以上。加速器、其次是内存和存储驱动器推动了增量增长。

NVIDIA 在组件收入方面占据主导地位,领先于所有供应商,三星和 SK Hynix 紧随其后。NVIDIA 占据了报告总收入的近一半,而部署定制解决方案的超大规模厂商正在迅速崛起。

受 AI 集群中网络适配器的大力部署推动,智能 NIC 和 DPU 收入在 2024 年第三季度几乎翻了一番。

预计 2025 年增长将有所放缓,但仍将保持两位数,由于库存调整,年初通用服务器组件的增长可能会放缓。

Nvidia 在 2023 年出货了 376 万台数据中心 GPU

根据半导体分析公司TechInsights的一项研究,Nvidia 在 2023 年的数据中心 GPU 出货量呈爆炸式增长,总计约 376 万台。研究显示,与 2022 年相比,Nvidia 2023 年的 GPU 出货量增长了 100 多万台,当时 Nvidia 的数据中心 GPU 出货量总计为 264 万台。

2023 年,Nvidia 在数据中心 GPU 出货量中占据 98% 的市场份额,与 2022 年的市场份额相似。

TechInsights 的数据显示,如果算上 AMD 和英特尔,2023 年数据中心 GPU 的总出货量将达到 385 万台,高于 2022 年的约 267 万台。

Nvidia 还占据了数据中心 GPU 收入市场的 98% 的收入份额,达到 362 亿美元,是 2022 年 109 亿美元增长的三倍多。

TechInsights 分析师詹姆斯桑德斯 (James Sanders) 表示,Nvidia GPU 的 AI 替代品正在以谷歌 TPU、AMD 的 GPU、英特尔的 AI 芯片甚至 CPU 的形式出现。

桑德斯表示,人工智能硬件还不足以跟上人工智能软件的快速进步。

桑德斯表示:“我怀疑,由于人工智能的增长,它必须从英伟达实现多元化,这是不可避免的。”

Nvidia GPU 的短缺和成本帮助了 AMD 和英特尔,这两家公司在 2023 年凭借自己的 AI 芯片显示出了复苏的迹象。

TechInsights 的数据显示,2023 年 AMD 的出货量约为 50 万台,而英特尔则以 40 万台的出货量填补了剩余的空白。

AMD 数据中心 GPU 出货量今年有望上升。

AMD 的 MI300 系列 GPU 表现良好,已获得微软、Meta 和 Oracle 的采购订单。在 4 月份的财报电话会议上,AMD 首席执行官 Lisa Su 表示,MI300 的销售额在不到两个季度内就达到了 10 亿美元。

根据Motley Fool 上的财报电话会议记录,苏表示:“我们现在预计数据中心 GPU 收入将在 2024 年超过 40 亿美元,高于我们 1 月份预计的 35 亿美元。”

在本月的台北国际电脑展上,AMD 还表示将每年发布新款 GPU,其中计划今年发布 MI325X,2025 年发布 MI350,2026 年发布 MI400。

AMD 正在遵循 Nvidia 每年推出一款 GPU 的蓝图。Nvidia 已经宣布了今年的 Blackwell GPU、2025 年的增量升级以及 2026 年和 2027 年新 Rubin 系列的新款 GPU。

英特尔的 GPU 未来仍是一个问号。该公司最近停止了其 Ponte Vecchio GPU 的生产,并重新设计了其 Falcon Shore GPU,计划于 2025 年发布。该公司还提供 Flex 系列推理和媒体服务数据中心 GPU。

英特尔目前专注于 Gaudi AI 芯片,但这种芯片不像 GPU 那样灵活。生成式 AI 模型必须经过特殊编程才能在 Gaudi 芯片上运行,这需要付出很多努力。Nvidia 的 GPU 更适合运行各种模型。

据 The Motley Fool上的记录显示,英特尔首席执行官帕特·基辛格 (Pat Gelsinger) 在 4 月份的财报电话会议上表示,Falcon Shores 将“将 Gaudi 3 的出色收缩性能与完全可编程的架构相结合……随后我们将积极推出 Falcon Shores 产品” 。

Gaudi 3 让英特尔在 AI 芯片市场站稳了脚跟,英特尔目前预计“2024 年下半年的加速收入将超过 5 亿美元”,基辛格表示。

TechInsights 的桑德斯表示:“考虑到 Nvidia GPU 的容量和价格问题,GPU 之外也有很多动作,尤其是谷歌的 TPU。”

桑德斯表示:“谷歌的定制硅片工作比 AWS 和 AMD、Ampere 等商业硅片供应商的定制硅片工作产生的收入更高。”

谷歌已为其 Google Cloud 数据中心配备了自主研发的芯片,包括最近发布的 Axion CPU 和第六代 TPU,后者是一款名为 Trillium 的 AI 芯片。TechInsights 的这项研究并未考虑这些新芯片。

桑德斯说:“由于某种奇怪的市场力量融合,谷歌最终成为了技术上第三大数据中心硅片提供商(按收入计算)。”

谷歌于 2015 年推出 TPU,并逐渐占领市场份额。谷歌 TPU 的主要受众包括内部应用程序和 Google Cloud 用户。

“Argos 是他们为 YouTube 开发的视频编码器,考虑到 YouTube 每小时需要处理的所有视频。他们部署的每个 Argos 视频编码器 ASIC 都取代了 10 个 Xeon CPU。从功耗的角度来看,这是一个巨大的变化,”Sanders 说。

亚马逊拥有自己的 Graviton CPU 和名为 Trainium 和 Inferentia 的 AI 芯片,它尽可能地为客户降低 AI 芯片的价格。

TechInsights在研究报告中称,2023年,AWS向客户出租了相当于230万颗自产处理器的处理器,其中Graviton占比17%,超过了该平台上AMD芯片的使用量。

“即使销量很高,他们的总收入也不会很高。他们希望保持……与英特尔或 AMD 驱动的实例相比,相当稳定的 10% 到 20% 的折扣,”桑德斯说。

所有主要的云提供商和超大规模提供商都在开发自主研发的芯片,以取代英特尔和 AMD 生产的芯片。

Nvidia 的绝对主导地位迫使云提供商分配由 Nvidia 控制的专用空间,而 Nvidia 将其 DGX 服务器和 CUDA 软件堆栈放置在这些空间中。

桑德斯表示:“云平台不会完全摆脱英特尔、AMD 或 Nvidia,因为客户对这些云平台中这些公司的芯片的需求永远存在。”

微软还推出了自己的芯片、Cobalt CPU 和 Maia AI 加速器,而谷歌于 2013 年开始自主研发芯片,以满足加速内部工作负载的需求,距今已有近 10 年。

云计算公司开发的内部芯片的量产取决于软件基础设施。谷歌的 LLM 是在其 TPU 上运行而开发的,这将确保芯片的量产快速进行。

微软的 AI 基础设施依赖 Nvidia GPU,目前正将其软件堆栈调整为自研芯片。AWS 主要将其芯片出租给部署自有软件堆栈的公司。

来源:智慧芯片一点号

相关推荐