CXL ,开启争夺战

B站影视 港台电影 2025-05-12 17:25 1

摘要:随着高带宽内存 (HBM) 领域的竞争白热化,领先的内存芯片制造商正在扩展其人工智能 (AI) 半导体战略,以包括高级内存接口技术 Compute Express Link (CXL)。这种转变反映了大型科技公司对下一代 AI 数据中心的需求激增,其中有效处理

到2028年,全球CXL市场将从1400万美元飙升至160亿美元。

随着高带宽内存 (HBM) 领域的竞争白热化,领先的内存芯片制造商正在扩展其人工智能 (AI) 半导体战略,以包括高级内存接口技术 Compute Express Link (CXL)。这种转变反映了大型科技公司对下一代 AI 数据中心的需求激增,其中有效处理大量数据的能力变得越来越重要。

为这些数据中心提供支持的服务器通常包含一系列半导体组件,包括中央处理器 (CPU)、图形处理单元 (GPU) 和 DRAM。CXL 是一种最先进的接口,旨在优化这些组件之间的数据传输。通过使用更少的芯片最大限度地提高性能,它提供了一条降低基础设施成本的途径。“它不仅扩展了内存容量,还显著提高了半导体之间的数据传输速度,”一位行业官员说。“这就是为什么它与 HBM 一起成为 AI 时代最受关注的技术之一。”

Kim Hyun-kook

韩国的三星电子和 SK 海力士,以及总部位于美国的美光科技(三大内存生产商中最年轻的一家)正在加快努力,以在 CXL 内存市场取得早期领导地位。根据市场研究公司 Yole Intelligence 的数据,全球 CXL 市场预计将从 2023 年的 1400 万美元增长到 2028 年的 160 亿美元。

三星电子和 SK 海力士在 4 月 29 日于加利福尼亚州举行的 CXL DevCon 2025 上公布了他们最新的 CXL 技术和研究进展。该活动现已进入第二年,由全球半导体公司联盟 CXL 联盟主办。

在会议上,三星展示了其内存池技术,该技术利用 CXL 将多个内存模块链接到一个共享池中。这使用户能够根据需要灵活地访问和分配内存资源。作为该领域的先行者,三星于 2021 年 5 月开发了业界首款基于 CXL 的 DRAM。2023 年,该公司推出了支持 CXL 2.0 标准的 128GB DRAM 模块,该模块于当年年底完成客户验证。三星现在正准备完成 256GB 版本的验证。“三星决心在 CXL 市场占据领先地位,以避免重蹈 HBM 市场覆辙,”一位业内人士表示。

Kim Hyun-kook

在 HBM 领域拥有竞争优势的 SK 海力士正在寻求将这一势头应用于 CXL 领域,特别关注其高性能 DRAM 能力。4 月 23 日,该公司完成了基于 CXL 2.0 标准的 96GB DDR5 DRAM 模块的客户验证。“当应用于服务器时,与标准 DDR5 模块相比,该模块的容量增加了 30%,带宽增加了 5%,”一位公司代表说。“这项技术可以显著降低数据中心运营商的基础设施成本。”SK 海力士也在寻求对 128GB 变体的验证。

全球第三大内存芯片制造商美光科技(Micron Technology)去年开始推出基于 CXL 2.0 的内存扩展模块,加大了缩小与三星和 SK 海力士技术差距的力度。

CXL 的兴起正值 AI 开发的广泛转型之际 — 从训练密集型模型到推理驱动型架构。直到最近,AI 性能在很大程度上取决于模型在训练阶段可以摄取多少数据。这个阶段偏爱硬件,例如与 HBM 配对的 GPU,例如 NVIDIA AI 加速器中的硬件。

然而,如今重点正在转向基于推理的 AI 模型,该模型不仅根据预先训练的数据提供响应,还可以通过逻辑推理生成新的输出,即使数据未明确包含在训练集中。这些推理工作负载不仅需要访问大型数据集,还需要快速、高效的处理,而这正是 CXL 旨在提供的优势。对高效数据处理的需求不断增长,这推动了 AI 行业对这种下一代内存接口技术的兴趣日益浓厚。

计算机系统中的应用

CXL可以用于计算机系统中的许多应用:

高性能计算:CXL可以提供低延迟、高带宽的协议,可用于连接CPU、GPU、FPGA等处理器,在高性能计算中提供更快的数据传输。

存储加速:CXL可以用于连接存储设备,如SSD和NVMe驱动器,以提供更快的存储访问速度。此外,CXL还可以与内存控制器集成,为存储加速提供更大的带宽。

人工智能:CXL可用于连接AI芯片,以提供更快的数据传输,从而提高AI工作负载的性能和效率。

网络加速:CXL还可以用于连接网络适配器,以提供更快的网络传输速度,从而提高网络应用程序的性能。

数据中心中的应用

在数据中心中,CXL可以应用于以下方面:

高性能计算:CXL可以提供比传统PCIe更快的数据传输速度和更低的延迟,从而提高高性能计算的效率和吞吐量。

存储加速:CXL可以将存储加速器与主机CPU直接连接,从而实现更快的数据访问和更高的IOPS,提高存储性能。

AI加速:CXL可以将AI加速器与CPU/GPU/FPGA等处理器直接连接,实现更快的模型训练和推理速度,提高人工智能应用的性能。

大规模虚拟化:CXL可以将多个CPU和内存资源组合成一个大规模虚拟化集群,从而提高资源利用率和灵活性,并降低虚拟化管理的复杂性。

*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。

想要获取半导体产业的前沿洞见、技术速递、趋势解析,关注我们!

来源:半导体产业纵横

相关推荐