摘要:在AI算力爆发、移动终端性能升级、数据中心存储需求激增的多重驱动下,全球存储产业正迎来技术迭代的密集期。内存作为数据处理与传输的核心枢纽,其性能直接决定了终端设备、服务器及AI加速器的运行效率。
在AI算力爆发、移动终端性能升级、数据中心存储需求激增的多重驱动下,全球存储产业正迎来技术迭代的密集期。内存作为数据处理与传输的核心枢纽,其性能直接决定了终端设备、服务器及AI加速器的运行效率。
当前,HBM的带宽竞赛、DDR5的产能扩张、LPDDR6的标准落地、GDDR7的图形性能突破、HBF的闪存革新以及CXL的架构重构,共同构成了存储技术创新的核心版图。全球存储厂商凭借各自的技术积淀与战略布局,在不同技术赛道上展开一场激烈角逐。
HBM成为筑牢AI算力根基的关键
高带宽内存(HBM)通过3D堆叠技术,在极小的物理空间内实现了超高带宽和低功耗,已成为AI加速器和HPC芯片不可或缺的核心组件。
01、HBM3E出货热潮涌动,存储大厂“三国杀”正酣
HBM3E DRAM是解决AI算力瓶颈的关键存储器技术,凭借超过1TB/s的总线速度,成为NVIDIA、AMD、Intel新一代AI芯片(如NVIDIA H200/B100/B200、AMD MI350X)必备元件。
作为HBM市场的先行者,SK海力士在HBM3E的研发和量产上表现突出,早在2024年便成为业界首家实现HBM3E量产验证的企业,向NVIDIA供货;随后9月,正式宣布12层36GB HBM3E已量产。2025财年第二季度的财务报告中,SK海力士表示公司已经具备HBM3E产品的量产能力,并计划在全年继续扩大HBM3E的供应规模。
根据美光科技2025财年第二季度财报会议纪要,其HBM3E 8H已成功应用于英伟达的GB200平台,而12层堆叠的HBM3E 12H则将应用于GB300。美光在2025财年第二季度已开始向其第三大HBM3E客户批量出货,并预计未来将增加更多客户。公司乐观预测,2025财年HBM收入将达到数十亿美元。
今年9月下旬,韩国多家媒体引述业内人士消息透露,三星正式通过英伟达HBM3E 12层芯片质量认证测试,将成第三家向英伟达提供HBM3E 12层产品的公司。预计不久后开始供应高阶存储器芯片,并有望打入下一代HBM4竞争链,缩小与SK海力士、美光在第六代高带宽存储器HBM4竞争的差距。
02、HBM4标准落地,原厂开启新角逐
随着JEDEC于2025年4月正式发布HBM4标准,明确采用2048位接口、8Gb/s传输速率,总带宽突破2TB/s,并引入1.1V/0.9V低电压选项,下一代HBM技术竞赛正式拉开帷幕。
当前HBM4市场中主要有SK海力士、三星和美光三位核心玩家。随着英伟达透露预计明年一季度完成HBM4质量验证,并于下半年敲定Rubin系列供应商及订单量,各家HBM4布局加速。
SK海力士具有先发优势。2025年3月,SK海力士宣布出货全球首款12层HBM4样品,计划在2026年下半年实现12层HBM4产品的量产;8月的FMS 2025展会上,SK海力士展示了12层HBM4样品;9月,SK海力士宣布已成功完成面向AI的超高性能存储器新产品HBM4的开发,并在全球首次构建了量产体系。据悉,这次全新构建量产体系的HBM4采用了较前一代产品翻倍的2048条数据传输通道(I/O),将带宽扩大一倍,同时能效也提升40%以上。
三星方面,根据韩媒9月的报道,三星正加速推进京畿道平泽第五工厂(P5)的建设复工,旨在抢占新一代高带宽内存(HBM)的先发产能。业界指出,三星未来有望向英伟达供应第五代HBM3E产品,之后将加速开发第六代HBM4。
美光则在2025财年第四季度及全年业绩电话会议上确认,已向客户交付12层堆叠的HBM4样片。同时,美光CEO Sanjay Mehrotra确认美光下一代HBM4内存将于2026年推出,性能将超越现行的JEDEC HBM4基础规范。此外,美光任命台积电前董事长刘德音加入其董事会,以加速其HBM4的研发进程和市场布局。
CXL:数据中心内存架构的重塑力量
进入2025年下半年,Compute Express Link(CXL)技术已不再是前沿概念,而是成为重塑数据中心和高性能计算内存架构的关键力量,商业化进程加速。CXL是一种基于PCIe物理层的高速、开放式互连协议,旨在解决长期困扰计算行业的“内存墙”问题,即处理器性能增长速度远超内存带宽和容量增长的瓶颈。
在人工智能(AI)、机器学习和大数据分析等内存密集型应用需求的驱动下,传统服务器架构中内存容量、带宽和成本的矛盾日益突出。CXL技术的出现,为构建更灵活、高效且经济的内存层次结构提供了可行的路径。
作为较早布局CXL的企业之一,三星在2021年推出了支持CXL的内存原型,2023年推出了第二代并支持512GB内存模块,目前已实现基于DDR5的CXL 2.0内存扩展模组的规模化量产。三星电子副总裁、Memory事业部首席技术官Kevin Yoon在演讲中透露,随着CXL 3.0时代到来,三星正开发支持多服务器实时内存共享的新型设备,计划于2026年推出兼容CXL 3.1与PCIe Gen 6.0的CMM-D解决方案,未来更将实现近内存处理引擎等全功能支持,进一步提升数据中心的灵活性与扩展性。
此外,在8月的FMS 2025展会演讲中,三星电子宣布计划于今年下半年发布CXL新产品。同时强调CXL内存和HBM技术的进步将进一步提升AI模型的性能,并指出CXL内存扩展技术正在成为一种颇具前景的替代方案。
今年9月1日,澜起科技宣布推出基于CXL®3.1 Type 3标准设计的内存扩展控制器(MXC)芯片M88MX6852,并已开始向主要客户送样测试。
根据介绍,澜起科技CXL 3.1内存扩展控制器采用PCIe®6.2物理层接口,支持最高64GT/s的传输速率(x8通道),并具备多速率、多宽度的兼容能力,可灵活拆分为2个x4端口,以满足不同应用场景的需求。芯片内置双通道DDR5内存控制器,支持速率高达8000MT/s,显著提升主机CPU与后端SDRAM或DIMM模块之间的数据交换效率。
SK海力士在今年4月宣布成功完成CMM(CXL Memory Module)-DDR5 96GB(千兆字节)产品的客户验证,是基于CXL 2.0标准的DRAM解决方案产品。除CXL DRAM研发外,SK海力士还积极致力于CXL生态系统的扩展。公司自主研发了针对该产品优化的软件异构存储器软件开发套件(HMSDK),并于去年9月成功将其应用于全球最大的开源操作系统Linux,从而显著提升了基于CXL的系统性能。
存储大厂联手,共推HBF高带宽闪存标准
高带宽闪存(HBF)是闪迪专为AI领域设计的新型存储器架构。它通过堆叠NAND闪存芯片与逻辑芯片集成,旨在填补DRAM与传统闪存之间的性能鸿沟,成为读取密集型AI推理场景的理想选择。目前该技术处于早期研发阶段。
今年2月,闪迪率先提出HBF概念并宣布正在开发HBF技术,闪迪将其定位为"结合3D NAND容量和HBM带宽"的创新产品。7月,闪迪宣布成立技术顾问委员会,以指导其开创性HBF内存技术的发展和战略。委员会由行业专家和闪迪内部及外部的高级技术领导组成,将提供战略指导、技术见解和市场观点。
今年8月,闪迪宣布与SK海力士签署谅解备忘录,双方将共同制定HBF技术规范,并推动标准化。闪迪的目标是在2026年下半年推出HBF存储器样品,首批采用HBF的AI人工智能推理设备样品预计将于2027年初上市。
闪迪表示,HBF技术基于NAND闪存设计,提供与传统高带宽内存(HBM)类似的带宽,同时容量可提升8到16倍,最高可达768GB,成为AI推理工作负载的理想选择。与依赖DRAM的传统HBM不同,HBF通过部分替代内存堆栈,牺牲了微弱的原始延迟,但在容量和能效方面实现了显著提升。NAND闪存的非易失性特性使得HBF在断电后仍能保留数据,进一步降低了能耗。
LPDDR5X的主流化与LPDDR6的商业化
低功耗双倍数据率内存(LPDDR)是移动设备的核心存储组件,随着AI手机、折叠屏终端与车载智能系统的兴起,LPDDR5X已成为当前主流,LPDDR6则加速进入商业化准备阶段,在带宽与能效上实现新突破。
LPDDR5X采用先进制程,如三星新推出的LPDDR5X基于12nm级工艺,数据处理速度最高可达10.7Gbps,相比上一代功耗效率提高了25%。SK海力士计划从2025年底开始转向1c LPDDR5X的量产体系。美光在今年6月宣布已开始出货全球首款采用1γ(1-gamma)制程节点的LPDDR5X内存认证样品,速率达到10.7 Gbps,并可节省高达20%的功耗。
LPDDR5X已进入规模化供货阶段,产能逐步扩大,需求受AI PC、5G手机、车规级终端驱动,TrendForce集邦咨询预估今年第四季LPDDR5X价格仍将维持上扬走势。
LPDDR6作为LPDDR5X的继任者,数据速率上有着大幅提升。今年7月,JEDEC正式发布LPDDR6标准,为了实现AI应用程序和其他高性能工作负载,LPDDR6采用了双子通道架构,允许灵活操作,同时保持32字节的精细访问粒度。此外,与LPDDR5相比,LPDDR6使用电压更低、功耗更低的VDD2电源运行,并要求为VDD2提供双路电源供电。
三星电子设备解决方案(DS)部门副董事长全永铉表示,三星将在2025年下半年采用第六代“1c DRAM”工艺,开始量产下一代LPDDR6内存,并计划向高通等科技巨头供货。
今年7月,全球三大EDA巨头之一的Cadence宣布完成业内首个LPDDR6/5X内存IP系统解决方案的流片。该解决方案运行速率高达14.4Gbps,比上一代LPDDR DRAM快50%,并针对AI等客户应用进行了优化,适用于AI、移动、消费电子、企业HPC和云数据中心等市场。
GDDR7:图形与AI计算显存的性能飞跃
GDDR(Graphics Double Data Rate)是专门为需要极高并行数据吞吐量的应用(如图形渲染、AI计算)而设计的显存。
JEDEC于2024年3月正式发布了GDDR7图形内存标准,随着游戏、AI推理与专业可视化需求的增长,GDDR7凭借更高带宽与能效成为新一代GPU的标配,全球存储厂商正加速产能布局。
据韩媒报道,SK海力士已着手推进基于10纳米级第六代(1c)DRAM的GDDR7生产,最快将于今年底在韩国利川M16厂开始量产,并于明年起全面扩大供应。
9月10日,英伟达推出了一款叫Rubin CPX的GPU,该GPU没有沿用以往常用的HBM内存,而是选择了成本更低的GDDR7。Rubin CPX主要负责AI推理的预填充阶段,GDDR7的带宽和延迟能够满足需求,同时还能降低成本。
此外,据Wccftech报道,英伟达已经要求三星将GDDR7产量翻倍,额外的订单将用于新款AI加速器。目前增产准备工作已经完成,预计搭载GDDR7的RTX PRO 6000D会在今年下半年推出,搭载的GPU芯片采用4nm工艺制造,可提供1100GB/s的双向带宽,旨在提供接近于HBM级别的性能。
美光的GDDR7产品聚焦高性能与高可靠性,采用PAM3信号技术,单针速率可达32Gb/s,整体系统带宽约为1536GB/s,设备平均功耗约为4.5pJ/bit,处于行业领先水平。2025年第二季度,美光16Gb GDDR7已开始向英伟达提供小批量样片,用于测试与验证。
结语
当前全球内存技术正处于“多赛道并行迭代”的关键阶段,AI算力需求与终端设备升级是核心驱动力。从HBM以3D堆叠技术突破带宽瓶颈、成为AI芯片标配,到CXL通过架构重构破解“内存墙”、推动数据中心内存池化;从HBF以NAND闪存特性填补性能鸿沟、聚焦AI推理场景,到LPDDR与GDDR分别针对移动/车载、图形/AI推理优化——技术创新已呈现“场景化细分”特征。头部厂商的战略布局也在进一步加剧竞争,未来,随着JEDEC标准持续完善(如HBM4、LPDDR6)与生态协同深化,内存技术将更紧密贴合AI、数据中心、智能终端的需求,同时推动全球存储产业格局向“技术驱动型”加速演进。
来源:全球半导体观察一点号