摘要:AI时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的制约,存储量和速度都远远跟不上大模型的需求,HBM凭借其超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择。全球科技巨头纷纷将HB
行业梳理
AI时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的制约,存储量和速度都远远跟不上大模型的需求,HBM凭借其超高带宽、低功耗和小体积特性,正成为AI芯片的主流选择。全球科技巨头纷纷将HBM作为战略要地。
HBM是一款新型的CPU/GPU 内存芯片,其实就是将很多个DDR芯片堆叠在一起后和GPU封装在一起,实现大容量,高位宽的DDR组合阵列
随着显卡芯片的快速发展,人们对带宽的要求也在不断提高。GDDR5已经不能满足人们对带宽的需要,技术发展也已进入了瓶颈期。HBM 重新调整了内存的功耗效率,使每瓦带宽比 GDDR5 高出 3 倍还多,功耗降低3倍多,而且体积更小,GPU+HBM的整个芯片到底有多大尺寸呢,和掌心类似
在日前的财报会上,存储芯片巨头美光特别强调,预计半导体芯片、特别是HBM的供不应求情况将会加剧。当前半导体存储领域,DRAM库存已低于目标水平,NAND库存持续下滑;而HBM产能需求增长显著,产能已被锁定,预计2026年HBM出货量增速将超过整体DRAM水平,成为半导体存储板块的核心增长驱动力。供应非常紧张。华为也在近期宣布,自昇腾950PR开始,昇腾AI芯片将采用华为自研的HBM。其中,昇腾950搭载自研的HBM HiBL 1.0;昇腾950DT升级至HBM HiZQ 2.0。
定制化HBM(cHBM)已经从曾经的被动元件转变为具备逻辑算力的主动部件,重塑存储的角色。在这种情况下,AI基建中,存储总体拥有成本(TCO)不断上升。
HBM(高带宽内存)的技术难点主要体现在以下几个方面:
HBM通过3D堆叠技术将多层DRAM芯片垂直互联,需确保每层芯片的精准对准,误差需控制在微米级。TSV工艺涉及硅通孔刻蚀、导电材料填充等复杂步骤,稍有不慎会导致电气连接故障或热应力问题。
3D堆叠结构使单位体积热量密度增加,需设计高效的散热方案以避免过热。例如,英伟达H100采用CowoS封装时,需平衡多层材料的热膨胀系数,确保长期稳定性。
高速数据传输对电源分配网络要求严格,任何噪声都可能引发错误。同时需优化阻抗匹配和信号线长度,减少干扰。
CowoS封装需集成硅片、基板和散热材料,各材料热膨胀系数差异可能导致机械应力问题。此外,晶圆级封装需精密设备支持,制造成本远高于传统方式。
高带宽传输易引发数据泄露风险,需采用加密和访问控制技术保障数据安全
先进封装技术是HBM的核心,其中晶圆微凸点是先进封装中的关键基础技术之一。其主要作用是电信号互连及机械支撑,目前绝大部分先进封装均需要用到晶圆微凸点技术,而凸点的制备则是微凸点技术最为关键的环节。
人工智能技术的蓬勃发展推动大模型训练走向规模化,但真正创造持续商业价值的核心环节在于推理过程。AI推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈。在这一背景下,内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽与大容量内存可降低访问延迟、提升并行效率。高带宽内存保障模型权重和激活值的高速访问,SSD满足高频读写与短期存储需求,HDD提供海量长期存储支持。随着AI推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百EB级别。
相关上市公司梳理:
兴森科技 江波龙
雅克科技 兆易创新
北京君正 晶方科技
长电科技 通富微电
来源:尹狼入市