摘要:当年华为 Mate 60 系列的突袭,让全世界看到了中国芯片产业的韧性。但鲜有人知的是,支撑 AI 芯片的核心组件高带宽内存(HBM),一直是国内 AI 供应链的 “卡脖子” 难题。就像巧妇难为无米之炊,没有 HBM,再强的 AI 芯片也无法发挥算力优势。直到
当年华为 Mate 60 系列的突袭,让全世界看到了中国芯片产业的韧性。但鲜有人知的是,支撑 AI 芯片的核心组件高带宽内存(HBM),一直是国内 AI 供应链的 “卡脖子” 难题。就像巧妇难为无米之炊,没有 HBM,再强的 AI 芯片也无法发挥算力优势。直到最近,这个瓶颈终于有了松动的迹象。
HBM 是什么?
简单说,它是 AI 芯片的高速传送带。AI 模型运算需要海量数据在芯片内快速流转,普通内存的带宽根本跟不上,而 HBM 的带宽是前者的 10 倍以上,堪称 AI 芯片的动力源泉。
此前,国内 HBM 完全依赖三星、SK 海力士等国际厂商,美国出台出口限制后,华为的昇腾 910、昇腾 710 等 AI 芯片面临无米下锅的困境,产能一直卡在 HBM 供应上,无法满足 AI 大模型、智能驾驶等场景的需求。
就在上个月,国内最大的存储芯片制造商长江存储来好消息 —— 向华为交付了 HBM3 样品。这是国内企业首次实现高端 HBM 的样品量产,虽然比国际领先的 SK 海力士晚了三年,但这一步意义重大,意味着国内终于有了自主生产 HBM 的能力,不再完全依赖进口。
根据 DigiTimes 报道,这次样品交付是大规模量产的前兆,长江存储计划今年内实现 HBM3 的批量生产。对华为来说,这无疑是及时雨,刚好赶上其 AI 芯片产能扩张的关键节点,有望解决昇腾系列芯片的粮荒。
要量产 HBM,光有技术还不够,产能是关键。
HBM 的生产需要大量 DRAM 晶圆,每片 HBM 由 8 ~ 16 层 DRAM 芯片堆叠而成,而长江存储作为国内最大的 DRAM 厂商,早就布局了产能。今年旗下工厂的 DRAM 晶圆产能稳步提升至每月 23 ~ 28 万片,足够支撑 HBM 的规模化生产。
更重要的是,长江存储的 DDR5 内存模块已经量产,良率达到 80%。这为 HBM 的研发提供了技术基础。用业内人士的话说:“有了充足的 DRAM 产能,HBM 量产就有了保障。”
当然,长江存储的突破只是开始。
目前国际厂商已经在研发 HBM4,而长江存储计划 2027 年推出下一代 HBM 技术 HBM3E。虽然距离最先进的技术仍有差距,但至少跟上了技术迭代的节奏。此外,长江存储有望在 2026 年一季度 IPO,募集的资金将进一步加速 HBM 等高端存储的研发。
从 “卡脖子” 到 “补短板”,长江存储的突破不仅解了华为的燃眉之急,更让国内 AI 产业看到了自主可控的希望。在中美科技竞争的大背景下,国内企业正在用实际行动,把核心技术的命门掌握在自己手里。
就像网友说的:以前提到 HBM,我们只能看国外脸色;现在,终于能说 “这是我们自己的 HBM” 了。” 未来,当我们谈论中国 AI 产业时,也许这就是我们自己的算力基础。
来源:路边同学一点号
