原来AI卡是存储拖后腿!2025这技术爆发,国产要冲万亿赛道

B站影视 内地电影 2025-11-13 14:15 1

摘要:打开AI绘图软件生成一张图要等半分钟,用大模型写篇短文频繁加载,很多人第一反应是“GPU不行了”。但很少有人知道,AI卡顿的真正元凶,可能是被忽视的“存储瓶颈”——就像给超跑配了条乡间小路,再强的算力也跑不起来。2025年,高带宽闪存(HBF)技术的全面爆发,

打开AI绘图软件生成一张图要等半分钟,用大模型写篇短文频繁加载,很多人第一反应是“GPU不行了”。但很少有人知道,AI卡顿的真正元凶,可能是被忽视的“存储瓶颈”——就像给超跑配了条乡间小路,再强的算力也跑不起来。2025年,高带宽闪存(HBF)技术的全面爆发,正改写AI存储的游戏规则,而国产存储厂商已经吹响冲锋号,向着万亿级赛道全力冲刺。

一、AI卡顿的底层真相:不是GPU不给力,是存储“拖后腿”

聊AI性能,大家总盯着GPU的核心参数,却忘了一个关键逻辑:AI运转就像工厂生产,GPU是高速运转的生产线,存储则是原材料输送管道和仓库。如果管道不够粗、仓库取货太慢,再先进的生产线也得停工等料。

这个“卡脖子”的问题,在大模型时代变得越来越突出。现在的AI模型动辄千亿、万亿参数,训练一次要调用海量数据,推理时还要实时调取上亿个参数。这时候传统存储的短板就暴露无遗了:要么像HBM(高带宽内存)那样,速度够快但容量太小、价格太贵,全球95%的产能被三星、SK海力士、美光垄断,2025年的订单都排到了2026年,溢价高达15%-20%;要么像机械硬盘(HDD)那样,容量够大但速度奇慢,顺序读写速度只有高端SSD的三十分之一,毫秒级的延迟让AI推理慢得像蜗牛,在高频交易、自动驾驶等场景完全没法用。

更关键的是,AI行业还面临“内存墙”和“容量墙”的双重困境。所谓“内存墙”,就是HBM、DRAM这些高速存储的容量有限,装不下庞大的模型参数,导致GPU空有算力却“无米下锅”;而“容量墙”则是传统大容量存储速度太慢,海量训练数据调不出来,拖累整个训练周期。有数据显示,采用传统存储的AI训练系统,算力闲置率能达到30%以上,原本一周能完成的训练任务,往往要拖到两周。

这就是AI卡顿的底层逻辑:不是GPU性能不够,而是存储系统的带宽和容量没跟上算力的进化速度。当GPU的“胃口”越来越大,传统存储的“输送能力”已经满足不了需求,这时候就需要一种既能提供高带宽,又能保证大容量的新型存储技术——HBF应运而生。

二、HBF技术到底牛在哪?破解AI存储的“两全之法”

HBF(高带宽闪存)之所以能在2025年爆发,核心就是它解决了传统存储“速度和容量不可兼得”的痛点。简单说,HBF就是给AI量身打造的“超级存储管道”,兼具高带宽、大容量、低功耗三大优势,完美适配AI训推的需求。

先看核心参数:铠侠推出的HBF原型模块,容量达到5TB,持续带宽更是高达64GB/s,远超目前最快的PCIe5.0固态硬盘,甚至接近HBM2E的吞吐量。更厉害的是它的扩展性,16个模块组队就能实现80TB容量和超过1TB/s的吞吐量,这在以前只有并行文件系统或DRAM缓冲区才能做到。对于需要处理海量数据的多模态大模型来说,这样的性能意味着训练周期能直接缩短40%以上。

HBF的技术革新藏在设计里。它没有采用传统的中央控制器,而是给每个模块配了独立控制器,紧挨着NAND芯片以菊花链方式连接。这种设计既减少了信号干扰,又解决了高速传输中的总线问题,数据以PAM4信号128Gbps的速度串行传递,效率大幅提升。同时,HBF还通过积极预读取和控制器级缓存的设计,弥补了NAND闪存延迟略高的短板,在流式数据集、AI检查点这些场景中,完全能满足需求。

功耗也是HBF的一大亮点。AI数据中心的功耗问题一直让人头疼,H100集群的大规模使用让电力成本居高不下。而HBF每个模块的功耗低于40瓦,相比传统Gen5固态硬盘效率提升显著,能帮数据中心大幅节省电费。对于追求绿色算力的AI行业来说,低功耗意味着更低的全生命周期成本,这也是HBF能快速普及的关键原因。

更重要的是,HBF和HBM不是竞争关系,而是互补关系。HBM负责AI运算时的“高速缓存”,处理最核心、最急需的数据;HBF则负责“大容量数据池”,存储海量训练数据和中间结果,两者协同工作,正好破解了AI存储的“内存墙”和“容量墙”。就像给超跑同时配了高速赛道和大型油箱,既能跑得快,又能跑得远。这也是为什么“UHB之父”都看好HBF,三星、SK海力士等巨头纷纷加码研发的原因——它不是替代某类存储,而是重构了AI存储的架构。

三、国产存储的逆袭:从跟跑到领跑,冲刺万亿赛道

HBF的爆发,不仅解决了AI存储的技术痛点,更给了国产存储厂商一个“换道超车”的机会。在传统存储领域,国外巨头长期占据技术和市场优势,但在HBF这个新兴赛道,国产厂商实现了“从0到1”的突破,正在改写全球存储行业的竞争格局。

过去几年,国内存储企业一直在默默深耕。华为、忆恒创源、英韧科技等厂商,从硬件性能、架构优化、场景适配等多个维度发力,已经推出了多款对标国际水平的产品。华为的OceanDisk EX 560,随机写性能达到1500K IOPS,远超美光同类产品的900K IOPS;耐久性更是达到60 DWPD,每天能支持60次全盘数据擦写,完全适配千亿参数模型的高频训练场景,这一指标在国内处于领先水平。

国产存储的优势,不仅体现在产品参数上,更在于对国内AI场景的深度适配。国外存储产品往往是“通用型”,而国产厂商能根据国内大模型企业的需求,定制化开发存储解决方案。比如针对中文语料的训练特点优化数据读取策略,针对短视频、直播等多模态数据的存储需求调整架构,这些本地化优势让国产HBF产品在国内市场更具竞争力。

政策和市场的双重加持,也让国产存储迎来发展黄金期。随着“东数西算”工程的深入推进,数据中心建设进入高峰期,2025年国内AI存储市场规模预计将突破3000亿元,未来三年更是有望达到万亿级别。同时,国家对半导体产业的支持力度持续加大,在存储芯片设计、制造、封装测试等环节的产业链协同不断加强,良率稳步提升,成本持续下降,让国产HBF产品具备了价格优势。

现在的国产存储,已经不是过去“低端替代”的形象,而是在核心技术上实现了突破。在HBF的关键技术如独立控制器设计、菊花链连接、PAM4信号传输等方面,国产厂商已经掌握了自主知识产权,打破了国外的技术垄断。更让人振奋的是,国内已经形成了从存储芯片、模组到解决方案的完整产业链,从设计、制造到测试、应用的各个环节都有企业布局,协同效应日益凸显。

四、万亿赛道的未来:国产存储的机遇与担当

2025年HBF的爆发,只是AI存储革命的开始。随着大模型向万亿参数、多模态融合方向发展,对存储的带宽、容量、延迟要求会越来越高,这为国产存储提供了广阔的发展空间。但机遇背后也有挑战,要在万亿赛道站稳脚跟,国产厂商还需要在技术创新、生态建设、全球化布局三个方面持续发力。

技术创新是核心竞争力。目前国产HBF产品在部分参数上已经领先,但在极端场景的稳定性、先进制程的良率等方面,还需要持续打磨。未来需要加大研发投入,在3D堆叠技术、新型存储材料、智能缓存算法等领域突破,进一步提升产品性能,缩小与国际顶尖水平的差距。同时,要积极参与行业标准制定,争取在HBF的技术规范、接口协议等方面拥有更多话语权,从“跟随标准”向“制定标准”转变。

生态建设是关键支撑。存储不是孤立的产品,而是要与GPU、CPU、操作系统、AI框架深度适配。国产存储厂商需要加强与华为、百度、字节跳动等国内科技巨头的合作,共建AI存储生态。比如与大模型企业联合开发定制化存储解决方案,与硬件厂商合作优化接口设计,让HBF产品能无缝融入现有AI基础设施,提升用户体验。只有形成完整的生态闭环,才能让国产存储在市场竞争中占据主动。

全球化布局是必然选择。AI存储是全球性市场,国产厂商不能只盯着国内市场,还要积极“走出去”。可以通过与海外数据中心、AI企业合作,拓展国际市场份额;同时,在全球范围内建立研发中心和供应链体系,利用全球资源提升竞争力。这不仅能扩大市场规模,还能提升国产存储的国际影响力,让中国存储技术走向世界。

值得期待的是,2025年已经有不少国产HBF产品通过了国际认证,进入了海外数据中心的采购清单。随着技术的不断成熟和品牌影响力的提升,国产存储有望在全球AI存储市场占据一席之地,打破国外巨头的垄断格局。

结语:存储革命背后,是中国科技的崛起

AI卡顿不怨GPU,HBF的爆发让我们看到了AI产业的底层逻辑:算力的释放,离不开存储的支撑。2025年,HBF不仅破解了AI存储的瓶颈,更给了国产存储一个千载难逢的发展机遇。从被国外垄断到技术突破,从跟跑到部分领跑,国产存储的逆袭之路,正是中国科技产业崛起的缩影。

万亿赛道已经开启,国产存储厂商正以技术为刃、以生态为盾,在全球市场中奋勇争先。未来,随着HBF技术的不断迭代和产业链的持续完善,我们有理由相信,国产存储不仅能满足国内AI产业的发展需求,还能在全球存储市场中占据重要地位,为中国科技的高质量发展注入强劲动力。

这场存储革命,才刚刚开始。而国产存储的未来,值得我们每一个人期待。

来源:荔林摘红果

相关推荐