摘要:最近和做AI服务器运维的朋友聊天,他倒苦水:"大模型推理时,光等首句回复就要卡0.5秒,客户直吐槽体验差;更头疼的是,HBM显存贵得离谱,算力成本像坐火箭。"这其实是当前AI落地的普遍痛点——算力跑得快,存储拖后腿。而天风证券最新研报抛出的"以存代算"技术,或
最近和做AI服务器运维的朋友聊天,他倒苦水:"大模型推理时,光等首句回复就要卡0.5秒,客户直吐槽体验差;更头疼的是,HBM显存贵得离谱,算力成本像坐火箭。"这其实是当前AI落地的普遍痛点——算力跑得快,存储拖后腿。而天风证券最新研报抛出的"以存代算"技术,或许正给这场困局撕开一道突破口。
简单说,这技术像给AI装了个"高速缓存+超大仓库"的组合系统。过去AI推理时,关键数据(比如生成文本用的KVCache)全挤在DRAM/HBM显存里,这俩"小仓库"虽快但容量小、价格贵,数据来回搬运耗时间还费钱。现在"以存代算"把这些数据迁移到SSD(固态硬盘),利用SSD大容量、低成本的优势,把存储层从内存扩展到SSD,相当于把"临时货架"升级成"永久仓储区"。
好处有多实在?研报数据点出:首Token时延能降,推理吞吐量能提,端到端成本还能大幅优化。举个例子,原本1000次推理要花100块,现在可能只花60块,这对要铺海量服务器的大模型厂商来说,省的就是真金白银。更关键的是,这不是实验室概念,已经有厂商在测试验证,AI存储革命真的来了。
技术落地,产业链最先沸腾。从研报梳理的受益方向看,存储模组、芯片、分销封测三大环节有望迎来需求东风,对应A股这些公司已站在风口:
第一类:存储模组厂商——直接承接SSD增量需求
SSD不是简单造个硬盘,得根据AI推理场景定制性能。江波龙做存储模组多年,从消费级到工业级都有布局,近期就在加码企业级SSD研发;德明利聚焦存储控制芯片和模组,客户覆盖服务器领域,技术适配性强;佰维存储更直接,既有自研存储芯片,又做模组,AI服务器SSD订单已开始放量。这些厂商相当于"卖铲人",需求起来订单自然水涨船高。
第二类:存储芯片设计——底层支撑SSD性能
SSD要快、稳、省,核心在主控和存储颗粒。兆易创新的NOR Flash和NAND芯片,在工业级存储领域口碑扎实,AI服务器用的SSD常能见到它的身影;普冉股份专注中小容量存储芯片,低功耗特性适配边缘计算场景;东芯股份的NAND Flash技术,能帮SSD提升数据读写效率。这些芯片设计商,相当于给SSD装"强心脏"。
第三类:存储分销与封测——产业链润滑剂
技术火了,上游芯片和下游厂商的连接需求也涨。香农芯创是存储分销龙头,代理国际大厂颗粒,最近就在加大AI相关存储芯片备货;深科技封测能力强,能帮存储模组厂完成高精度封装;太极实业旗下海太半导体,专注DRAM封测,虽然主攻内存,但技术储备可向SSD相关领域延伸。他们是产业链的"快递员",需求传导中率先受益。
"以存代算"不是炒噱头,是AI算力需求倒逼出的真创新。但要注意,受益程度还得看公司技术卡位——比如做消费级SSD的和做企业级的,面对的需求强度天差地别;有自研芯片能力的,比纯组装的更抗周期。
对投资者来说,与其盯着"利好名单"盲目跟风,不如多看看这些公司的研发投入、客户结构、专利储备。毕竟,存储赛道的风口已经打开,能抓住机会的,永远是早有准备的人。
来源:未来可期?