摘要:根据业内数据,硅谷技术公司在存储上的投入,已经逼近算力预算的10%;而在国内,云厂商采购的存储设备,成本占到了数据中心总物料预算的40%。今年5月,全球五大NAND Flash厂商几乎同时宣布减产,直接把存储市场热度推上新高。
当AI成为所有企业的未来方向,存储,悄然从配角走到聚光灯下。
过去几年,大家谈AI,谈的是大模型、GPU、算法架构,很少有人关注背后的存储系统。但今天,情况正在改变。
根据业内数据,硅谷技术公司在存储上的投入,已经逼近算力预算的10%;而在国内,云厂商采购的存储设备,成本占到了数据中心总物料预算的40%。今年5月,全球五大NAND Flash厂商几乎同时宣布减产,直接把存储市场热度推上新高。
根子在哪?就在AI的快速落地。大模型训练数据量大、处理频繁,既要容量,也要性能。特别是AI推理业务不断增长之后,原本“够用就行”的存储架构,已经无法满足现实需要。
信通院发布的《2025存力发展报告》显示:我国存力总规模持续扩大,结构也在优化。闪存在外置存储中的占比,从2023年的25%提升到2024年的28%。山东、上海等地的新一代智算中心中,先进存储的比例达到了35%-50%。
显而易见,存储系统正在从“容量优先”走向“性能优先”。
AI训练离不开GPU,但GPU的效率,很大程度上取决于存储系统能不能“跟得上”。
AI训练的特点是数据量特别大,往往要存下PB级的原始数据、模型参数和中间结果。这时候存储系统不能“掉链子”,不然,GPU就只能干等。
而AI推理又是另一种形态:高并发、低延迟、实时响应。对存储的要求不只是容量,而是吞吐、带宽和可靠性都要拉满。
问题是,传统的数据中心存储,更多是为“冷数据”准备的——读取频率低、响应时间不敏感。而AI业务中,“热数据”占比越来越高,必须有更快的响应速度和更高的并发能力。
这也是为什么现在智算中心在设计时,会把存储系统视为“核心环节”。目标是减少GPU等待,提升整体训练效率。否则,再多的GPU,也只是“吃不饱”的摆设。
但这背后还有一个现实问题:能耗和成本。
AI集群功耗极高。美国能源部预计,到2028年,数据中心的用电量将占全国总电力需求的6.7%-12%。而大多数智算中心的运营成本中,电力和冷却占了一半。提升存储性能不能靠“堆料”,必须在功耗控制上做文章。
此外,企业在AI部署上本就预算紧张,存储设备价格上涨,可能直接影响整体项目推进。就像英特尔曾经推出的Optane傲腾内存,性能虽强、延迟极低,却因价格高昂最终退市。
这也让一个问题浮出水面:有没有可能找到一个兼顾性能、功耗与成本的存储解决方案?
面对AI时代的新挑战,平头哥交出了一份答案:镇岳510,一颗真正为AI设计的SSD主控芯片。
作为存储系统的“大脑”,主控芯片负责数据读写、错误修复、寿命管理,是决定SSD性能的关键。
镇岳510的表现,称得上“六边形战士”:容量大、时延低、带宽高、功耗低、寿命长、可靠性强,几乎在每一个维度都拉满。
这些技术背后,是平头哥对AI业务深度理解后的主动设计。比如,在写入机制上,通过“先确认再落盘”的策略,既提升了效率,也保障了数据安全——即使突然断电,也能恢复。
镇岳510不是单打独斗。平头哥已经和忆恒创源、得瑞领新等多家国内头部存储厂商展开合作,推出了基于镇岳510的全国产SSD产品,共同构建了一个从主控芯片到整机方案的“内循环生态”。
在国产化、高性能、低成本这三大关键词中,镇岳510正在成为国产先进存储的代表。
AI时代的到来,打破了存储只是“工具人”的旧印象。今天,真正高效的AI基础设施,必须是“算力+存力”的协同。
从算得快,到存得稳、取得快、用得省,整个产业链正在重新洗牌。过去是CPU驱动IT,现在逐步走向GPU+SSD共同驱动AI。
而像镇岳510这样的产品,不只是一个芯片,更是国产存储产业迈向高端突破的缩影。
未来的AI世界,不仅有大模型、超级算力,也需要足够强大的“存储地基”。而现在,这块地基,正在悄然夯实。
来源:老闫侃史