摘要:2025 年,中国智算中心建设进入第三阶段。GPU 服务器的功耗正从 3 千瓦跃升至 10 千瓦以上,散热系统已经成为算力扩张的“隐性天花板”。在这一背景下,液冷 3.0 技术体系——以冷板式、浸没式和喷淋式为代表的三种路线,正在重构智算中心的能效标准,也决定
——当算力密度突破极限,能源效率成为竞争核心
2025 年,中国智算中心建设进入第三阶段。
GPU 服务器的功耗正从 3 千瓦跃升至 10 千瓦以上,散热系统已经成为算力扩张的“隐性天花板”。
在这一背景下,液冷 3.0 技术体系——以冷板式、浸没式和喷淋式为代表的三种路线,
正在重构智算中心的能效标准,也决定了下一轮算力竞争的基础逻辑。
AI 大模型的训练集群正在改变数据中心的能耗结构。
每增加 1 台高端 GPU 服务器,意味着额外数千瓦的持续负载。
当单机热流密度突破 50 千瓦/机柜 时,传统风冷系统的极限(PUE≈1.5)被完全触顶。
国家发改委数据显示:
2024 年全国新建智算中心平均 PUE 降至 1.27;其中 60% 采用混合液冷方案;采用液冷的节点平均能耗下降 25%–35%。能效比,不再是配套指标,而是决定算力经济性的核心变量。
液冷技术的演进,已经从“节能辅助手段”进入“系统架构级升级”阶段。
① 冷板式液冷
主流方案,兼顾部署与维护成本,适用于批量 AI 服务器集群;
代表企业:浪潮信息、宝德计算、新华三。
② 浸没式液冷
整体浸入式方案,能效最高,可实现 PUE < 1.1,但需要新型基础设施;
代表企业:英维克、施耐德中国、液冷科技公司群落。
③ 喷淋式液冷
新兴混合路线,利用导流与局部液膜冷却,平衡可靠性与成本。
工信部《数据中心能效提升行动方案(2024)》指出:
“到 2026 年,液冷技术应用比例将超过 50%,其中冷板式为主流路线。”
PUE(Power Usage Effectiveness)不再只是能效比指标,
它代表着 “算力体系的协同效率”。
液冷 3.0 时代的能效优化包括:
服务器层:芯片热源定向管理与动态功率调度;系统层:液冷循环回水温度提升至 40°C 以上,实现余热回收;园区层:冷源与能耗智能协同,通过 AI 控制流体动态。在部分先进智算中心中,PUE 已降低至 1.15–1.18,
能耗节约直接转化为算力的持续可用率。
数据港在江苏、内蒙古的智算中心项目中,液冷比例已超 70%,
并实现年节电约 3,000 万度,相当于 15,000 吨碳减排。
液冷不只是硬件升级,更是“算力经济学”的底层逻辑。
2025–2027 年将是液冷全面普及的三年窗口期。
在算力密度持续攀升的背景下,液冷技术的应用范围将从“高端智算中心”扩展至“普适AI集群”。
预计:
到 2026 年,液冷在新建智算中心中的渗透率将超过 60%;2027 年后,液冷将成为所有 AI 服务器的标准配置。届时,PUE 将不再是“节能指标”,而是算力资产化的基准参数。
谁能在液冷技术、系统集成与能效管理上形成闭环,
谁就掌握了算力产业的“长期红利”。
液冷3.0 不只是冷却技术,而是中国智算中心进入能效时代的标志。
它正在从“辅助系统”变为“算力核心”。
你认为未来三年,哪种液冷路线最有机会成为行业主流?
A. 冷板式(性价比与兼容性)B. 浸没式(高效但重部署)C. 喷淋式(新兴混合技术)#AI芯片 #算力 #光模块 #国产替代 #产业观察 #硬科技趋势
来源:量子信息工作室