摘要:10 月 30 日,TrendForce 集邦咨询发布了最新的 AI Server 产业分析,犹如一颗投入行业湖面的巨石,激起层层涟漪。其指出,2026 年受云端服务业者、主权云需求带动,GPU 和 ASIC 拉货增加,AI 推理应用繁荣,全球 AI Serv
10 月 30 日,TrendForce 集邦咨询发布了最新的 AI Server 产业分析,犹如一颗投入行业湖面的巨石,激起层层涟漪。其指出,2026 年受云端服务业者、主权云需求带动,GPU 和 ASIC 拉货增加,AI 推理应用繁荣,全球 AI Server 出货量将年增超 20%,占比升至 17%。
AI服务器行业主要分为训练型服务器和推理型服务器两大细分领域。训练型服务器专注于AI模型的训练过程,对计算能力、存储容量及数据传输速率要求极高,通常采用多GPU并行架构以支持大规模矩阵运算。推理型服务器则侧重于模型部署后的实时性和稳定性,在能效比与响应延迟方面有更高需求。尽管单台算力需求低于训练服务器,但其广泛应用于智能客服、自动驾驶、推荐系统等终端场景,整体出货量增长显著。
从技术特点来看,AI服务器普遍采用异构计算架构,典型配置包括CPU+GPU、CPU+FPGA、CPU+TPU或多种加速卡组合,能够满足深度学习中的高并发、低延迟复杂计算任务需求。此外,AI服务器在硬件设计上强调高带宽内存(HBM)的应用,例如英伟达H100中GPU+HBM的价值占比超过75%,并通过堆叠多个高性能GPU实现强大的并行处理能力。
据TrendForce数据,2024年全球服务器行业总产值达3060亿美元,其中AI服务器相关行业价值约为2050亿美元。Statista预测,全球AI服务器市场规模将从2023年的310亿美元增长至2033年的4300亿美元,年复合增长率(CAGR)为30.1%。
数据来源:行行查 | 行业研究数据库 www.hanghangcha.com
根据IDC数据,2024年中国AI服务器市场规模为221亿美元,同比增长134%。IDC预计到2029年,中国AI服务器市场规模有望突破1000亿美元,2025-2029年的年复合增长率为35%。
AI服务器产业链涵盖上游核心元器件、中游整机制造及下游应用三大环节。上游关键组件包括GPU、CPU、FPGA、ASIC、DRAM、HBM、SSD、PCB、ABF载板、散热模组和BMC控制器等。在GPU领域,英伟达占据主导地位,其A100、H100等产品广泛用于高端AI服务器;AMD和寒武纪作为重要补充力量参与竞争。CPU供应商主要包括英特尔、AMD、海光信息和龙芯中科;HBM内存由三星电子、SK海力士和美光科技主导供应。PCB和ABF载板方面,深南电路、生益电子、欣兴电子、景硕科技和南亚电子是主要参与者。散热系统由中石科技、飞荣达等企业提供高效液冷或风冷解决方案,尤其在高密度AI服务器中作用关键。
中游制造环节分为品牌厂商和ODM厂商两类模式。品牌厂商如浪潮、华为、新华三、戴尔(DELL)、慧与(HPE)和超微电脑(Supermicro)负责整体系统设计与品牌销售,其中DELL、HPE和超微电脑在2024年第二季度合计市场份额超过50%,成为全球AI服务器三大品牌巨头。ODM厂商如工业富联、广达、纬颖、英业达等接受品牌商或云服务商直接委托进行定制化生产。近年来,“ODM Direct”模式兴起,使得ODM厂商在全球AI服务器交付中的比重不断提升,2024年该模式占比已达44%。
2025年中国AI服务器芯片供应市场呈现出多元化的竞争格局。外购AI芯片(如英伟达、AMD等)占据最大市场份额,显示国际品牌在该领域的强势地位。与此同时,本土芯片供应商(如华为、寒武纪等)也占据了相当比例,表明国内企业在技术研发和市场拓展方面取得显著进展。这一分布态势反映了中国在AI芯片领域既依赖外部技术输入,又注重自主可控的发展策略。
AI服务器商业模式正经历从传统品牌代工向ODM直供和定制化服务转型的重大变革。传统模式下,品牌服务器厂商如浪潮、联想、华为负责整体设计并委托ODM厂商生产组装,最终贴牌销售。然而近年来,越来越多的云服务提供商选择绕过品牌商,直接与ODM厂商合作,实现大规模、低成本、高效率的数据中心建设。ODM代表厂商包括工业富联、广达、英业达、纬创资通、超微等,它们与云端客户和上游芯片厂商深度绑定,具备快速响应、灵活定制和成本控制的优势。
Statista数据显示,除品牌厂商外,大量AI服务器通过ODM Direct模式交付,该模式在2024年第二季度已占据44%的市场份额,凸显白牌服务器在高性能计算场景中的重要性。这种趋势推动整个产业链重心前移,促使ODM厂商不仅承担制造职能,还参与到主板设计、散热方案开发和供应链整合等高附加值环节,从而获得更大的议价空间和技术话语权。
技术层面,异构计算架构成为主流,CPU与GPU、ASIC、FPGA协同提升算力密度,存算一体芯片突破“存储墙”限制,液冷技术普及推动能效比优化,量子-经典混合计算开始进入实用阶段。
市场结构上,需求从互联网大模型训练向产业智能化升级延伸,金融风控、医疗诊断、工业质检等领域对低延迟推理服务器需求激增,自动驾驶、元宇宙等新兴场景催生特殊算力需求。
生态竞争成为关键,头部企业通过自研芯片、收购算法团队构建全栈能力,开放硬件接口吸引第三方开发者共建生态。同时,国产化进程加速,政策推动下芯片、操作系统等核心部件自主可控,本土企业在金融、能源等关键行业实现规模化部署。未来,AI服务器将向绿色化、场景化、生态化方向演进,成为数字经济与实体经济深度融合的基石。
欢迎评论、点赞、收藏和转发! 有任何喜欢的行业和话题也可以查询行行查。
来源:行行查