AI算力跟踪深度报告:怎么看算力的天花板和成长性?

B站影视 港台电影 2025-10-17 10:23 2

摘要:5G 的需求与可部署资源和连接总量高度相关,受频谱、站址、覆盖半径、功耗等硬约束影 响,收入结构本质上由基建 CAPEX与运营服务收入 相加决定,边界受人口与设备密度限制。

AI具有更高的天花板

AI 算力呈“乘法式”扩张,行业天花板与技术迭代速度显著更高;4G/5G 呈“加法式”增 长、受物理边界约束。

5G 的需求与可部署资源和连接总量高度相关,受频谱、站址、覆盖半径、功耗等硬约束影 响,收入结构本质上由基建 CAPEX与运营服务收入 相加决定,边界受人口与设备密度限制。

AI 的核心产出是“智能”,作为生产要素与数据、劳动力、资本相乘提升全要素生产率,算 力需求由模型规模、上下文长度、多模态维度与推理负载共同驱动,能力提升与单位算力成 本下行形成“算力-模型-应用-数据”正反馈飞轮,带来指数级模型复杂度与场景渗透。

横向对比流量消耗量与token消耗量,从13年开始的4G时代到当前的5G时代,流量消耗量 CAGR(2013-2024年)约61.1%,而token消耗量则呈指数级增长,以openrouter平台为例,过 去一年即增长约28倍。

AI 在各行业重构流程并催生新价值链与新市场,行业天花板由可被智能化的任务空间决定 而非人口与设备数,概念上更接近无界;5G 的连接上限虽高,但受频谱资源和物理部署所 框定。

基础设施端,受“可计算的连接上限”约束,4G/5G呈现明显的周期特性。 从国内三大运营商资本开支轨迹可见,4G 推进期(约 2013–2016) CAPEX 阶梯上行并在 2016 年前后见顶,随后 2017–2019年进入消化回落; 5G 首轮规模建网(2020–2022)CAPEX 再度抬升,伴随覆盖范围扩大、 边际收益下行与折旧约束,2023–2024 转为高位趋稳。建设周期取决于频 谱/标准迭代速度与站址、光纤、供电等物理资源上限,以及人口与终端 渗透的可测边界,使连接类基础设施的 TAM 收敛。

我们认为AI 算力的行业天花板远高于 4G/5G 并仍在上修,体现为数据中 心 Capex 与上游加速芯片 TAM 的绝对规模与增速同时抬升。 北美四大云厂资本开支持续高增,主权AI等贡献新增量,英伟达指引 Blackwell和Rubin平台有望共同推动全球AI基础设施规模在2030年左右达 到3-4万亿美元。Grand View Research预测预计全球直接AI市场规模到 2030 年将达到 18117.5 亿美元,2025 年至 2030 年的复合年增长率为 35.9%。

AI投资正滚动式兑现

4G/5G 的投资回收期显著偏长,源于前期重资本、后端慢变现的商业模式。根据 PatentPC,5G投资平均收支平衡时间预计为8-10年。 “先覆盖、后变现”的工程属性决定 CAPEX 前置。 频谱拍卖与许可费用进一步抬升资本门槛,如德国2019年5G频谱竞拍总额65.5亿 欧元,挤压早期现金回笼空间。 收益侧提升有限:ARPU提价空间受竞争与监管制约,GSMA预计至 2030 年高收 入市场 ARPU年增仅约1%,行业收入增速温和,ROI 摊薄。 二次建设叠加:当一期覆盖接近“边际”,Capex/Revenue 比率见顶后趋稳,但 5G-A 与行业专网等二次建设仍需持续投入,使回收呈“建设—消化—再建设”的 多周期拉长。

AI产品的用户渗透速度远超互联网,已拥有庞大的用户基础,潜在变现能力强,投 资回收期相比4G/5G有望显著缩短。ChatGPT上线约3年用户已接近8亿,而互联网达 到相近体量约用时12–13年,同等用户规模在更短时间达成,使单位获客成本更快被 摊薄。 ①用户金字塔完善:免费用户→高级订阅→企业版与API,用量计费与席位订阅并 行,带来更高ARPU与更长生命周期价值; ②强网络效应与内容自传播降低获取成本,结合云化交付的近零边际成本,使规 模扩张直接转化为毛利改善; ③产品梯度与功能包(更强模型、更高上下文、更快速率等)提供持续的付费升 级与交叉销售空间。

AI算力以更快的技术迭代,打破典型价格与需求周期

4G/5G的技术演进以 3GPP 标准为节拍,单次Release通常 18–24 个月、代际跨越 6–10 年。标准节拍决定速度:5G 第一阶段标准 Release-15 在2018年6月功能冻结,支撑 2019 年起的 全球商用;面向 5G-Advanced 的 Release-18 在2024年6 月冻结,Release-19/20 按既定规划推 进。单次 Release通常保持18–24 个月的稳定节奏。 代际跨越长:从 LTE(R8,2008 年冻结)→LTE-A(R10,2011 年冻结)→5G(R15,2018 年冻结)→5G-A(R18,2024 年冻结),每次“代际/大阶段”跨度通常6–10 年,且需等待 终端/频谱/站点改造的协同到位。产业链约束:蜂窝网络迭代不仅受芯片与软件影响,更受频谱规划、站点建设、回传与核心 网演进等多要素制约,导致从标准冻结到规模商用需 1–2 年生态爬坡。

4G/5G在基础设施端呈现典型量价周期,在每轮建设周期中,出货量暴增、 伴随价格年降是客观产业规律。 通信标准切换与牌照落地触发首轮覆盖建设(基站、载波、光传输、配 电),运营商 CAPEX和设备商出货量快速上行;随后进入密集化与容量 扩建期,量维持高位但集中招标+多厂竞价使 ASP 年度下修;当覆盖边际 趋缓且折旧与能耗压力上升,转入优化与消化期,量显著放缓、设备 ASP 延续下探、价跌幅度大于量,链条利润率承压。

AI算力“年更+软硬协同”的高频迭代,在 12–18 个月内刷新单位算力成 本并催生新需求,从而在价格下行之前就以“更高代际的价值锚”重定价, 打破了传统硬件的量价周期。GPU 从 2–3 年一代逐渐切换为一年一代,且每代伴随互连(NVLink 等)、 高带宽内存、编译器与内核的系统性升级,将研发—生态—整机的爬坡窗 口压缩,显著抬高进入门槛,竞争格局相对稳定。HBM 、先进封装、算 力配套(光模块、PCB)等产能需提前锁定、良率爬坡周期长,头部厂商 通过长期协议占用大部分产能。价格的主驱动从“同代去库存”转为“新 旧代际的价值差”,行业呈新代具提价能力、旧代有底价支撑的结构。 需求端推动更快迭代:前沿模型训练所用计算量以每年数倍的速度增长, 拉动硬件与存储迭代节奏向 12–18 个月收敛。

PCB板上芯片间的连接、设备间 的连接场景均需要通过不同载体 实现性能升级。互连带宽迅速增长:NVLink跟随 每一代GPU架构进行升级,目前 最新用于B系列GPU的NVLink 5.0 可支持单卡7.2Tb的带宽,相较用 于H100的NVLink 4.0带宽翻倍。存储代际压缩:HBM3E 已在 2024Q2 随 H200 上量,2025 年内 主流厂商已完成 HBM4 开发、内 测并准备量产,存储带宽与容量 几乎以1–2 年一代推进,为大模 型上下文与激活带来更快的可用 带宽与更低能耗。

以A股海外算力链龙头中际旭创、新易盛、胜宏科技和沪电股份为例,受 益于旺盛的AI算力需求与产品持续迭代,格局基本稳定,随着高端产品出 货量增长与规模效应的产生,总体毛利率稳步提升。

技术迭代有望满足越来越多尚未满足的新需求

参考半导体制程迭代,芯片在性能升级后可应用于更高规格应用场景,创 造更多直线无法满足的需求,行业总空间可随摩尔定律的演绎持续增长。 当算力更便宜、更易得时,开发者会把更复杂的模型与系统作为新基准, 提升参数量、上下文与并行度。 模型架构的迭代有机会减小单次推理、训练所需算力,而AI产业发展过程 中杰文斯悖论将演绎很多次,如Genie 3等生成视频的世界模型,或需要 跨数量级提升的算力才可满足。

Scale Up需要更高的信号密度,更低的功耗、延时、信号损耗; LPO相比DSP光模块功耗减半(~7.5w vs 15w),能效比介于DSP光模块 与CPO之间(~20pJ/bit vs 10pJ/bit vs 6-7pJ/bit ),CPC可代替Tray内PCB 走线连接xPU与端口,LPO+降低功耗、延时、信号损耗; Scale Up单端口速率升级进展有望快于Scale Out,单端口3.2T需要400G/ 通道速率,异质集成TFLN-on-SiPho满足单通道400G等更高速率,实现 更高信号密度。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

来源:未来智库

相关推荐