光模块爆发之后`谁将是下一个受益者?

B站影视 内地电影 2025-09-10 17:22 1

摘要:昨晚刷到个段子:某大厂算法团队算力又不够了,领导拍桌子让他们“再去薅点GPU光”,结果一群人把机房光纤插头全拔下来数了一遍。

昨晚刷到个段子:某大厂算法团队算力又不够了,领导拍桌子让他们“再去薅点GPU光”,结果一群人把机房光纤插头全拔下来数了一遍。

段子真假不辨,却把光模块的重要性讲透了——没有这些不起眼的小盒子,AI再聪明的脑瓜子也传不出一句完整的人话。

把视野拉回现实。

OpenAI训练一次GPT-4大约要跑掉一座中等城市的日用电量,其中七成不是花在GPU上,而是花在数据搬家上。

搬运的数据量大到什么程度?

单台服务器之间要用每秒800Gb的速率对喷,电缆早就不够看,只能靠光。

于是,原本躲在机房角落里的光模块,一夜之间成了产业链里嗓门最大的孩子:价格涨得飞快,交期排到明年,连快递小哥都知道这玩意比茅台还金贵。

市场就是这么直接。2024年全球光模块盘子摸到150亿美元,增速比AI融资新闻还夸张。

技术层面也卷出花样:硅光芯片把激光器、调制器、探测器一股脑塞进指甲盖大的硅片,功耗砍半,成本却降到十年前的三分之一。

英特尔实验室的老哥吐槽,现在他们最大的KPI不是跑出多高的速率,而是怎么把良品率从九成提到九成五——差一个百分点,全年利润就少两个小目标。

数据中心那头更热闹。

AWS刚宣布未来三年再砸350亿美元扩建,所有新机房预留插槽只认800G和1.6T。

国内阿里腾讯也同步跟进,只是策略稍有不同:一边往漠河、乌兰察布这类“冷得天然免费空调”的地方搬大集群,一边在三环外塞进微型边缘机房,专给实时推理抢毫秒级延迟。

算下来,平均一栋楼里塞进去的光模块比一个小区的宽带猫还多。

服务器厂牌们顺势把“光口密度”吹成了卖点。

浪潮的AI新品直接取消低速背板,整柜服务器裸出来一墙壁的光纤头,视觉冲击堪比理发店的霓虹招牌。

内部测试数据更直白:换800G模块后,千卡集群跑ResNet的训练时间从三天缩到36小时,省下来的电费够给员工多发一个月奖金。

光芯片这块也悄悄换了座次。

以前欧美厂牌占着高端,国产只能蹭低端;如今三安光电的25G DML激光器开始给北美二线云厂批量供货,价格差开20%,对方宁可排期晚两周也要用,原因很简单——功耗低3瓦,一个机房一年就能省下一辆保时捷。

国产替代的剧本在这儿不再喊口号,而是结结实实写在采购清单里。

下游应用的故事更带劲儿。

上海某三甲医院的影像科刚上线AI阅片,以前一位主任医师一天看三百张CT,现在算法先跑一遍,自己只过一眼可疑区域,漏诊率降到历史最低。

算力来源正是医院楼顶新建的边缘机房,机柜里塞满了贴着“武汉华工”标签的光模块,风噪呼呼响,患者却再也不用空腹排长队。

工业圈也一样。

昆山一家做笔记本电脑外壳的工厂,给每个质检工位装了AI相机,识别划痕的阈值调到人眼根本看不清的级别。

原本一条流水线要十个人瞪眼数瑕疵,如今只需一个工程师守着屏幕喝茶,剩下九个人改去维护机器。

背后是一套放在园区机房的GPU集群,光纤从厂房直接连过去,延迟低于0.3毫秒,连机器手臂挥错刀都能实时纠正。

至于自动驾驶,更是把光模块的消耗量拉到天量。

路测车队每跑一天产生的数据,比一个小镇全年拍的抖音还多,全得通过5G+光纤同步回传云端再训练。

小马智行内部有个比喻:激光雷达是车的眼睛,高算力GPU是大脑,光模块则是连接云端教练的神经系统,哪一环掉链子,整辆车就是高级轮椅。

可以想见,接下来几年还会重复今天的剧情——模型更大、集群更密、光模块更热。

只是故事不再只是跑得快,而是跑得省、跑得绿。

多家光芯片厂已经给激光器加装了实时温控,节省的每一瓦电都算在TCO里;数据中心把服务器泡在特制液体里,光模块插槽做了完全密封,省空调、省电费、还省了运维小哥的腰。

说到底,光模块这条赛道比的不只是技术,更是产业链的协作默契:芯片厂要让激光器寿命多出5000小时,模块厂要把镀膜工艺稳住,云厂要敢把一整年的预算拿来押注新的传输速率。

任何一环迟疑,市场就留给更不怕赌的人。

普通人也许一辈子都不会摸到一块800G模块,但未来每一次对ChatGPT说“写段冷笑话”,背后都要先跑过一条光的河流。

来源:端庄西柚Tjx

相关推荐