摘要:当业界还在惊叹英伟达H100芯片创造的"算力奇迹"时,软银已悄然构筑起由Arm、Graphcore和Ampere Computing组成的"铁三角"。这并非简单的资本拼盘,而是一场瞄准AI算力全链条的降维打击。据摩根士丹利测算,这三家公司的技术组合理论上可覆盖
还想一家独大?英伟达最强对手已经出现,准备多家联合绞杀!
当业界还在惊叹英伟达H100芯片创造的"算力奇迹"时,软银已悄然构筑起由Arm、Graphcore和Ampere Computing组成的"铁三角"。这并非简单的资本拼盘,而是一场瞄准AI算力全链条的降维打击。据摩根士丹利测算,这三家公司的技术组合理论上可覆盖从云端训练、边缘推理到智能终端的完整算力需求,形成对英伟达CUDA生态的合围之势。
Arm的异军突起堪称这场战役的关键转折。这家曾被英伟达尝试收购的芯片架构公司,在软银主导下完成了史诗级蜕变。2024年Q4财报显示,Arm服务器芯片市占率已从三年前的3.7%跃升至22.4%,亚马逊Graviton3、微软Cobalt、谷歌Axion等云巨头的自研芯片清一色采用Arm架构。更致命的是,Arm最新发布的Neoverse V3架构在能效比上已超越x86阵营,单核性能较前代提升40%,这直接威胁到英伟达Grace CPU的战略布局。
但软银的野心远不止于此。2024年对英国AI芯片独角兽Graphcore的收购,暴露了孙正义对万亿参数大模型的野望。Graphcore的Bow IPU虽在2023年遭遇滑铁卢,但其独创的"智能处理器集群"架构在稀疏计算场景展现惊人潜力——在处理1750亿参数的GPT-4模型时,能耗效率较英伟达H100提升37%。据内部人士透露,软银已向Graphcore注入20亿美元研发资金,新一代IPU将集成32000个独立计算单元,剑指英伟达Blackwell的咽喉。
在这场算力争霸中,软银祭出的杀手锏是"开放生态联盟"。不同于英伟达封闭的CUDA体系,Arm主导的CSS(Compute Subsystem)架构允许客户像搭积木般定制AI芯片。微软Azure工程师曾向《EE Times》透露,采用Arm CSS方案后,其AI推理芯片研发周期从24个月压缩至11个月,研发成本降低60%。这种"柔性制造"模式正在引发链式反应:Meta、AWS、腾讯云等纷纷加入Arm生态,全球TOP10云服务商中已有7家启动Arm架构AI芯片研发。
更值得警惕的是软银对Chiplet技术的布局。Arm联合台积电、三星推出的CSA(Chiplet系统架构),正在重构芯片制造的游戏规则。通过将AI加速器、内存控制器、I/O模块分解为标准化Chiplet,客户可以像拼装乐高般组合出定制化芯片。AMD技术总监曾坦言,这种模式可能让英伟达的"全栈优势"化为乌有——当客户能用1/3成本获得同等算力时,对英伟达GPU的忠诚度将急剧下降。
市场数据印证了这种趋势。Gartner报告显示,2024年全球AI芯片市场中,Arm架构芯片占比已达38%,较2021年增长270%。更令英伟达不安的是,软银正在将Graphcore的IPU与Ampere的服务器CPU深度整合。在最新公布的AI超算方案中,Graphcore IPU负责大模型训练,Ampere CPU处理数据预处理,Arm架构则统筹边缘端推理,这种"三位一体"的架构在ResNet-50测试中,整体效率较英伟达DGX系统提升28%。
面对来势汹汹的挑战者,英伟达并非毫无招架之力。其CUDA生态已形成超过400万开发者的技术壁垒,Blackwell GPU的NVLink 5.0技术实现900GB/s的超高速互联,这是任何新兴架构短期内难以逾越的鸿沟。但危险信号已然显现:谷歌TPU v5、亚马逊Trainium2等自研芯片正在吞噬训练市场,据IDC数据,英伟达在云数据中心AI加速卡份额已从2022年的95%降至2024年的82%。
更深刻的危机藏在细节里。当软银联合台积电推出3nm Chiplet封装服务时,英伟达却受制于CoWoS封装产能不足,Blackwell GPU交货周期延长至52周。这种供应链的脆弱性正在被对手利用——Ampere Computing最新发布的Altra Max芯片,通过Chiplet技术实现128核设计,在Llama 2-70B推理任务中,单位成本性能较英伟达L40S高出41%。
行业分析师普遍认为,决战的胜负手将在于功耗控制。英伟达H100的750W TDP已成数据中心运营商的噩梦,而Arm架构芯片的能效优势正在指数级放大。Meta基础设施副总裁披露,全面转向Arm架构后,其数据中心PUE值从1.12降至1.07,相当于每年节省4.2亿美元电费。这种经济性差异,在AI算力需求年均增长300%的时代,足以动摇任何商业帝国的根基。
来源:明叔聊科技