摘要:当英伟达凭借H100、B200在AI训练市场高歌猛进之际,一场围绕推理市场的暗战正在悄然升级。高通最新亮出的两张王牌——AI200与AI250数据中心芯片,正以颠覆性的设计思路,试图在英伟达的“铜墙铁壁”上撕开一道缺口。
当英伟达凭借H100、B200在AI训练市场高歌猛进之际,一场围绕推理市场的暗战正在悄然升级。高通最新亮出的两张王牌——AI200与AI250数据中心芯片,正以颠覆性的设计思路,试图在英伟达的“铜墙铁壁”上撕开一道缺口。
内存破局:放弃HBM,选择LPDDR的深意
AI200最引人注目的,是其惊人的768GB LPDDR内存容量。这一数字背后,藏着高通对AI推理市场的精准判断。
与追求极致算力的训练芯片不同,推理任务真正的瓶颈往往不在算力峰值,而在内存容量与能效。视频生成、大模型推理等场景需要海量内存支撑,而当前炙手可热的HBM内存正面临严重的供应瓶颈。高通巧妙绕过这一困局,选择成本更低、功耗更优的LPDDR内存,虽带宽不及HBM,但对推理任务而言,大内存容量和低能耗才是降低总拥有成本的关键。
更值得玩味的是AI250的近存计算架构。通过让计算单元“紧贴”内存布局,大幅减少数据搬运距离。这种设计犹如在数据要塞旁修建高速公路,特别适合推理任务的数据局部性特征。这步棋,直指推理场景的痛点。
中东豪单背后的战略密码
沙特AI公司Human的签约,为高通提供了绝佳的落地场景。这笔订单的规模令人咋舌:200兆瓦部署约需1250个机架,若参考英伟达GB200 NVL72机架260-300万美元的定价,潜在收入规模可观。
但中东市场的特殊性值得深思。SambaNova、Groq等新兴AI芯片厂商的最大订单同样来自中东。这片土地为何成为“非英伟达系”芯片的试验场?或许因为中东客户更愿意为技术多样性买单,且对新兴方案包容度更高。高通真正的考验在于:能否将此成功复制到对可靠性要求严苛的北美市场?
高通的生态棋局
纵观高通近年布局,收购Alphawave补强高速连接技术,AI100 Ultra卡切入训练市场,再到AI200/AI250专注推理,一套组合拳意图明显。特别是在芯粒和SerDes技术上的积累,让高通具备实现内存与计算解耦的潜力,这或许是应对未来推理池化挑战的关键伏笔。
2024-2026年,AI推理市场将迎来爆发式增长。当业界目光被训练芯片的算力竞赛吸引时,高通选择在推理赛道另辟蹊径。这场避开正面交锋的侧翼战,或许将重塑AI芯片市场的竞争格局。
来源:STARDUST
