摘要:2025年8月25日,超级智能云提供商Lambda与全球IT解决方案巨头Supermicro共同宣布达成战略合作,将大规模部署基于NVIDIA Blackwell架构的GPU服务器集群,打造下一代人工智能工厂。
在人工智能以惊人速度重塑世界的今天,一场发生在算力基础设施领域的革命正悄然拉开帷幕。
2025年8月25日,超级智能云提供商Lambda与全球IT解决方案巨头Supermicro共同宣布达成战略合作,将大规模部署基于NVIDIA Blackwell架构的GPU服务器集群,打造下一代人工智能工厂。
当我们回顾人工智能基础设施的发展历程,就像在观看一部科技进化的延时摄影。
从2012年深度学习革命爆发开始,AI对计算能力的需求呈现出令人瞠目的指数级增长。最初依靠CPU完成的计算任务,很快转向了GPU加速,再到如今专用AI芯片的崛起,每一次技术跃迁都在不断拓展着AI能力的边界。
Lambda公司的发展轨迹恰好与这一演进历程完美契合。这家成立于2012年的公司,由一群怀揣技术理想的AI学者和工程师创建,他们的愿景十分明确:让计算访问像电力一样轻松和无处不在,最终实现超级智能增强人类进步的世界。
从2012年推出机器学习驱动的面部识别API,到2017年推出世界上首款价格低于20,000美元的即插即用深度学习超级计算机,再到2024年推出1-Click Clusters™让AI开发者能够即时访问NVIDIA H100 Tensor Core GPU集群,Lambda始终站在AI基础设施创新的最前沿。而2025年与Supermicro的战略合作,以及基于NVIDIA Blackwell架构的大规模部署,无疑是Lambda征程上的又一个里程碑。
这次合作中最引人注目的技术亮点,非NVIDIA Blackwell架构GPU莫属。作为继Hopper架构之后的重大突破,Blackwell堪称当前AI计算技术的集大成者。这款拥有2080亿个晶体管的庞然大物,采用台积电定制的4NP工艺制造,由两个GPU芯片通过10TB/s高速接口连接而成,实现了前所未有的数据处理能力。
Blackwell架构的六项变革性的加速计算技术,将AI推理性能比前代产品提升了惊人的30倍,而能耗却降低了25倍——这种性能与能效的双重突破,对整个AI和计算领域来说意义重大。
Supermicro带来的服务器系统同样令人印象深刻。Lambda精心选择了多款Supermicro系统组合,包括搭载NVIDIA HGX B200的SYS-A21GE-NBRT、配备NVIDIA HGX H200的SYS-821GE以及完全由Intel Xeon可扩展处理器提供支持的SYS-221HE-TNR。这些各具特色的服务器系统,共同构成了Lambda人工智能工厂的坚实底座。
SYS-A21GE-NBRT作为Supermicro为NVIDIA Blackwell架构打造的旗舰平台,堪称性能猛兽。
这款10U机架式服务器搭载双路5th/4th Gen Intel Xeon Scalable处理器,最多支持64C/128T,每个CPU拥有最多320MB缓存。更重要的是,它配备了8个NVIDIA B200 SXM GPU,提供1.4TB HBM3e GPU内存空间,32个DIMM插槽支持DDR5高达5600MT/s,最大支持8TB内存。
存储方面,10个前置热插拔2.5英寸NVMe U.2驱动器插槽和2个NVMe M.2插槽提供了充足的存储空间;8个PCIe 5.0 x16 LP插槽和2个PCIe 5.0 x16 FHHL插槽确保了强大的扩展能力;6个5250W冗余钛金级电源和精心设计的冷却系统,则保证了整个系统能够稳定运行在最苛刻的工作负载下。
SYS-821GE则是一款8U机架式服务器,配备NVIDIA HGX H100/H200 8-GPU,为高性能AI训练提供了强大而可靠的计算平台。
相比之下,SYS-221HE-TNR以其紧凑的2U机架式设计提供了灵活高效的AI推理解决方案。
这样一个完整的服务器生态系统,使Lambda能够为客户提供从模型训练到推理部署的全流程解决方案,满足不同规模、不同领域的AI计算需求。
而这一切强大算力的承载者,是位于俄亥俄州哥伦布市的Cologix COL4 Scalelogix数据中心。
Cologix成立于2010年,是北美领先的托管和互联服务提供商,在北美主要市场运营着超过40个数据中心。COL4 Scalelogix数据中心作为Cologix在哥伦布地区的第四个数据中心,占地面积达256,000平方英尺,采用现代化可定制配置的设计,通过多样化高容量光纤环网互联的多座数据中心,提供卓越的网络连接能力。
哥伦布市正在迅速崛起为从制造业到医疗保健领域的人工智能创新中心,这一战略位置的选择显示了Lambda对未来AI产业布局的深远眼光。Cologix首席营收官Chris Heinrich表示:“哥伦布市正迅速崛起为从制造业到医疗保健领域的人工智能创新中心,Cologix很荣幸能作为该地区领先的托管与互联服务提供商。”
Lambda与Supermicro的这次合作,从技术层面看,通过大规模部署基于NVIDIA Blackwell架构的GPU服务器集群,Lambda将为客户提供前所未有的AI计算能力,推动AI技术边界向更广阔的空间拓展。
Supermicro技术与人工智能高级副总裁Vik Malyala的表达充满了对这次合作的期待:“Supermicro非常荣幸能与Lambda就前沿技术展开合作,共同突破人工智能基础设施的边界。我们全系列的GPU优化服务器助力Lambda等行业领导者提供强大、灵活且节能的解决方案,以应对各类要求严苛的人工智能工作负载。”
行业影响层面,这种算力飞跃将加速AI技术在各行各业的落地应用。Lambda数据中心基础设施副总裁Ken Patchett指出:“Lambda的使命是加速实现超级智能,为全球顶尖的人工智能实验室、企业和超大规模运营商建造千兆瓦级的人工智能工厂,用于训练和推理。在我们致力于为客户创造无限扩展计算能力的过程中,Supermicro丰富的服务器产品组合是满足我们当前及未来需求的宝贵资产。”
可持续发展同样不容忽视。Supermicro先进的液体冷却技术可降低电力和冷却成本,从而提升能效并促进可持续发展,这种绿色AI计算的理念为整个行业树立了榜样。
“AI工厂”不再是一个比喻性的概念,而是真正意义上生产智能和算法的现代化设施。从最初的几台GPU服务器,到如今由成千上万台GPU组成的大规模集群,AI工厂的演进速度令人惊叹。
更值得关注的是,Lambda提供的是“生产就绪”的AI基础设施——这不是原始的算力堆砌,而是经过优化、可直接用于生产环境的完整解决方案。这种即插即用的特性,极大地降低了客户使用AI技术的门槛,加速了AI技术从实验室走向实际应用的进程。
Lambda数据中心基础设施副总裁Ken Patchett的陈述揭示了这一优势:“凭借这些技术突破,Lambda成功上线了大型人工智能工厂、采用先进冷却技术的节能服务器,以及一种独特的基础设施,使其能够以创纪录的速度部署大量下一代人工智能加速器。”
Lambda建造千兆瓦级人工智能工厂的愿景,正在这一合作中逐步变为现实。随着AI模型规模的不断增长,对计算能力的需求呈指数级增长,这种超大规模AI工厂的建设,将为AI技术的持续发展提供强大支撑,满足不断增长的算力需求。
Supermicro的先进服务器技术、NVIDIA的革命性GPU架构、Cologix的优质数据中心基础设施,以及Lambda的专业AI服务能力,四者的完美结合或重塑AI基础设施的格局。
超级智能时代的新篇章,正在这里悄然开启,算力铺平了道路。
来源:算泥社区