摘要:英伟达刚刚斥资超过9亿美元聘请了Enfabrica的首席执行官,并获得了这家人工智能初创公司的技术许可。
CNBC报道,英伟达刚刚斥资超过9亿美元聘请了Enfabrica的首席执行官,并获得了这家人工智能初创公司的技术许可。
这笔钱,一部分是现金,一部分是股票,目标是AI网络芯片创业公司Enfabrica的核心技术,以及它的首席执行官Rochan Sankar和部分关键员工。
这就是谷歌,Meta巨头们玩的“技术许可”加“人才雇佣”的精准手术。交易悄悄完成,Rochan Sankar本人也已正式入职英伟达。
英伟达官方对此三缄其口,Enfabrica也没吭声,但CNBC把这事儿给捅了出来。
这家公司什么来头?
Enfabrica成立于2019到2020年之间,创始团队的履历金光闪闪,都是从博通、谷歌、思科、亚马逊云、英特尔这些地方出来的大神级工程师。
他们凑在一起,就是为了解决一个天大的难题:AI数据中心里,成千上万的GPU挤在一起,互相通信就像北京早高峰的五环,堵得一塌糊涂。同时,GPU自己的内存又不够大,装不下越来越胖的AI模型。
Enfabrica就是来给GPU集群修路、扩建粮仓的。
公司成立至今,累计融资超过两亿美金。 Sutter Hill Ventures领投了A轮,Atreides Management领投了B轮,后面还跟着Arm、三星、思科这些巨头。
有意思的是,英伟达自己,在2023年就参与了Enfabrica那轮1.25亿美金的B轮融资。当时Enfabrica的估值,比A轮时翻了五倍。
看来,英伟达早就盯上这块肥肉了。
价值九亿的技术到底牛在哪?
让英伟达心甘情愿掏出九亿美金的,是Enfabrica的看家宝贝:一款名为ACF-S的芯片。
ACF-S的全称是“加速计算架构交换”(Accelerated Compute Fabric Switch),听着复杂,其实可以理解成一个专为AI集群打造的“超级交换机”或“超级网卡”(SuperNIC)。
传统的数据中心里,网络、计算、内存扩展这些功能,由不同的芯片和设备各管一摊,数据传来传去,不仅慢,还容易丢包、拥堵。ACF-S的革命性在于,它把这些功能高度集成到了一颗5纳米制程的芯片里。
这颗芯片有多猛?
只需要两层ACF-S芯片组成的交换网络,就能把超过五十万个GPU连在一起。这是什么概念?英伟达最新的Blackwell架构,一个机架才72个GPU。ACF-S支撑的规模,是为未来几年甚至更久的超大规模AI工厂准备的。
现在的AI大模型越来越大,GPU自带的那点高带宽内存(HBM)根本不够用。ACF-S通过一种叫CXL的技术,能让GPU直接访问外部更便宜、容量更大的DDR5内存,容量直接扩大五十倍以上。相当于给每个GPU配了个无限容量的网盘,还不用忍受下载速度。
它能把数据传输的“跳数”减少三分之二,大大降低延迟。它还有个独门绝技叫“弹性消息多路径”(RMM),好比给数据修了好几条备用高速公路,一条路出了车祸,数据能瞬间切换到另一条,保证AI训练任务不中断。这解决了AI计算的一个巨大痛点:网络抖动。
根据Enfabrica的说法,用了它的技术,大语言模型的推理成本能降一半,深度学习推荐模型(DLRM)的推理成本能降75%。不仅如此,买设备的钱(CapEx)能省29%,运营成本比如电费(OpEx)更能省55%。
这简直就是印钞机。
英伟达的算盘是什么?
英伟达自己的GPU已经强到没朋友,它还有NVLink技术,可以让一个服务器里的几块GPU高速直连。
但问题是,当规模扩大到成千上万,甚至几十万块GPU时,NVLink就鞭长莫及了。GPU之间的数据交换,必须依赖外部的网络设备。这个环节,恰恰成了整个AI集群的性能瓶颈。
Enfabrica的ACF-S技术,正是补齐这块短板的完美拼图。
它解决了超大规模集群的扩展性、带宽和延迟问题,还通过CXL技术解决了内存瓶颈。更重要的是,它能大幅降低客户的总拥有成本(TCO)。
这笔收购,让英伟达的能力从GPU内部,延伸到了整个数据中心网络。它不再仅仅是卖“发动机”的,而是提供了一整套从发动机、底盘到车身连接的完整“汽车”解决方案。
通过将ACF-S技术整合到自己的生态里,英伟达可以进一步巩固其在AI基础设施领域无可撼动的霸主地位。
把Enfabrica的CEO和核心团队招致麾下,也确保了这项关键技术的后续研发和迭代牢牢掌握在自己手中。
英伟达这九亿美金,花得值。
参考资料:
来源:算泥社区