摘要:市值突破4万亿美元的英伟达,从来不是只会卖芯片的「核弹厂」。2025年中,当外界还在讨论其DGX Cloud为何突然从C位退场时,黄仁勋已经把新的筹码压在了一个叫Lepton的平台上。从直接下场租售GPU集群,到转身做算力调度的「中间人」,这场看似「退守」的战
市值突破4万亿美元的英伟达,从来不是只会卖芯片的「核弹厂」。2025年中,当外界还在讨论其DGX Cloud为何突然从C位退场时,黄仁勋已经把新的筹码压在了一个叫Lepton的平台上。从直接下场租售GPU集群,到转身做算力调度的「中间人」,这场看似「退守」的战略调整,藏着英伟达更野的野心:它不想只做云服务的参与者,而是要当整个AI算力生态的「操盘手」。
2023年「GPU荒」最严重的时候,英伟达推出DGX Cloud,八块H100组成的实例月租36999美元,硬生生把稀缺算力卖出了奢侈品价。那会儿市场热得发烫,企业拿着钱排不上队,DGX Cloud第一年就撑起了软件与服务业务20亿美元的年化收入。但没人想到,短短两年后,这个被视为「英伟达云野心」的亲儿子,会悄悄退回后台,变成内部研发工具。
退场的第一个信号,来自供需天平的倾斜。2024年下半年起,随着台积电先进制程产能释放,H100、A100的供应逐渐缓解。AWS、Azure这些「大客户」立刻打响价格战:AWS对H100实例降价45%,Azure跟进,谷歌云甚至推出「长租折扣」。当云厂商的GPU租金比DGX Cloud低近一半,企业客户用脚投票——谁还会为「英伟达牌溢价」买单?DGX Cloud的「紧缺红利」瞬间消失,就像潮水退去,露出了沙滩上的礁石。
更深层的矛盾藏在「渠道冲突」里。亚马逊、微软、谷歌三家,常年贡献英伟达30%以上的芯片采购量,是真正的「衣食父母」。DGX Cloud的直营模式,等于英伟达亲自下场和「父母」抢生意:企业租了DGX Cloud,就可能减少在AWS上的GPU采购;签一份DGX Cloud合同,就可能让Azure少一笔订单。这种「左手卖芯片,右手抢客户」的操作,风险显而易见——大客户们嘴上不说,身体很诚实:AWS加速Trainium自研,谷歌把TPU塞进更多AI项目,微软悄悄测试自研AI芯片。英伟达最怕的不是短期订单流失,而是客户「去英伟达化」的长期计划。
更现实的是客户黏性难题。不少企业把DGX Cloud当「急救包」:项目急着启动,GPU产能又紧张,租几个月过渡,等云厂商的资源到位了,立刻迁回AWS或Azure。毕竟,长期合作的云厂商有更完善的服务生态、更低的迁移成本,DGX Cloud想靠单一算力产品留住客户,太难。
所以DGX Cloud的退场,不是战略失误,而是英伟达的「及时止损」。黄仁勋比谁都清楚:和大客户硬碰硬,赢了眼前的订单,输了未来的生态。与其在云服务的红海里拼杀,不如退一步,换个姿势重新进场——这一次,它盯上了「算力调度」的空白地带。
就在DGX Cloud退回后台的同时,英伟达的「朋友圈」越来越热闹。CoreWeave上市敲钟时,黄仁勋亲自站台;Lambda拿到15亿美元租赁合同时,股价当天暴涨20%。这些名不见经传的小公司,凭什么被英伟达捧在手心?答案藏在一套「卖-投-租」的闭环里。
先看CoreWeave的故事。2023年,英伟达给了它两个「特权」:1亿美元投资+优先供应H100。在GPU荒的年代,这相当于给了CoreWeave一把「金钥匙」——别人买不到的芯片,它能拿到;别人租不起的算力,它能提供。结果呢?CoreWeave成了AI初创公司的「算力加油站」,迅速做大,2025年顺利上市。而英伟达反手就从CoreWeave租回算力,给自己的研发团队用。
Lambda的操作更直接。2025年9月,英伟达和Lambda签了15亿美元的四年期租赁协议,租回1万台搭载顶级GPU的服务器,专供内部研发。这笔钱让Lambda瞬间有了现金流,敢继续扩产买英伟达芯片;英伟达则用未来四年的租金,锁定了当下急需的算力,还不用自建数据中心——资产负债表干干净净,支出分摊到未来,完美。
这套「卖芯片-投资客户-租回算力」的闭环,藏着三个商业逻辑:
短期看,是现金流的「时间差游戏」。芯片卖出去的那一刻,收入立刻计入财报,股东满意;租回算力的支出则分四年摊销,变成运营成本。这种「收入前置,支出后置」的操作,让英伟达的利润表常年漂漂亮亮,市值才能稳稳站上4万亿美元。
中期看,是生态的「黏性锁死」。CoreWeave、Lambda这些公司,拿了英伟达的投资,用着英伟达的芯片,还把算力租回给英伟达——等于被英伟达「从资金到业务」全方位绑定。它们越依赖英伟达的芯片和订单,就越难脱离英伟达生态;而英伟达通过这些「小弟」,间接控制了大量算力资源,等于在云巨头之外,建了一支「预备役部队」。
长期看,是市场价格的「定海神针」。当英伟达愿意用15亿美元租回Lambda的算力时,等于给整个市场发了信号:「这个价格是合理的,算力就值这个钱」。小厂商不敢随便降价,客户也不会觉得租贵了,整个AI算力市场的价格预期被稳住。这种「英伟达背书」的效果,比任何广告都管用。
这套玩法正在复制到更多「英伟达系」初创公司:从专注边缘计算的云厂商,到做AI训练平台的服务商,英伟达通过Nventures风投部门撒网投资,再用「卖芯片+租算力」的模式收网。最终形成一个闭环:英伟达卖芯片赚钱→初创公司用芯片提供算力→英伟达租回算力搞研发→初创公司赚租金继续买芯片。整个生态像一台永动机,每转一圈,英伟达的控制力就强一分。
DGX Cloud退场后,英伟达把重心转向了Lepton——2025年5月上线的「GPU租赁与调度市场」。这个平台不碰一块GPU库存,只做一件事:「帮客户找算力,帮算力找客户」。表面看是个「算力中介」,实则藏着英伟达最野的野心:做AI算力的「App Store」。
Lepton的核心逻辑很简单:开发者在平台上输入需求——「我要100块H100,训练一个70亿参数的大模型,预算10万美元」——Lepton自动匹配资源:AWS有30块闲置H100,报价3万美元;CoreWeave有50块,报价4.5万美元;Lambda有20块,报价2.5万美元。开发者一键下单,Lepton负责调度、计费、运维,背后的云厂商甚至不用和客户直接接触。
这种模式,完美化解了DGX Cloud的「渠道冲突」。以前英伟达自己卖算力,是和AWS抢生意;现在Lepton把AWS的算力也放进平台,等于帮AWS拉客户——云厂商们非但不反感,反而乐于加入:AWS能多卖闲置GPU,CoreWeave能接触更多客户,Lambda能提高算力利用率。英伟达从「云厂商的竞争对手」,变成了「云厂商的合作伙伴」,关系彻底反转。
更妙的是Lepton对「用户体验」的掌控。不管算力来自AWS还是CoreWeave,开发者看到的界面、使用的软件栈、调用的API,全是英伟达的标准:用NIM微服务部署模型,用NeMo框架训练数据,用CUDA加速计算。开发者不用关心背后是哪家云厂商,只需要熟悉英伟达的工具——这种「体验统一」,是英伟达最想要的:只要开发者习惯了英伟达的软件生态,就很难再切换到其他芯片平台(比如AMD的MI300或自研芯片),因为切换意味着重新学习工具、重构代码,成本太高。
这像极了苹果的App Store逻辑:开发者在App Store上架应用,用户在App Store下载,苹果通过统一的iOS系统和支付渠道,掌控整个移动互联网生态。现在英伟达想做的,就是把「App」换成「算力」,把「iOS」换成「英伟达软件栈」,把「App Store」换成「Lepton」。未来,不管你用哪家的算力,都得经过Lepton,都得用英伟达的软件——英伟达不用拥有云,却能掌控云的「操作系统」。
Lepton还在悄悄收集「算力大数据」。每天有多少开发者在找H100?哪些地区的算力需求最旺?训练大模型和做推理,哪个更费GPU?这些数据像金矿,能帮英伟达精准决策:下一季度该增产哪种芯片?要不要给某个地区的「小弟」云厂商多供点货?甚至能预测未来AI算力的需求高峰,提前调整产能。
最关键的是,Lepton让英伟达从「硬件卖货郎」变成了「算力规则制定者」。以前英伟达靠芯片性能赢市场,现在靠Lepton掌控需求入口:客户要算力,先找Lepton;云厂商要客户,先加入Lepton。英伟达通过Lepton决定「谁能接到订单」「谁能卖更多算力」,等于掌握了算力生态的「生杀大权」。这种权力,比卖芯片赚的钱更值钱——它能让英伟达在AI时代,站在整个算力价值链的顶端。
当英伟达市值突破4万亿美元时,很多人还在讨论它的GPU卖了多少块,却没看到它早已跳出「硬件思维」。从DGX Cloud的试错,到「朋友圈」的布局,再到Lepton的登场,英伟达的战略越来越清晰:它不想做第二个AWS,而是要做「AI算力世界的基础设施运营商」——不拥有云数据中心,但掌控算力的生产、调度和分配;不直接提供云服务,但让所有云服务都离不开它的芯片和软件。
这种「不拥有,但掌控」的逻辑,藏着商业智慧的终极形态:与其和云巨头硬碰硬,不如退一步,做他们的「赋能者」;与其自己建算力帝国,不如通过生态间接控制算力资源;与其靠单一产品赚钱,不如靠规则和标准躺赢。
我们确实低估了英伟达。它不是一家芯片公司,也不是一家云公司,而是一家用芯片做地基、用软件做钢筋、用生态做混凝土,正在建造AI时代「算力大厦」的公司。当这座大厦盖起来,英伟达站在顶楼,看着云厂商们在楼里做生意,开发者们在楼里搞创新,而它,只需要收「物业费」——这,或许就是4万亿巨头真正的野心。
来源:倪卫涛一点号