算力豪赌背后的危机:OpenAI拿10%股权换6吉瓦算力

B站影视 欧美电影 2025-10-08 07:15 2

摘要:2025年10月,一则“AMD用1.6亿股认股权证换OpenAI 6吉瓦算力部署”的消息,让华尔街沸腾——AMD股价单日飙升35%,OpenAI看似拿到了“免费的算力午餐”。可冷静下来才发现,这场交易更像一场“空中楼阁”:OpenAI核心数据中心“星际之门”目

2025年10月,一则“AMD用1.6亿股认股权证换OpenAI 6吉瓦算力部署”的消息,让华尔街沸腾——AMD股价单日飙升35%,OpenAI看似拿到了“免费的算力午餐”。可冷静下来才发现,这场交易更像一场“空中楼阁”:OpenAI核心数据中心“星际之门”目前仅落地200兆瓦算力,连AMD要求的“1吉瓦行权门槛”都差着5倍,更别提英伟达此前约定的10吉瓦部署。

当OpenAI为“算力缺口”焦头烂额时,中国的算力布局已走出另一条路:“东数西算”工程落地超12个国家枢纽节点,华为昇腾集群算力突破10艾次/秒,阿里云“飞天智算平台”支持千卡级GPU协同训练。这场围绕AI算力的全球博弈,早已不是芯片巨头的独角戏,而是算力基建、技术生态、商业模式的全方位较量。

百亿级豪赌:AMD与英伟达的“算力换市场”游戏

AMD和英伟达对OpenAI的“示好”,本质是一场精准的“市场卡位战”——用短期的“算力投入”换长期的AI芯片市场份额,尤其是在OpenAI这种“超级用户”身上押注。

先看AMD的“股权换份额”套路。它给OpenAI的“筹码”相当诱人:1.6亿股普通股认股权证,每股行权价仅1美分,相当于“白送”价值数十亿的股权。但条件很明确:OpenAI需推动AMD Instinct GPU的市场渗透,且每完成1吉瓦算力部署,才能解锁一部分股权。对AMD来说,这是笔“稳赚不赔的买卖”:若OpenAI达成目标,Instinct GPU的市场份额将从目前的不足10%大幅提升,仅1吉瓦部署就能带来112亿美元收入——要知道,AMD 2024年全年Instinct GPU销售额才刚超50亿美元;即便OpenAI失败,AMD也只是付出“纸面股权”,没损失真金白银。

英伟达的“1000亿美元赌约”更显“财大气粗”。它承诺向OpenAI投入千亿资金,换取10吉瓦算力部署,本质是“借鸡生蛋”:英伟达把GPU和网络设备高价卖给Oracle、Crusoe等云服务商,后者再租赁给OpenAI,英伟达既能赚硬件钱,又能通过“买四送一”的捆绑销售,巩固CUDA生态的垄断地位。有行业分析师拆解:这笔交易中,英伟达每卖出4台NVL72机架系统(单价约350万美元),送1台“折扣机”,看似让利,实则锁定了OpenAI未来5年的GPU采购,把AMD挡在门外。

可OpenAI成了这场博弈里的“夹心饼干”。它2029年才有望盈利,现在极度缺钱,只能靠“卖股权换算力”续命;但算力部署的核心瓶颈——数据中心基建,却远跟不上协议进度。截至2025年10月,“星际之门”数据中心仅落地200兆瓦算力,而AMD要求的首笔1吉瓦、英伟达要求的10吉瓦,都还停留在纸面上。Crusoe承诺2026年年中把得州园区扩容到1.2吉瓦,Oracle说四年内负责5.7吉瓦,但这些“口头承诺”何时兑现、能否兑现,都是未知数。

算力危机的核心:不是缺芯片,是缺“装芯片的房子”

OpenAI的困境,戳破了AI行业的一个“伪命题”:大家总说“缺GPU”,但真正制约算力落地的,是数据中心的基建能力——电力、土地、冷却系统,每一项都是“烧钱又耗时”的硬骨头。

先看电力需求。1吉瓦算力是什么概念?相当于100万个家庭的日常用电总和。OpenAI要完成AMD+英伟达的16吉瓦部署,需要一个“小型发电站”专门供电。得州阿比林的“星际之门”旗舰数据中心,就是因为当地电网容量不足,只能先落地200兆瓦;Crusoe计划建六栋新建筑扩容,但光是申请电网扩容许可,就需要至少18个月。

再看冷却成本。AI芯片运行时会产生大量热量,1台GPU机架每小时要散掉250千瓦热量,相当于同时开500台家用空调。传统的风冷系统根本扛不住,必须用液冷技术——而液冷数据中心的建设成本,比风冷高30%以上。Oracle之所以能接5.7吉瓦的单子,就是因为它有多年液冷部署经验,而其他云服务商很难在短期内跟上。

还有土地和供应链问题。建一个1吉瓦的数据中心,需要至少10万平方米土地,还要靠近光纤骨干网,这样的选址在欧美本就稀缺;更麻烦的是施工周期,从打地基到设备安装,最快也要2年,远跟不上OpenAI“急需算力”的节奏。有业内人士调侃:“现在不是GPU不够,是‘装GPU的房子’不够,就算AMD、英伟达现在把芯片送过来,OpenAI也没地方放。”

中国的算力破局:从“基建先行”到“生态协同”

当OpenAI为数据中心基建头疼时,中国早已通过“基建先行+生态协同”,走出了一条算力落地的“快车道”,核心就是“东数西算”工程和国产算力生态的布局。

先看“东数西算”的基建底气。2022年启动的“东数西算”,已在京津冀、长三角、粤港澳大湾区、成渝等8地建了12个国家算力枢纽节点,每个节点都配套了“超大型数据中心集群”。比如内蒙古枢纽的和林格尔数据中心,总规划算力达400兆瓦,采用“风光储一体化”供电——用当地的风电、光伏给数据中心供电,既解决了电力短缺,又降低了碳排放;贵州枢纽的贵安数据中心,利用当地凉爽的气候搞“自然风冷+液冷”混合冷却,比纯液冷系统节省40%的能耗。截至2025年三季度,“东数西算”工程已落地算力超30吉瓦,是OpenAI“星际之门”当前算力的150倍。

再看国产算力的“生态协同”。中国没有走“依赖单一芯片巨头”的老路,而是形成了“芯片+平台+应用”的全链条生态。华为昇腾910B芯片,已在多个国家算力枢纽节点部署,搭建的“鹏城云脑III”算力集群,总算力突破10艾次/秒(1艾次=1000拍次),能支持千亿参数大模型的全流程训练;阿里云的“飞天智算平台”,不仅兼容英伟达GPU,还能适配华为昇腾、海光深算等国产芯片,实现“千卡级芯片协同训练”,训练效率比单厂商芯片集群高20%。

民营科技企业也在发力。字节跳动自主研发的“火山智算平台”,针对短视频、直播等场景优化算力调度,能把GPU利用率从60%提升到85%;百度飞桨平台则推出“算力租赁”服务,中小企业不用买硬件,就能按需使用飞桨的集群算力,大幅降低了AI研发门槛。这种“公私协同、软硬结合”的模式,让中国算力不仅“规模大”,还“用得好”。

更关键的是“算力网络”的打通。中国正在建全国统一的“算力调度平台”,把东部的“算力需求”和西部的“算力供给”实时匹配——比如上海的企业要训练大模型,平台可以自动把任务分配到贵州的算力枢纽,既解决了东部土地、电力紧张的问题,又盘活了西部的算力资源。这种“全国一盘棋”的调度能力,正是OpenAI和欧美企业目前不具备的。

算力博弈的未来:不是“芯片战争”,是“系统战争”

OpenAI与AMD、英伟达的博弈,看似是“芯片巨头的市场争夺”,实则暴露了欧美算力发展的“短板”——过度依赖单一企业,缺乏顶层设计和基建支持。而中国的算力布局,恰恰证明了“算力竞争”的本质是“系统竞争”:芯片、数据中心、调度平台、应用生态,缺一不可。

未来的算力博弈,会呈现两个趋势。一是“基建全球化”,像中国“东数西算”这样的跨区域算力调度模式,会被更多国家借鉴,比如欧盟正在推进“数字欧洲计划”,试图整合各国的数据中心资源;二是“生态多元化”,CUDA生态的垄断地位会逐渐被打破,中国的昇腾生态、欧洲的Habana生态,都会在特定领域形成竞争力。

对企业来说,单纯“买芯片堆算力”的时代已经过去,“算力效率”成了新的竞争点。比如如何通过AI算法优化算力调度,如何用混合芯片集群降低成本,如何把算力和具体应用场景结合(如工业、医疗、金融),这些才是决定企业竞争力的关键。

对普通人来说,算力的发展会让AI更“接地气”。比如未来你用手机拍一段视频,背后可能是西部算力枢纽的AI模型在实时优化画质;医生远程诊断时,远方的算力集群能快速处理医学影像数据。算力不再是“实验室里的概念”,而是融入日常生活的“基础设施”。

结语:算力革命的本质,是“效率革命”

OpenAI拿股权换算力的豪赌,AMD、英伟达的市场卡位战,中国“东数西算”的基建布局,这些看似不相关的事件,其实都指向同一个方向:AI时代的算力革命,已经到来。

这场革命的核心不是“谁的芯片更快”,而是“谁能以更低的成本、更高的效率,把算力送到需要的地方”。OpenAI的困境提醒我们,没有基建支撑的“算力承诺”只是空中楼阁;中国的实践则证明,只有“基建先行、生态协同”,才能真正释放算力的价值。

未来,当全球都在争夺“AI制高点”时,我们会发现:算力不是“奢侈品”,而是“必需品”,而谁能掌握算力的“生产、调度、应用”全链条能力,谁就能在AI时代占据主动。

来源:智能学院

相关推荐