摘要:随后,他用 5 大“支柱”把这座 AI 工厂,从抽象理念,变成了可以部署、可以布线、可以交付的系统工程:
2025 年 5 月 19 日·台北南港展览馆 1 号馆
灯光拉满,英伟达 CEO 黄仁勋走上 COMPUTEX 主舞台。
近120 分钟演讲里,他没有念财报,也不再只谈芯片性能,而是反复抛出同一句核心逻辑:
AI 工厂,正在从云端走向每一寸物理空间。
随后,他用 5 大“支柱”把这座 AI 工厂,从抽象理念,变成了可以部署、可以布线、可以交付的系统工程:
口袋超算(Blackwell BXG):单手即可握持的 Blackwell BXG 模块,把万亿级算力塞进无人机、机器人、手持设备;NVLink Fusion:新一代高速互联,8 GPU + 1 Memory 封装为“超级芯片”,构建芯—存协同架构,组成桌面级 AI 超算;Groot × Cosmos:从提示词到动作执行的闭环流水线,训练 AI 像人一样行动;Grace Blackwell:支持推理时间扩展的思考型 AI 系统,超越国家级超算;IQ:企业内部的数据血管系统,让 AI 能读懂非结构化语义并自动行动。为什么这 5 根支柱值得你关注?
不是发布会 PPT,而是真正要开始量产的工业级系统,每一项都附带了落地时间表和性能数据;不是功能堆叠,而是产业范式的切换:算力、模型、机械首次实现“一体封装”;不是高门槛工程,而是开放式平台:每家公司都可以在这套工厂架构上自主开发;不是科幻未来,而是手可触及的现实:从口袋设备到数字孪生城市,AI 已经从“云端演示”走入“物理接管”。接下来,本文将用“三段式”把这场发布会拆成一张可执行路线图:
支柱 → 技术栈: 逐一定位这 5 项发布在系统中的核心位置;
技术 → 产业链: 它们将如何改写算力布局、制造模式和价值分配;
产业 → 行动框: 面向创业者、B端负责人、制造企业,分别应如何抢位下一轮红利。
读完后,你将拿到一份从技术规格到商业落点都能即刻落地的「AI 工厂作业手册」。
黄仁勋站在台上讲了两个小时,语速极快、几乎没有寒暄。他开场不到十分钟,就把整场发布会的主线抛了出来:
我们正在建设 AI 工厂,而不再是传统意义上的数据中心。
他说,这些所谓的数据中心,不是堆叠服务器、提供存储的旧设施,而是被重新定义为生产智能的工厂——它们输入能源,输出“极具价值的结果”。
他用了一个概念来描述这些“结果”:
“公司将开始讨论上个月生产了多少 token,每小时产出多少 token,就像你衡量一个传统工厂一样。”
换句话说,在 NVIDIA 的定义中,AI 工厂不是抽象的形容词,而是一种可以精确度量、精细管理的智能产线。你可以像衡量产线的螺丝、零件、芯片一样,衡量 AI 工厂的产出——token。
数据中心的角色彻底改变了
黄仁勋回顾了 NVIDIA 过去三十年的转型,从一颗 GPU 芯片,到一整套 AI 工程系统,再到构建全球基础设施。他总结道:
我们把整个数据中心变成一个计算单元。
数据中心不再只是 PC 的集合,不再只是服务器的集合。整个数据中心运行一个任务。
这种新的系统架构,有两个核心特征:
统一调度: 每个服务器不再跑各自的程序,而是协作完成一个大型 AI 推理任务;结构融合: 网络、计算、存储、水冷、芯片设计被纳入一个“主板级”的统一设计框架。他强调,这种结构不是为了传统软件服务,而是为“新型智能产线”服务。
AI 工厂的设计目标:不只是能跑,而是能“量产智能”
黄仁勋不是第一次提到“AI 工厂”,但这是他第一次在一场完整演讲中,把构建逻辑拆到系统级别:
我们是一家 AI 基础设施公司,必须让世界知道我们五年要建什么,才能让所有人现在就开始建 AI 工厂。
这是整场演讲中最具“工程图纸”性质的一句话。
他不是在讲产品线,而是在讲“产业模板”: 从服务器形态、芯片节点、电力规划,到软件栈、开发工具、数据平台,每一层都为 AI 工厂服务。
这也是 NVIDIA 选择在 Computex 而非硅谷发布这一切的原因——因为这是一场面向制造者、集成商、供应链伙伴的“产能共识大会”。
到这里:
黄仁勋没有说“AI 工厂将成为主流”,而是说:
AI 工厂,正在全球各地陆续上线。
它不是隐喻,而是定义;它不是一个产业趋势,而是 NVIDIA 正在系统实施的“可部署模板”。接下来的四节,我们将拆解这套系统的五个支柱: 从口袋里的超算,到机器人梦境工厂;从全球 GPU 的液冷神经网络,到企业自建语义数据仓库。
这是一场从芯片到系统,从实验室到工业线的全链条重构。
“这台机器的性能,和我们2016年发布的 DGX1 一样。”
黄仁勋边说边从讲台上拿起了一台体积不大的桌面设备,“但你现在可以把它放在厨房台面,甚至塞进背包。”
这不是一句玩笑。
在台北 COMPUTEX 上,他发布了全新的 DGX Spark ——一款专为 AI 原生开发者设计的“口袋级超算”,首次将 Blackwell BXG 模块压缩进便携级设备形态。
它拥有 1 petaflops 的 AI 性能和 128GB 内存,
和 2016 年我发布的那台 DGX1 性能相当。
但现在,它只需要一根电源线,随时待命。
这段话之所以重要,不是因为“体积更小、性能更强”的老调重弹,而是因为它在现场明确宣告了一个趋势:AI 工厂第一次具备了“个人开发者可部署”形态。
✅ AI 原生时代,开发者将拥有自己的“工厂节点”
过去几年,训练大型模型、部署推理能力,几乎都要依赖云端或集群。黄仁勋说:
“如果你是学生、研究者、AI 初创团队,过去你必须反复连接云服务器——配置资源、付费、排队、清理、重试。”
而 Spark 的出现,改变了整个使用逻辑。它不是“开发机”,而是一块可部署的工厂节点——
不需要云,不需要机房,不需要虚拟化;模型可在本地运行,任务可持续执行,token 可实时生成;一人即可拥有一套“始终开着的 AI 工厂单元”。“你现在不需要每次写代码都连接服务器,”他说,“你有一台随时待命的 AI 超算,就在你桌边。”
✅ 从 300 磅到 3 公斤:AI 工厂开始下沉
他特别回顾了 2016 年 DGX1 的发布:
“那是我们第一台 AI 超算系统,300 磅,只能部署在专业机房。”
9 年后,这台系统已浓缩成开发板大小、可在家中运行的便携设备。没有风扇轰鸣,不依赖数据中心,不需要多团队维护。
这不仅仅是硬件技术的进步,更是一个系统形态的迁移信号:
AI 工厂的部署权,第一次从中心大厂,下沉到桌面开发者。
DGX Spark 不是面向消费市场的 GPU 升级,而是 对“AI 工厂形态”的一次根本性再定义。
当边缘设备具备完整训练能力,当本地计算可以生成 token,当个人机器也能运行 LLM 并响应任务时:
“工厂”的最小单元,就从集群下沉到了个人机台。
台下有人在拍手,也有人没反应过来。
“它有 70 磅重。别担心,不是我太强壮,而是它真的很重。”
这根“脊柱”,连接着一整个 AI 系统中 72 张 GPU,让它们互联互通,协同工作,像一个超级大脑一样运行推理任务。
黄仁勋说得很直接:
“过去的数据中心是一堆 GPU,各自运转;
现在,NVLink Fusion 让它们变成一台计算机,一个统一的 GPU。”
但很多人不知道——NVFusion 不只是你看到的那根 70 磅重的金属脊柱(NVLink Spine)。
从结构角度看,它的真正突破是:它将 8 张 GPU + 1 块共享内存(Memory) 组合成一个逻辑模块,类比来看,就像是一颗“巨型芯片”;
然后再通过 NVLink Spine、交换芯片与高速电缆网络,将这些“超级芯片”连接成一整套 AI 工厂的计算主干。它不是加法,而是结构变革——把分散组件组织成一个“整体思考系统”。
换句话说:“不是单卡加速,而是协同思考;不是更多硬件,而是硬件变组织。”
✅ GPU 之间的联动一直是限制 AI 系统效率的瓶颈
传统 GPU 靠 PCIe 或普通网络连接,延迟高、吞吐小,数据来回传输像过高速公路要等红绿灯。
而 NVLink Fusion 是 NVIDIA 新发明的“芯片级网络骨架”:我们每秒能在这套系统内传输 130TB 数据,带宽比全世界互联网流量还大。
这不是夸张。黄仁勋在现场展示的数据是:
全球互联网高峰带宽 ≈ 900 Tbps(约合每秒 112.5 TB);NVLink 单系统带宽 = 130 TB/s。换句话说,一台 NVLink 连接的系统,其内部数据传输量已经超过整个互联网。
这不是算力增长,这是压缩工业体积。
黄仁勋说:一整个 Sierra 超算的数据中心,今天只需要一个机架。性能甚至更强。
你没听错:一个机架,超过一整台国家级超级计算机。
这也是黄仁勋反复强调的观点:我们现在不是在建服务器,而是在建 AI 工厂。
✅ NVLink 的另一个突破是液冷分布式设计。
过去,GPU 是插在主板上的卡,现在,GPU 分布在整个机架内,通过液冷保持温度稳定。这种分布方式,不再把机架当“托管架”,而是当作一块巨型主板。
他表示:整个机架就是一台主板,每个 GPU 都是它的一个处理器,我们通过这条 spine,把它们全部连接成一个超级芯片。
在演讲的中段,他突然抛出一句技术高度极高却极具可视感的话:
九个 NVLink 交换机,5000 条电缆,两英里长。
所有这些都构成了一个 GPU 的全连接系统。
它能让每一个芯片与所有其他芯片实时通信。”
有些读者可能不知道“全连接”的意思。你可以想象一下:72 张 GPU,就像 72 个专家在不同房间里工作,NVLink spine 就是让他们随时开会、同步大脑、共享记忆的神经系统。
没有它,这些芯片各自为政,跑得再快也只是“孤岛计算”; 有了它,它们才真正组成了一个“超级智能有机体”。
最后,他讲了一句“工业语言”:我们不是在建数据中心,我们在建工厂。NVLink Fusion 是这座 AI 工厂的神经中枢。
它不是一条连接线,而是一种架构方式——让成千上万张 GPU,不再是零件拼图,而是一台‘统一思考、整体调度’的超级智能体。
不管你是一家云服务公司,还是一个国家级 AI 项目,只要想大规模部署高效推理系统,就必须重新思考你系统内部的连接方式。
这,就是 NVLink Fusion:把分布的算力,汇聚成一个可以协同思考、统一响应的 AI 工厂中枢。
在台北的舞台上,黄仁勋播放了一段视频。画面里,一只虚拟的机械臂缓缓伸向一只瓶子,然后准确抓起、转动、放下。
这不是动画,也不是预设程序。他特意强调:
你看到的不是渲染,也不是剧本,
是模拟,是 AI 在虚拟世界中,自学的动作。”
他随后介绍了这项技术背后的系统:“Groot Dreams”——一套由 NVIDIA 自研的机器人训练框架,结合了 Cosmos 模型、物理引擎 Newton、和 Isaac 平台。
用他的原话讲:
“为了教机器人拿起一个瓶子,我们先让 AI 做梦。”
✅ 机器人要先“做梦”,再动手
传统训练一个机器人,靠人类反复操作、采集数据,再写程序调整路径,周期长、成本高、效果差。
但在 NVIDIA 构建的新体系里,训练过程完全换了方式:
先让 AI 观察一次人类操作(通过远程示范);再用 Cosmos 模型,在梦中生成一万个相似但不完全相同的场景;然后在这些“梦境”里自学怎么做,每一步都基于物理规律、三维环境和目标指令。黄仁勋说:
这是一种从‘真实’扩展到‘虚拟’,再回到‘现实’的闭环。 机器人不再靠硬编码学会动作,而是靠 AI 学 AI。
✅ Groot 是什么?不仅是机器人硬件,更是“物理智能框架”
你看到的那个模拟,是 Groot 系统的一部分,但 Groot 本身不是一台机器人,而是一个系统平台。它包括:
Jetson Thor 芯片:作为机器人的“大脑”;Isaac 操作系统:用于控制机器人感知、推理、动作的核心软件;预训练模型:AI 早已掌握了通用物理动作,再根据任务快速适配;Dreams 数据生成系统:生成大规模训练数据,用以微调行为策略。简单来说:Groot 不是卖给你的一个“机器人”,而是提供一个“让机器人学会像人一样工作”的训练体系。
黄仁勋总结:要训练机器人,不是写程序,而是生成梦境。你给一次示范,AI 会做 10,000 次梦,然后掌握这个技能。
✅ 为什么这一系统重要?
因为真正阻碍机器人落地的,不是硬件、也不是算法,而是训练数据的不可扩展性。
黄仁勋点出一个关键痛点:
“示范是有效的,但你只有 24 小时,不能操作 10 万次。
所以我们用 AI 来放大人类示范的规模。”
Groot Dreams,就是把一个人操作一次的价值,放大成一万个梦境的生成器。
而梦里的学习结果,最终可以部署在现实机器上。
他在现场展示了一段机器人在沙地上跑、在障碍物间穿行的镜头,随后说:
这不是动画,是在模拟环境中,机器人真实运行出来的动作。 它理解摩擦、惯性、重力、碰撞和路径。
✅ 机器人不只是看起来像人,更关键的是“像人那样思考”
这背后的能力叫“物体永久性”,也是儿童两三岁才掌握的基础常识。
黄仁勋说:我们正在训练 AI 理解因果、推断阻挡、构建动作链, 这不再是感知,也不只是生成,而是真正意义上的‘推理’。
他预测,这种物理 AI 将是机器人普及的前提。
不是所有的机器人都需要像人类一样“思考”,但所有能适应环境、自主行动的机器,都必须具备基本的物理理解力。
这一节没有总结,因为黄仁勋根本没让你缓一口气。紧接着,他就进入了下一个重点:
当 AI 能理解、计划、行动,工业系统的定义也要被改写。
在讲完机器人训练系统之后,黄仁勋话锋一转,把整个注意力重新拉回到了“计算”这个起点上。
为了支撑智能体的推理,我们需要一台能思考的计算机。
这台计算机的名字,叫 Grace Blackwell。它不是一块芯片,而是一整套系统架构。
他说得直接:
“过去的 AI 是一次性响应,现在的 AI 需要反复思考,需要推理时间扩展(Reasoning Time Extension)。 要让 AI 真正‘思考’,就需要更多 token、更快生成、更大内存、更强互联。”
于是,NVIDIA 设计了 Grace Blackwell 系列,并在现场宣布——最新版本 GB300 正式投产。
✅ GB300:用一块计算节点,替代一台超级计算机
黄仁勋在台上举了个对比:2018 年 Sierra 超算用了 18,000 块 GPU,才跑出 40 petaflops。今天,一块 GB300 节点就能做到。
换句话说——六年间,AI 工厂单节点性能提升了 4,000 倍。
他不是在比芯片速度,而是在讲“系统极限”——为了跑 AI 推理,不能只是算得快,而是要能长期高效地生成 token 并保持记忆。
他们在芯片上堆叠了 128GB HBM,内存带宽提升 1.5 倍,网络能力提升 2 倍,整体推理性能提升 1.5 倍以上。
GB300 系统完全液冷,整个机架功耗达到 120 千瓦,但物理占地不变。黄仁勋称之为:
极限摩尔定律的实现。
他强调,这种硬件结构不是为了“跑模型”,而是为了支持整个 AI 工厂的长期智能生产。
✅ IQ:让企业数据“自己说话”的语义血管
拥有强计算力之后,另一个问题浮现:AI 到底从哪儿学?怎么理解数据?
黄仁勋现场公布了另一个新系统:NVIDIA IQ(Intelligent Query),一个为 AI 优化的非结构化语义数据平台。
他说:
“传统数据库是给人查结构化数据的,
AI 要的是语义,要的是含义,要的是嵌入。”
传统 IT 系统中,数据储存在数据库、文档、网页、日志中——它们没有语义结构,AI 不知道怎么理解。
于是 NVIDIA 推出 IQ 模型栈,让 AI 能在企业内部做“语义搜索”:
你可以像查 Google 一样问它;它会在文档、PPT、CRM、客服系统里自动查找答案;用的不是关键词匹配,而是上下文理解。不是用 SQL,他们改用 NeMo Retriever。它能在数秒内搜索百万级非结构化数据,提炼结果。
黄仁勋现场展示了一家叫 VAST 的企业使用 IQ 的案例:
“他们花 3 天时间,搭建了一个销售智能体。
输入一个目标,它能自动调用 CRM、市场数据、历史合约,
自动生成销售大纲和行动建议。”
他说,这只是开始。未来每家公司都会有多个专属 AI 代理,每个代理都需要能“理解”公司自己的数据,而不是从互联网上学。
✅Grace Blackwell 是大脑,IQ 是血管
Grace Blackwell 决定你能不能高效“想”;IQ 决定你是否真正“懂”。
黄仁勋说得很清楚:
我们不是在重做企业 IT,而是在补一层——智能代理的运行层。
它需要新的计算、新的存储、新的数据组织方式。
他没有反复强调芯片有多强,而是强调:“智能体能不能上线,关键在于你有没有给它血和脑。”
整整两个小时,黄仁勋没有讲一个“应用场景”。
没有讲 AI 怎么提高效率、提升转化率、自动润色、生成广告……这些他通通没有提。
他讲的,是工厂、计算节点、脊柱交换机、token 产能,是一套你很难在任何 SaaS 产品或 App 页面上直接感受到的系统底座。
他说:
“我们不是在建设数据中心,而是在建设 AI 工厂。
像上一个世纪建电厂一样, 每家公司、每个国家、每个行业,都将建自己的 AI 工厂。”
这场演讲里,他一共发布了五大系统级产品线,但你会发现—— 它们不是分别服务“某个模型”,也不是为了取代某类工具。
我们回看这五根“支柱”:
这些不是“产品”,是系统。不是“功能”,是基础设施。
你不是在用 AI 写代码、画图、提效,而是站在一套全新工业系统的布线前线。
过去,企业比的是谁做出最好用的应用。未来,决定胜负的,是谁有能力主导一座 AI 工厂的构建与调度。
黄仁勋的回答很清楚:
未来最值钱的,不是单个 AI 应用,而是能够构建和连接 AI 工厂的核心技术基础设施。
他说:“英伟达是一家基础设施公司。”
这句话,不只是他的定位,也是一个新的身份提醒。
它意味着,AI 的竞争将从模型、插件、应用平台,上移到基础设施层; 也意味着,只有那些能真正理解“token 是怎么被生产出来”的人,才配谈“AI 会改变世界”。
而这场竞争,并不会停留在数据中心内部。黄仁勋最后提到:
我们正与全球最大制造企业合作,
把工厂、机器人、城市、产业链,
都以数字孪生方式接入 AI 系统。
这些工厂,本身就会成为 AI 工厂。
他并未展开更多,因为这将是下一场 AI 竞争的开端。
但这句话已经给出了预告:
AI 工厂,不止诞生智能,也将在未来,接管整个物理世界的生产系统。
你看到的不是一个发布会,而是一份产业蓝图的交付现场。 未来的任务不是“用好 AI”,而是如何成为这套基础设施的建设者。
这一次,赢家不会是用得快的那一波人,而是——先动手布线的那一群人。
不只是开发者,也包括制造商、系统集成商、云服务商、供应链上的每一位“新工厂建设者”。
来源:趣闻捕手