摘要:但在开始之前,我想感谢所有帮助、赞助这次盛会的合作伙伴。你们会在展会上看到他们,他们都在这里与大家见面。如果没有整个生态系统的合作伙伴,我们就无法完成今天所做的事情。
华盛顿特区!华盛顿特区,欢迎来到 GTC。很难不对美国感到感伤和自豪——我得告诉你。刚才那个视频很棒,对吧?谢谢。英伟达的创意团队做得非常出色。
欢迎来到 GTC,今天我们有很多内容要和大家分享。GTC 是我们讨论行业、科学、计算、当下与未来的地方。所以今天我有很多内容要分享。
但在开始之前,我想感谢所有帮助、赞助这次盛会的合作伙伴。你们会在展会上看到他们,他们都在这里与大家见面。如果没有整个生态系统的合作伙伴,我们就无法完成今天所做的事情。
人们说,这是人工智能的超级碗。那每一个超级碗,都该有一个精彩的赛前表演。你们觉得这个表演怎么样?还有我们的全明星运动员阵容,看看这些人。不知为何,我成了最健壮的那一个。你们觉得怎么样?我不知道这是不是和我有关。
正如你们在视频中看到的,英伟达在 60 年来首次发明了一种新的计算模型。新的计算模型非常罕见——它需要大量时间与特定条件。我们发明它,是为了应对通用计算机无法解决的问题。
我们很早就观察到,总有一天晶体管数量会继续增加,但性能与功率却会下降。摩尔定律终将失效,受物理极限的约束。那个时刻,现在已经到来。登纳德缩放定律在大约十年前就已停止。事实上,晶体管的性能及功率效率都已大幅下降,尽管数量仍在增长。
我们很久以前就看到了这一趋势。过去 30 年,我们一直在推进这种称为“加速计算”的新型计算模式。
我们发明了 GPU,也创造了名为 CUDA 的编程模型。我们观察到,如果能让一个新的处理器利用更多晶体管,通过并行计算补充顺序处理的 CPU,那么计算能力就能被大幅扩展。
那个时刻真的到来了。我们已经看到了那个拐点——加速计算的时代正式到来。
不过,加速计算是完全不同的编程模型。你不能只是把 CPU 上的顺序程序直接放到 GPU 上运行,那样反而更慢。必须重新发明算法、创建新的库、重写整个应用程序。这就是为什么我们花了将近三十年的时间,一次只专注解决一个领域。
CUDA-X:公司的真正宝藏
这是我们公司的财富。多数人谈论的是 GPU,GPU 当然重要,但如果没有建立在其之上的编程模型、没有持续保持跨世代兼容,就不会有今天的生态。
我们即将推出 CUDA 13 与 CUDA 14。数亿个 GPU、遍布全球的每台计算机,完全兼容。如果我们没做到这一点,开发者就不会以此为目标平台。如果我们没有创建这些库,开发者就不会知道如何调用算法,也无法充分发挥架构潜能。这才是我们真正的宝藏。
cuLitho ——计算光刻,我们花了近 7 年时间打造。现在台积电、三星、ASML 都在使用它,这是芯片制造流程的第一步。
cuOpt ——数值优化引擎,打破几乎所有记录。它能在供应链中将数百万种产品与数百万客户高效匹配。
Warp ——面向 CUDA 的 Python 模拟求解器。
cuDF ——加速 SQL 与 DataFrame 的数据引擎,是 AI 数据处理的启动点。
cuDNN 及其上的 Megatron Core 库,使我们能够模拟并训练极其大型的语言模型。
这样的例子还有很多。 MONAI ——全球第一的医学影像 AI 框架。顺便说一句,今天我们不会过多谈医疗,但请务必观看金伯利的主题演讲,她将介绍我们在医疗健康领域的工作。
类似的例子不胜枚举:基因组学处理、空气动力仿真……而今天我们还要做一件重要的事——c uQuantum ,量子计算库。这只是我们公司 350 个不同库中的一部分代表。每一个库都重新设计了加速计算的算法,让我们的生态伙伴能充分利用 GPU 加速,并不断开拓新的市场。
让我们来看看 CUDA-X 能做什么。
很棒吧?你们看到的一切都是模拟——没有艺术渲染,没有动画。这就是数学之美。这是计算机科学与数学的深度融合,令人难以置信的美妙。它涵盖了每个行业,从医疗与生命科学,到制造、机器人、自动驾驶、计算机图形,甚至电子游戏。
你们看到的第一张图,就是英伟达最初的应用程序。那是 1993 年,我们从那时起就相信自己要做的事。很难想象,从第一个虚拟格斗场景,到今天的超级计算生态,我们始终在践行同一个信念。
这真是一段不可思议的旅程。我想感谢所有英伟达的员工,为这一切所做出的努力。真的太棒了。
今天我们要介绍很多内容:人工智能、6G、量子计算、模型、企业计算、机器人与工厂。我们有很多重大消息要宣布,也有很多新的合作伙伴会让你们惊喜。让我们开始吧。
电信是我们经济、产业以及国家安全的支柱和命脉。自无线技术诞生以来,我们曾经定义这项技术,制定全球标准,把美国技术出口到世界各地,让全世界在美国技术和标准的基础上建设。这种情况,已经很久没有发生过了。如今,世界各地的无线技术很大程度上都建立在外国技术之上。我们的基本通信结构建立在外国技术的基础上,而这种情况必须结束。我们有机会做到这一点,特别是在这个根本性的平台转折时期。
正如你们所知,计算机技术几乎是每一个行业的基础。它是科学最重要的工具,也是工业最重要的工具。我刚才说过,我们正在经历一次平台转变——一个一生只有一次的机会,让我们重新回到赛场,让我们再次用美国的技术去创新。
今天,我们宣布将这样做。我们与诺基亚建立了大型合作伙伴关系。诺基亚是世界第二大电信设备制造商,这是一个价值 3 万亿美元的产业,基础设施价值数千亿美元,全球有数百万个基站。如果我们能够合作,就能在这项基于加速计算和人工智能的新技术之上进行建设,让美国成为 6G 革命的中心。
NVIDIA ARC:空中无线电网络计算机
今天,我们宣布英伟达推出一条全新的产品线—— NVIDIA ARC(Air Radio Computer) ,空中无线电网络计算机,也称为空中无线电接入网计算机。ARC 由三项核心技术构建而成:Grace CPU、Blackwell GPU,以及我们专为此应用设计的 ConnectX Mellanox ConnectX 网络。所有这些组件使我们能够运行之前提到的 Aerial CUDA-X 库。
Aerial 本质上是一个运行在 CUDA-X 之上的无线通信系统。我们将首次创造出一台“软件定义、可编程”的计算机,它能够同时执行无线通信与人工智能处理。这是彻底的革命性创新,我们称之为 NVIDIA ARC 。
诺基亚将与我们合作,整合我们的技术,重写他们的协议栈。这是一家拥有 7000 项关键 5G 专利的公司——很难想象在电信领域有比他们更出色的领导者。我们将与诺基亚携手,把 NVIDIA ARC 作为他们未来的基站平台。
NVIDIA ARC 与诺基亚现有的 AirScale 基站完全兼容。这意味着,我们能够将这项新技术部署到全球数百万个基站,通过 6G 与人工智能实现升级。
6G 与人工智能至关重要,因为我们将首次能够使用 AI 技术应用于 RAN(无线接入网),从而显著提升频谱效率。AI 和强化学习可以根据环境、流量、移动性、天气等因素,实时且有针对性地调整波束成形,提高频谱使用率。频谱效率影响全球约 1.5% 到 2% 的电力消耗。提高频谱效率,不仅能在不增加能耗的情况下传输更多数据,也能让通信网络更加智能。
我们还可以做另一件事——“用于 RAN 的人工智能”,以及“RAN 上的人工智能”。这将开启一个全新的机会。记住,互联网实现了通信,而令人惊讶的是,像 AWS 这样的智能公司在互联网之上构建了云计算系统。我们现在将在无线通信网络之上做同样的事情。这个新的“云”将是一个边缘工业机器人云。
第一个层面是“用于 RAN 的人工智能”,它可以提升无线电频谱效率;第二个层面是“RAN 上的人工智能”,本质上是为无线通信系统提供的云计算平台。这个云计算将直接延伸到边缘——没有数据中心的地方,因为全球各地都有基站。
这真是一个令人振奋的公告。诺基亚首席执行官贾斯汀·霍达(Justin Hoda),我想他就在这里——感谢你们的合作,也感谢你们帮助美国把电信技术带回美国。这是一次非常棒的合作,也是庆祝诺基亚的最佳方式。谢谢。
量子计算的突破让我们来谈谈量子计算。1981 年,粒子物理学家、量子物理学家理查德·费曼提出了一种能够直接模拟自然的新型计算机——因为自然本身就是量子的。他称之为“量子计算机”。
四十年过去,这个领域终于迎来了根本性的突破。就在去年,量子计算领域取得了一个真正的里程碑: 我们现在能够制造出“逻辑量子比特” ——一个相干、稳定并经过纠错的逻辑量子比特。
一个逻辑量子比特有时由十个,有时由数百个物理量子比特协同构成。大家知道,量子比特极其脆弱,任何外界观察、采样或环境变化都会破坏其相干性。因此,我们需要极其可控的环境,还需要许多物理量子比特一起工作,以便进行误差校正,通过辅助量子比特(或称 syndrom 量子比特)推断出逻辑量子比特的状态。
目前,业界存在多种量子计算机路线:超导、光子、囚禁离子、稳定原子等,不同的方式都有其探索路径。
我们现在意识到一件关键的事: 将量子计算机直接连接到 GPU 超级计算机至关重要。 这样我们才能进行误差校正、AI 校准与控制,并在两者之间进行协同模拟。正确的算法在 GPU 上运行,正确的算法在 QPU 上运行,两台计算机并肩协作——这,就是量子计算的未来。
你知道,首席执行官们,我们不仅仅是坐在办公桌前敲键盘——这真是一项“体力活”。所以今天,我们宣布推出 NVQLink 。
这项互联技术使得 GPU 与量子计算机可以进行实时协作,用于控制与校准、量子纠错以及混合模拟。更重要的是,它是 完全可扩展的架构 。它不仅能为今天的数百量子比特提供误差校正,也为未来的数万甚至数十万个量子比特打下基础。我们终于拥有了一种能够控制、协同模拟、执行量子纠错并持续扩展的体系结构。
行业支持与能源部合作
在 CUDA-Q 发明之后,行业给予了极大的支持。要知道,CUDA 最初是为 GPU、CPU 加速计算设计的,让两种处理器各自发挥所长。而现在, CUDA-Q 把这种理念扩展到了 QPU(量子处理单元) ,让 GPU 与 QPU 能够在几微秒内相互传递计算任务——这种延迟控制是实现混合量子计算的关键。
如今,CUDA-Q 已被众多开发者采用。我们今天宣布, 已有 17 家量子计算公司支持 NVQLink 。同时,还有 8 个美国能源部实验室 与我们合作,包括伯克利、布鲁克海文、芝加哥费米实验室、林肯实验室、洛斯阿拉莫斯、橡树岭、太平洋西北和圣地亚哥国家实验室。几乎每一个能源部实验室都在与我们及量子计算生态伙伴携手,将量子计算融入科学的未来。
我还有一个重要的宣布: 能源部正与英伟达合作,建设 7 台全新的 AI 超级计算机,用于推动美国科学发展。
我必须特别致敬能源部长克里斯·赖特。他为能源部注入了惊人的活力与热情,让美国再次走在科学最前沿。正如我所提到的,计算是科学的基本工具,而我们正经历多重平台转型。
一方面,是加速计算——未来的每一台超级计算机都将以 GPU 为核心。
另一方面,是人工智能——AI 与基于原理的模拟、物理求解器将协同工作,相互增强。
此外,经典计算也将与量子计算融合,用于理解自然界的真实状态。
未来,我们要面对前所未有的数据规模与信号密度。遥感、实验、模拟都将需要更高效的方式进行。而这些实验室若想以我们期望的规模和速度前进,就必须成为“机器人工厂”,成为“机器人实验室”。
所有这些技术正同时进入科学体系。赖特部长深刻理解这一点——他希望能源部抓住这一时刻,全面提升能力,确保美国继续引领科学的未来。
让我们来谈谈人工智能。什么是人工智能?大多数人会说人工智能是一个聊天机器人,这是理所当然的。毫无疑问,ChatGPT正处于人们所认为的AI的前沿。然而,正如你此刻所见,这些科学超级计算机不会运行聊天机器人,他们将从事基础科学研究。
科学AI的世界远比想象中更广阔,远不止是一个聊天机器人。当然,聊天机器人极其重要,而通用AI则具有根本性的关键意义。深层计算机科学、非凡的计算能力以及重大突破,仍是实现AGI的关键要素。但除此之外,AI还有更多可能。
AI重构计算堆栈
实际上,我将用几种不同的方式来描述AI。第一种方式,即人们最初对AI的认知,是它彻底重构了计算栈。我们过去做软件的方式是手工编码,在CPU上运行手工编码软件。如今,AI就是机器学习、训练,或者说数据密集型编程,由在GPU上运行的AI训练和学习而成。为实现这一目标,整个计算栈已发生改变。
注意,你在这儿看不到Windows,也看不到CPU。你看到的是完全不同的、从根本上截然不同的架构。在能源之上还有这些GPU。这些GPU被连接到、集成到我稍后将展示的基础设施中。在这项基础设施之上——它由巨型数据中心构成,其规模轻松达到这个房间的数倍之多。巨大的能量随后通过名为GPU超级计算机的新设备转化,从而生成数据。这些数字被称为tokens。
语言,也就是计算的基本单位,是AI的词汇表。几乎任何东西都可以进行tokens化。当然,你可以对英语单词进行分词处理,你可以对图像进行分词处理,这就是你能够识别图像或生成图像的原因。对视频进行分词,对3D结构进行分词。你可以对化学物质、蛋白质和基因进行tokens化处理,你可以对单元格进行tokens化处理,将具有结构的几乎任何事物、具有信息内容的任何事物进行分词处理。
一旦能够将其tokens化,AI就能学习该语言及其含义。一旦它学会了那种语言的含义,它就能翻译,它能回应,就像你与ChatGPT互动那样,它能生成内容。因此,你所看到ChatGPT所做的一切基础功能,你只需想象一下,如果它是一种蛋白质会怎样?如果它是一种化学物质呢?如果它是一个3D结构,比如工厂呢?如果它是一个机器人,而tokens是理解行为并将其转化为动作和行为的标记呢?所有这些概念基本上是一样的。这正是AI取得如此非凡进展的原因。
在这些模型之上还有应用程序。Transformers是一个极其有效的模型,但并不存在放之四海皆准的通用模型。只是AI具有普遍影响。模型种类繁多。在过去的几年里,我们享受了发明带来的乐趣,并经历了创新的洗礼,例如多模态的突破。有这么多不同类型的模型,有CNN模型(卷积神经网络模型),有状态空间模型,也有图神经网络模型,多模态模型,当然,还包括我刚才描述的所有不同的分词方式和分词方法。
你可以构建在理解层面具有空间特性、针对空间感知能力进行了优化的模型。你可以拥有针对长序列进行优化、在较长时间内识别微妙信息的模型。有如此多不同类型的模型。在这些模型之上,还有构建在这些模型架构之上的架构——这些就是应用程序。
AI是工作者,不是工具
过去的软件产业致力于创造工具。Excel是一个工具,Word是一款工具,网页浏览器是一种工具。我之所以知道这些是工具,是因为你使用它们。工具行业,正如螺丝刀和锤子,其规模有限。就IT工具而言,它们可以是数据库工具,这些IT工具的价值约为一万亿美元左右。
但AI并非工具,AI是工作,这就是本质上的区别。AI实际上就是能够真正使用工具的劳动者。我特别兴奋的一件事,就是欧文在Perplexity公司开展的工作。Perplexity使用网页浏览器预订假期或购物,本质上就是一个使用工具的AI。Cursor是一款AI系统,是我们在英伟达使用的具有自主决策能力的AI系统。英伟达的每位软件工程师都在使用Cursor,它极大地提高了我们的生产效率。它基本上是每位软件工程师的代码生成助手,并且它使用了一个工具,它使用的工具名为VSCode。因此,Cursor是一个基于VSCode的智能代理式AI系统。
所有这些不同的行业,无论是聊天机器人、数字生物学、AI助手研究员,还有在自动驾驶出租车内,当然,AI司机是无形的。但显然有一个AI司机在工作,而他完成这项工作的工具就是汽车。因此,我们迄今为止所创造的一切,整个世界,我们迄今为止创造的一切,都是工具,供我们使用的工具。技术如今首次能够承担工作,并帮助我们提高生产力。机遇清单源源不断,这正是AI能够触及IT从未涉足的经济领域的原因。
IT是支撑着100万亿美元全球经济的工具之下,蕴藏着数万亿美元价值的基石。如今,AI将首次参与这100万亿美元的经济体,并提升其生产力,让它增长得更快,变得更大。我们面临严重的劳动力短缺问题,拥有能够增强劳动力的AI将助力我们实现增长。
从科技产业的角度来看,这点同样耐人寻味:除了AI作为新兴技术正在开拓经济新领域之外,AI本身也是一种新兴产业。正如我先前所解释的,这个token,这些数字,在你对所有这些不同信息模态进行token化之后,需要有一个工厂来生产这些数字。与过去的计算机行业和芯片行业不同。
注意,如果你看过去的芯片行业,芯片行业大约占多万亿美元IT行业的5%到10%,也许更少,大约5%左右。原因在于,使用Excel不需要那么多计算。使用浏览器不需要那么多计算。使用Word不需要那么多计算。我们进行计算。但在这个新世界里,需要有一台计算机始终理解上下文。它无法预先计算,因为每次你使用AI计算机时,每次你要求AI做某事时,上下文都不同。所以,它必须处理所有这些信息。环境信息,例如在自动驾驶汽车的情况下,它必须处理汽车的上下文。上下文处理。你要求AI做什么的指令是什么?然后它必须去分解问题,逐步推理,想出一个计划并执行它。每一个步骤都需要生成大量的tokens,这就是为什么我们需要一种新型系统,我称之为AI工厂。简称AI工厂。
AI工厂的诞生
它不像过去的数据中心。它是一个AI工厂,因为这个工厂生产一件东西,不像过去的数据中心做所有事情。为我们所有人存储文件,运行各种不同的应用程序。你可以像使用计算机一样使用那个数据中心进行各种应用。你可以用它玩游戏。你可以用它浏览网页。你可以用它做账。所以那是过去的计算机,一个通用的通用计算机。
我在这里谈论的计算机是一个工厂。它基本上运行一件事。它运行AI,其目的,其目的是设计生产尽可能有价值的tokens,这意味着它们必须是智能的。你希望以惊人的速度生产这些tokens,因为当你向AI索要东西时,你希望它回应。注意在高峰时段,这些AI现在响应越来越慢,因为它有很多工作要为很多人做。所以你想以惊人的速度生产有价值的tokens,你想以成本效益的方式生产它。我使用的每一个词都与AI工厂一致,与汽车工厂或任何工厂一致。它绝对是一个工厂。这些工厂,这些工厂以前从未存在过。在这些工厂内部是堆积如山的芯片。
这就引出了今天。过去几年发生了什么?事实上,今年发生了什么?今年发生了一些相当深刻的事情。实际上,如果你看年初,每个人对AI都有一些态度。那种态度通常是这将是大事。这将是未来。不知何故,几个月前,它进入了涡轮增压状态。原因有几个。
AI的三大缩放定律
首先是我们在过去几年中找到了如何让AI变得更加聪明的方法。而不仅仅是预训练,预训练基本上是说让我们采用人类创造的所有信息。让我们把它给AI学习。这本质上是记忆和泛化。
这就像我们小时候上学一样。学习的第一阶段。预训练从来不是,就像学前教育从来不是教育的终点。预训练,学前教育只是教你智能的基本技能,这样你就可以学习其他一切。没有词汇,不理解语言和如何交流,如何思考,就不可能学习其他一切。接下来是后训练。预训练后的后训练是教你技能。解决问题的技能。分解问题。推理。如何解决数学问题。如何编码。如何逐步思考这些问题。使用第一原理推理。
然后之后就是计算真正发挥作用的地方。如你所知,对我们许多人来说,你知道,我们上了学,在我的情况下是几十年前。但从那以后我学到了更多,思考了更多。原因是我们不断地将自己扎根于新知识。我们不断地进行研究,我们不断地思考。思考才是智能的真正所在。
所以现在我们有三项基本技术技能。我们有这三项技术。预训练,仍然需要巨大的计算量。我们现在有后训练,它使用更多的计算,现在思考对基础设施施加了难以置信的计算负载,因为它代表我们每个人思考。因此AI思考推理所需的计算量真的非常惊人。
现在我以前听人说推理很容易。英伟达应该做训练。英伟达将做,你知道,他们真的擅长这个。所以他们将做训练。推理很容易。思考怎么可能容易?重复记忆的内容很容易。重复乘法表很容易。思考很难。这就是为什么这三个规模,这三个新的缩放定律,全力运行,对计算量施加了如此大的压力。
现在从这三个缩放定律中发生了另一件事。我们得到更智能的模型,这些更智能的模型需要更多计算。但当你得到更智能的模型时,你得到更多智能。人们使用它。
那么,我说到哪里了?你的模型越聪明,你的模型越聪明,就有更多人使用它。它现在更扎根。它能够推理。它能够解决它以前从未学过如何解决的问题,因为它可以做研究。去学习它。回来,分解它,推理如何回答你的问题,如何解决你的问题,然后去解决它。思考量使模型更智能。它越智能,就有越多人使用它。它越智能,就需要越多计算。但这是发生的事情。
去年,AI行业转过了拐点,这意味着AI模型现在足够聪明了。它们正在赚钱,它们是值得的。它们值得付费。英伟达为Cursor的每个许可证付费。我们很乐意这样做。我们很乐意这样做,因为Cursor正在帮助数十万名软件工程师或AI研究员提高许多倍的生产力。所以,当然,我们非常乐意这样做。这些AI模型已经变得足够好,值得为它们付费。Cursor、ElevenLabs、Synthesia、D-ID、Open Evidence,名单还在继续。当然,OpenAI,当然,Claude。这些模型现在如此出色,人们正在为它们付费。因为人们为它们付费并使用更多,每次他们使用更多,你就需要更多计算。我们现在有两个指数。
这两个指数,一个是三个缩放定律的指数计算需求。第二个指数,越多人,它越聪明,越多人使用它,越多人使用它,它需要越多计算。两个指数现在正在给世界的计算资源施加压力,恰恰在我之前告诉你的,摩尔定律基本上已经结束的时候。
所以问题是我们该怎么办?如果我们有这两个指数需求增长,如果我们找不到降低成本的方法,那么这个正反馈系统,这个循环反馈系统,本质上称为良性循环,对几乎任何行业都至关重要,对任何平台行业都至关重要。这对英伟达至关重要。我们现在已经达到了CUDA的良性循环。应用程序越多,人们创建的应用程序越多,CUDA就越有价值。CUDA越有价值,购买的CUDA计算机就越多。购买的CUDA计算机越多,开发者就越想为它创建应用程序。英伟达的这个良性循环在30年后已经实现。我们也实现了这一点。15年后,我们为AI实现了这一点。AI现在已经达到了良性循环,所以你使用它越多,因为AI很聪明,我们为它付费,产生的利润就越多,产生的利润越多,投入到网格上的计算就越多,投入到AI工厂的计算就越多,AI变得越聪明,越多人使用它,更多应用程序使用它,我们可以解决更多问题。
这个良性循环现在正在旋转。我们需要做的是大幅降低成本。这样一来,用户体验更好,当你提示AI时,它会更快地回应你,二来,我们通过降低成本来保持这个良性循环运转,这样它可以变得更聪明,这样更多人使用它,如此等等。这个良性循环现在正在旋转,但当摩尔定律真的达到这个极限时,我们该如何做到这一点呢?
极致协同设计答案叫做协同设计。你不能只是设计芯片,然后希望它上面的东西会变得更快。你在设计芯片方面能做的最好的事情是每隔几年增加我不知道50%的晶体管,如果你增加更多晶体管,你知道我们可以增加更多晶体管,台积电有很多晶体管,令人难以置信的公司,我们只是不断增加更多晶体管,然而那都是百分比,不是指数。我们需要复合指数来保持这个良性循环运转。
极致协同设计是当今世界上唯一一家公司,它真正从一张白纸开始,可以思考新的基本架构、计算机架构、新芯片、新系统、新软件、新模型架构和新应用程序,全部同时进行。所以这个房间里的很多人都在这里,因为你们是那个堆栈不同部分的不同部分,与英伟达合作。我们从头开始彻底重新设计一切,然后因为AI是如此大的问题,我们把它放大。
我们创造了一台完整的计算机,有史以来第一次扩展到整个机架的计算机。那是一台计算机,一个GPU。然后我们通过发明一种新的AI以太网技术来扩展它,我们称之为Spectrum以太网。每个人都会说以太网就是以太网。以太网几乎不是以太网。以太网Spectrum-X以太网是为AI性能设计的,这就是它如此成功的原因。
即使那还不够大。我们将用AI超级计算机和GPU填满整个房间。那还不够大,因为AI的应用程序数量和用户数量继续呈指数增长。我们将多个这样的数据中心连接在一起,我们称之为跨越Spectrum-XGS千兆规模X Spectrum-X千兆规模XGS。
通过这样做,我们在如此巨大的水平上进行协同设计,如此极端的水平,性能优势是令人震惊的。不是每一代提高50%,不是每一代提高25%,而是要多得多。这是我们制造过的最极端的协同设计计算机,坦率地说,是现代制造的。自IBM system 360以来,我认为计算机从未像这样从头开始重新发明过。这个系统创建起来非常困难。我马上会向你展示好处。
Grace Blackwell NVL72
但基本上我们所做的,基本上我们所做的,我们创造了……嘿,Janine,你可以出来了。你必须跟我走到一半。好吧。所以,这有点像美国队长的盾牌。
所以,NVL72,如果我们要创建一个巨大的芯片,一个巨大的GPU,它会是这样的。这就是我们必须进行的晶圆级处理的水平。这太不可思议了。所有这些,所有这些芯片现在都被放入一个巨大的机架中。
是我做的还是其他人做的?进入那一个巨大的机架。你知道,有时候我觉得我不是一个人在这里。只是这一个巨大的机架让所有这些芯片作为一个整体工作。这实际上是完全不可思议的。我会向你展示好处。它看起来像这样。所以,谢谢,Janine。
我喜欢这个。好吧,女士们先生们,Janine Paul。我明白了。将来下一次,我就要像雷神那样。就像当你在家里够不到遥控器时,你就这样做,有人把它拿给你。那是的。同样的想法。我从来没有遇到过。我只是在做梦。我只是说。好的。所以,无论如何,无论如何,我们基本上,这是我们过去创造的。这是NVLink 8。
现在,这些模型是如此巨大。我们解决它的方法是将这个模型,这个巨大的模型,变成一大堆专家。这有点像一个团队。所以,这些专家擅长某些类型的问题。我们将一大堆专家集合在一起。所以,这个巨大的数万亿参数AI模型有所有这些不同的专家,我们将所有这些不同的专家放在一个GPU上。
现在,这是NVL72。我们可以将所有芯片放入一个巨大的结构中,每一个专家都可以相互交谈。所以主专家,主要专家可以与所有真正的工作以及所有必要的上下文和提示以及我们必须发送给所有专家的大量数据,我们必须发送给所有专家的大量tokens交谈。被选中解决答案的专家中的任何一个,然后会去尝试回应,然后它会去做那一层又一层。有时八层,有时16层,有时这些专家,有时64个,有时256个。但关键是有越来越多的专家。好吧,这里NVL72,我们有72个GPU。因此,我们可以在一个GPU中放入四个专家。
你需要为每个GPU做的最重要的事情是生成tokens,这就是你在HBM内存中拥有的带宽量。我们有一个H一个GPU为四个专家生成思考,而这里因为这些计算机每个只能放8个GPU。我们必须将32个专家放入一个GPU。所以这一个GPU必须为32个专家思考,而这个系统每个GPU只需要为四个专家思考。因此,速度差异是令人难以置信的。
这个刚刚出来。这是Semi Analysis做的基准测试。他们做得非常非常彻底,他们对所有可以基准测试的GPU进行了基准测试,事实证明并不多。如果你看可以实际基准测试的GPU列表,大约90%是英伟达。好的。但所以我们在与自己比较,但世界上第二好的GPU是H200,它运行所有工作负载。
Grace Blackwell每个GPU是10倍的性能。现在,当它只有两倍的晶体管数量时,你如何获得10倍的性能?答案是极致协同设计。通过理解未来AI模型的本质,我们在整个堆栈中思考,我们可以为未来创建架构。这是一件大事。它说我们现在可以更快地响应。但这是更大的事情。这下一个,看看这个。这说的是世界上成本最低的tokens是由Grace Blackwell NVLink 72生成的。最昂贵的计算机。
一方面,GB200是最昂贵的计算机。另一方面,它的token生成能力非常强大,以至于它以最低的成本生产,因为每秒tokens除以Grace Blackwell的总拥有成本非常好。这是生成tokens的成本最低的方式。通过这样做,提供令人难以置信的性能,10倍的性能,提供10倍更低的成本,那个良性循环可以继续。
CSP资本支出与市场需求
这就引出了这个。我昨天才看到这个。这是CSP资本支出。这些天人们问我关于资本支出的问题,这是看待它的好方法。事实上,前六大CSP的资本支出,这一个是亚马逊、Coreweave、谷歌、Meta、微软和Oracle。好的,这些CSP一起将在资本支出上投资这么多,我会告诉你时机再好不过了,原因是现在我们有了Grace Blackwell NVLink 72,在全球所有地方都在大规模生产供应链制造它。所以我们现在可以向所有人交付这种新架构,这样资本支出投资于提供最佳TCO的仪器计算机。
现在在这下面发生了两件事。所以当你看这个时,它实际上相当非凡,无论如何它相当非凡。但下面正在发生的是,有两个平台转变同时发生。一个平台转变是从通用计算到加速计算。
记住加速计算,正如我之前提到的,它做数据处理,它做图像处理,计算机图形,它做各种计算。它运行SQL,运行Spark,它运行,你知道,你问它,你告诉我们你需要运行什么,我相当确定我们有一个很棒的库给你。你可以是,你知道,一个试图制造掩模来制造半导体的数据中心。我们有一个很棒的库给你。
所以无论AI如何,世界正在从通用计算转向加速计算,无论AI如何。事实上,许多CSP已经有了很久以前在AI之前就有的服务。记住,它们是在机器学习时代发明的。经典机器学习算法,如XGBoost,算法如数据框,用于推荐系统,协同过滤,内容过滤,所有这些技术都是在通用计算的旧时代创建的。即使是那些算法,即使是那些架构,现在用加速计算会更好。所以即使没有AI,世界的CSP也将投资于加速。英伟达的GPU是唯一可以做所有这些加上AI的GPU。ASIC可能能够做AI,但它不能做任何其他的。英伟达可以做所有这些,这解释了为什么倾向于英伟达的架构是如此安全。
我们现在已经达到了我们的良性循环,我们的拐点。这是非常非凡的。我有很多合作伙伴在房间里,你们所有人都是我们供应链的一部分,我知道你们有多努力工作。我想感谢你们所有人有多努力工作,非常感谢。
现在我要向你展示为什么这就是我们公司业务中正在发生的事情。我们看到Grace Blackwell的非凡增长,原因就是我刚才提到的所有原因。它由两个指数驱动。我们现在有可见性。我认为我们可能是历史上第一家在2026年之前拥有累计5000亿美元Blackwell和Rubin早期增长的可见性的科技公司。如你所知,2025年还没有结束,2026年还没有开始。这是账面上的业务量。到目前为止价值5000亿美元。
现在,这是其中的一部分。我们已经在最初几个季度出货了600万个Blackwell。我猜是生产的前四个季度,三个半季度的生产。我们还有一个季度要完成2025年。然后我们有四个季度。所以接下来的五个季度有5000亿美元,5000亿美元,5000亿美元。那是Hopper增长率的5倍。这告诉你一些事情。
这是Hopper的整个生命周期。这不包括中国和亚洲。所以Hopper在其整个生命周期中有400万个GPU。Blackwell。每个Blackwell在一个大封装中有两个GPU。Blackwell和Rubin早期有2000万个GPU。令人难以置信的增长。
所以,我想感谢我们所有的供应链合作伙伴。每个人,我知道你们有多努力工作。我制作了一个视频来庆祝你们的工作。让我们播放它。
Blackwell制造:美国制造
我们再次在美国制造。这太不可思议了。特朗普总统要求我的第一件事就是把制造业带回来。把制造业带回来,因为这对国家安全是必要的。把制造业带回来,因为我们想要工作,我们想要经济的那部分。九个月后,九个月后,我们现在在亚利桑那州全面生产Blackwell。
下一代:Vera Rubin
极致Blackwell GB 200 NV Grace Blackwell NVL 72极致协同设计给了我们每代10倍。这完全不可思议。现在,真正不可思议的部分是这个。这是我们制造的第一台AI超级计算机。这是2016年我将它交付给旧金山的一家初创公司,后来被证明是OpenAI。这就是那台计算机。为了创建那台计算机,我们设计了一个芯片。我们设计了一个新芯片,以便我们进行协同设计。
现在,看看我们必须做的所有芯片。这就是它所需要的。你不会用一个芯片让计算机快10倍。那不会发生。让计算机快10倍的方法,我们可以继续指数级提高性能,我们可以继续指数级降低成本,是极致协同设计并同时处理所有这些不同的芯片。
我们现在在家里有Rubin。这是Rubin。这是Vera Rubin和Rubin。女士们先生们,Rubin。
这是我们的第三代NVLink 72机架规模计算机。第三代GB200是第一代。我们在世界各地的所有合作伙伴,我知道你们有多努力工作。这太疯狂了。这太疯狂了。第二代,顺利得多。这一代,看看这个。完全无线缆。完全无线缆。
这,这现在都回到实验室了。这是下一代Rubin。当我们正在运送GB300时,我们正在准备Rubin投入生产。你知道,明年这个时候,也许稍早一点。所以,每一年,我们都将提出最极端的协同设计系统,这样我们就可以继续提高性能,继续降低token生成成本。看看这个。这只是一台令人难以置信的美丽计算机。
现在,所以这太神奇了。这是100 petaflops。我知道这没有任何意义。100 petaflops,但与我10年前,9年前交付给OpenAI的DGX-1相比,它是这里100倍的性能,而不是那台超级计算机的100倍。其中100个会像这些机架中的25个全部被这一件东西取代。100倍100个那些,让我们看看,100个那些将像25个这样的机架全部被这一件东西取代。
一个Vera Rubin。好的。所以这是计算托盘,这是所以Vera Rubin超级芯片。好的。这是计算托盘。这个,哦,就在这里。安装起来非常容易。只需打开这些东西,推进去。即使我也能做到。好的。这是Ver Vera Rubin计算托盘。如果你决定想要添加一个特殊的处理器,我们添加了另一个处理器。它被称为上下文处理器,因为我们给AI的上下文量越来越大。我们想在它回答问题之前阅读一大堆PDF。想阅读一大堆档案论文,观看一大堆视频,在你为我回答问题之前去学习所有这些。所有那些上下文处理可以添加。
所以你在底部看到8个ConnectX 9新的超级网卡。你有CX,你有CPX,8个。你有BlueField 4这个新的数据处理器,两个Vera CPU和四个Rubin封装或八个Rubin GPU。所有这些都在这一个节点中,完全无线缆,100%液冷。
然后这个新处理器,我今天不会谈论太多。我没有足够的时间,但这是完全革命性的。原因是你的AI需要有越来越多的内存。你与它互动越来越多。你希望它记住我们上次的对话。我代表我学到的一切,下次我回来时请不要忘记它。所以所有那些内存将创建这个叫做KV缓存的东西。那个KV缓存检索它,你可能已经注意到每次你进入你的AI这些天,刷新和检索所有以前的对话需要越来越长的时间,原因是我们需要一个革命性的新处理器,那就是BlueField 4。
接下来是ConnectX交换机,对不起,NVLink交换机,就在这里。好的,这是NVLink交换机。这就是使我们能够将所有计算机连接在一起的原因。这个交换机现在是整个世界峰值互联网流量的几倍带宽。所以那个骨干网将通信并将所有数据同时传送到所有GPU。
除此之外,除此之外,这是Spectrum-X交换机。这个以太网交换机设计成所有处理器可以同时相互交谈而不会堵塞网络。堵塞网络。这非常技术性。好的。所以,这三个结合在一起。然后这是Quantum交换机。这是用于Infiniband的。这是以太网。我们不在乎你想使用什么语言,无论你喜欢使用什么标准。我们为你提供了很好的扩展结构。无论是Infiniband还是Quantum还是Spectrum以太网,这个使用硅光子学,完全是共封装光学器件。基本上,激光直接到硅并连接到我们的芯片。好的。所以,这是Spectrum-X以太网。
所以,现在让我们谈谈。谢谢。哦,这就是它的样子。这是一个机架。这是两个半。这是2000。这是两吨。150万个部件。骨干网,这个骨干网就在这里,在一秒钟内承载整个互联网流量。同样的速度在所有这些不同的处理器之间移动。100%液冷。全部为了,你知道,世界上最快的token生成率。好的,所以这就是一个机架的样子。
现在那是一个机架。一个千兆瓦数据中心将有,你知道,叫它16个机架将是一千,然后500个那些。所以无论500乘以16,所以叫它9000个这样的,8000个这样的将是一个千兆瓦数据中心。好的。那就是未来的AI工厂。
现在我们使用,正如你注意到的,英伟达从设计芯片开始,然后我们开始设计系统,我们设计AI超级计算机。现在我们正在设计整个AI工厂。每次我们向外移动并整合更多的问题来解决时,我们都会提出更好的解决方案。我们现在建造整个AI工厂。这个,这个AI工厂就是我们为Vera Rubin建造的,我们创造了一项技术,使我们所有的合作伙伴能够数字化地集成到这个工厂中。让我给你看。
完全完全数字化,在Vera Rubin作为真实计算机存在之前很久,我们就一直在使用它作为数字孪生计算机。现在,在这些AI工厂存在之前很久,我们将使用它,我们将设计它,我们将规划它,我们将优化它,我们将作为数字孪生来操作它,所以所有与我们合作的合作伙伴,我非常高兴你们所有人支持我们。Gio在这里,GE Vernova在这里。Schneider,我想Olivia在这里。Olivia Blum在这里。Siemens,令人难以置信的合作伙伴。好的。Roland Busch,我想他在看。嗨Roland。所以无论如何,真的非常棒的合作伙伴与我们合作。
一开始我们有CUDA,我们有所有这些不同的软件合作伙伴生态系统。现在我们有Omniverse DSX,我们正在建造AI工厂,我们再次拥有这些令人难以置信的合作伙伴生态系统与我们合作。
让我们谈谈模型。开源模型,特别是在过去几年中。发生了几件事。一,开源模型由于推理能力而变得相当有能力。由于它们的多模态性而变得相当有能力,由于蒸馏而它们非常高效。所以所有这些不同的能力使开源模型有史以来第一次对开发者来说非常有用。它们现在是初创公司的命脉。不同行业的初创公司的命脉,因为显然正如我之前提到的,每个行业都有自己的用例,自己的数据,自己拥有的数据,自己的飞轮。所有那些能力,那些领域专业知识需要有能力嵌入到模型中。开源使之成为可能。研究人员需要开源。开发者需要开源。世界各地的公司,我们需要开源。开源模型真的非常非常重要。
美国必须在开源方面保持领先。我们有令人惊叹的专有模型。我们有令人惊叹的专有模型。我们还需要令人惊叹的开源模型。我们的国家依赖它。我们的初创公司依赖它。所以英伟达正在致力于去做这件事。我们现在是最大的,我们在开源贡献方面处于领先地位。我们在排行榜上有23个模型。我们有所有这些不同的领域,从语言模型到物理AI模型。我将谈论机器人模型到生物学模型。这些模型中的每一个都有巨大的团队,这就是为什么我们为自己建造超级计算机以使所有这些模型能够被创建的原因之一。我们有第一的语音模型,第一的推理模型,第一的物理AI模型。下载次数真的非常非常好。我们致力于此,原因是科学需要它,研究人员需要它,初创公司需要它,公司需要它。
企业AI与生态系统我很高兴AI初创公司建立在英伟达之上。他们这样做有几个原因。一,当然,我们的生态系统很丰富。我们的工具工作得很好。我们所有的工具在我们所有的GPU上都能工作。我们的GPU无处不在。它实际上在每一个云中。它可以在本地使用。你可以自己构建它。你可以构建一个带有多个GPU的发烧友游戏PC,你可以下载我们的软件栈,它就能工作。我们受益于丰富的开发者,他们正在使这个生态系统越来越丰富。所以我对我们正在合作的所有初创公司真的很满意。我对此表示感谢。
同样的情况是,这些初创公司中的许多现在正在创造更多享受我们GPU的方式。Coreweave、Nscale、Nebius、Lambda,所有这些公司,Crusoe公司正在建立这些新的GPU云来服务初创公司,我真的很感激这一切都是可能的,因为英伟达无处不在。
我们整合我们的库。我谈到的所有CUDA-X库。我谈到的所有开源AI模型。我谈到的所有模型,我们整合到AWS,例如,真的很喜欢与Matt合作。我们整合到Google Cloud,例如,真的很喜欢与Thomas合作。这些云中的每一个都整合英伟达GPU和我们的计算,我们的库以及我们的模型。
喜欢与Microsoft Azure的Satya合作。喜欢与Oracle的Clay合作。这些云中的每一个都整合英伟达堆栈。因此,无论你去哪里,无论你使用哪个云,它都工作得令人难以置信。我们还将英伟达库整合到世界SaaS中,这样这些SaaS中的每一个最终都将成为代理式SaaS。
我喜欢Bill McDermott对ServiceNow的愿景。在那里。是的,就在那里。我想那可能是Bill。嗨,Bill。所以,ServiceNow,它是什么?85%的世界企业工作负载,工作流程。SAP,80%的世界商务。Christian Klein和我正在合作整合英伟达库,CUDA-X和Nemo和Neotron,我们所有的AI系统到SAP,与Synopsys的Sassine合作,加速世界CAE、CAD、EDA工具,使它们可以更快并可以扩展,帮助他们创建AI代理。总有一天,我想雇用一个AI代理,ASIC设计师与我们的ASIC设计师一起工作。本质上是Synopsys的Cursor。
我们正在与Anirudh合作。Anirudh在这里,我今天早些时候见到他。他是赛前表演的一部分。Cadence做令人难以置信的工作,加速他们的堆栈,创建AI代理,这样我们就可以有Cadence AI作为设计师和系统设计师与我们合作。
与CrowdStrike和Palantir的合作
今天我们宣布一个新的。AI将增强生产力。AI将改变几乎每个行业。但AI也将增强网络安全挑战,坏的AI。所以我们需要一个令人难以置信的防御者。我无法想象比CrowdStrike更好的防御者。George,George在这里。他在那里,是的,我之前见到他。
我们与CrowdStrike合作,使网络安全光速,创建一个在云中有网络安全AI代理的系统,但在本地或边缘也有令人难以置信的好AI代理。这样,每当有威胁时,你就能在瞬间检测到它。我们需要速度,我们需要快速的代理式AI,超级智能的AI。
我有第二个公告。这是世界上最快的企业公司。可能是当今世界上最重要的企业堆栈。Palantir Ontology。Palantir的人在这里吗?我刚才和Alex谈过。
这是Palantir Ontology。他们获取信息,他们获取数据,他们获取人类判断,他们将其转化为商业洞察。我们与Palantir合作加速Palantir所做的一切,这样我们就可以进行数据处理,以更大的规模和更快的速度进行数据处理,无论是过去的结构化数据,当然我们将有结构化数据,人类记录的数据,非结构化数据,并为我们的政府,为国家安全和世界各地的企业处理那些数据。以光速处理那些数据并从中找到洞察。这就是未来的样子。Palantir将整合英伟达,这样我们就可以以光速和非凡的规模进行处理。好的,英伟达和Palantir。
让我们谈谈物理AI。物理AI需要三台计算机,就像训练语言模型需要两台计算机一样。一台用于训练它,评估它,然后推理它。好的,所以那就是你看到的大GB 200。为了为物理AI做这件事,你需要三台计算机。你需要计算机来训练它。这是GB,Grace Blackwell NVLink 72。
我们需要一台计算机进行我之前用Omniverse DSX展示的所有模拟。它基本上是机器人学习如何成为好机器人的数字孪生,工厂本质上成为数字孪生。那台计算机是第二台计算机,Omniverse计算机。这台计算机必须在生成式AI方面非常出色,它必须擅长计算机图形、传感器模拟、光线追踪、信号处理,这台计算机被称为Omniverse计算机。
一旦我们训练模型,在数字孪生中模拟那个AI,那个数字孪生可以是工厂的数字孪生,以及一大堆机器人的数字孪生。然后你需要操作那个机器人。这是机器人计算机。这个进入自动驾驶汽车。一半可以进入机器人。好的?或者你实际上可以有,你知道,相当敏捷和相当快速操作的机器人。它可能需要两台这样的计算机。所以这是Thor Jetson Thor机器人计算机。这三台计算机都运行CUDA。它使我们能够推进物理AI。理解物理世界,理解物理定律,因果关系,永久性,你知道,物理AI。
美国再工业化
我们有令人难以置信的合作伙伴与我们合作创建工厂的物理AI。我们正在使用它自己在德克萨斯州创建我们的工厂。现在,一旦我们创建了机器人工厂,我们就有一堆机器人在里面。这些机器人也需要物理AI应用物理AI并在数字孪生中工作。让我们看一看。
那就是制造业的未来,工厂的未来。我想感谢我们的合作伙伴Foxconn,CEO Younglu在这里,但所有这些生态系统合作伙伴使我们能够创造机器人工厂的未来。
工厂本质上是一个机器人,正在协调机器人来构建机器人的东西。你知道,这所需的软件量是如此密集,除非你能在数字孪生中做到,规划它,设计它,在数字孪生中操作,否则让这个工作的希望几乎是不可能的。我也很高兴看到Caterpillar,我的朋友Joe,Joe Creed和他的百年老公司也在他们制造的方式中整合数字孪生。
这些工厂将有未来的机器人系统,最先进的之一是Figure。Brett Adcock今天在这里。他在三年半前创立了一家公司。他们价值近400亿美元。今天我们正在合作训练AI,训练机器人,模拟机器人,当然还有进入Figure的机器人计算机,真的很棒。我有幸看到它。真的非常非常不凡。
人形机器人很可能,我的朋友Elon也在研究这个,这很可能成为最大的新消费电子市场之一,当然也是最大的工业设备市场之一。Peggy Johnson和Agility的人正在与我们合作研究仓库自动化机器人。Johnson Johnson的人再次与我们合作训练机器人,在数字孪生中模拟它,还操作机器人。这些John Johnson Johnson外科机器人甚至将进行完全非侵入性手术,以世界从未见过的精度。
当然,有史以来最可爱的机器人,有史以来最可爱的机器人,迪士尼机器人。这真的非常接近我们的心。我们正在与迪士尼研究合作开发一个全新的框架和模拟平台,基于称为Newton的革命性技术。那个Newton模拟器使机器人能够在物理感知的基于物理的环境中学习如何成为好机器人。让我们看一看。
女士们先生们,迪士尼Blue。告诉我那不可爱。那不可爱。我们都想要一个。我们都想要一个。
现在,记住你刚才看到的一切,那不是动画。不是电影。这是模拟。那个模拟是在Omniverse中。Omniverse,数字孪生。所以这些工厂的数字孪生,仓库的数字孪生,手术室的数字孪生,Blue可以学习如何操纵和导航并与世界互动的数字孪生。完全实时完成。这将成为世界上最大的消费电子产品线。其中一些现在工作得非常好。这是人形机器人的未来,当然还有Blue。好的。
现在,人形机器人仍在开发中。但与此同时,有一个机器人显然处于拐点,它基本上就在这里,那就是轮式机器人。这是robo taxi。robo taxi本质上是一个AI司机。
现在,我们今天正在做的一件事,我们宣布NVIDIA Drive Hyperion。这是一件大事。我们创建了这个架构,以便世界上的每家汽车公司都可以创建汽车,车辆可以是商用的,可以是客运的,可以专用于robo taxi。创建robo taxi就绪的车辆。带有环绕摄像头和雷达以及激光雷达的传感器套件使我们能够实现最高级别的环绕茧式传感器感知和安全所需的冗余最高级别。
Hyperion Drive,Drive Hyperion现在设计到Lucid、Mercedes-Benz,我的朋友Ola,Källenius,Stellantis的人,还有许多其他汽车即将推出,一旦你有了基本的标准平台,那么AV系统的开发者,有这么多才华横溢的人,Waymo、Aurora、Momenta、Pony.ai,有这么多,WeRide,有这么多可以然后采用他们的AV系统并在标准底盘上运行它。基本上,标准底盘现在已经成为轮式计算平台。因为它是标准的,传感器套件是全面的,他们都可以将他们的AI部署到它。让我们快速看一下。
好的,那是美丽的旧金山。正如你所看到的,正如你所看到的,robo taxi拐点即将到来。在未来,每年行驶数万亿英里,每年制造1亿辆汽车。全世界有大约5000万辆出租车。它将被大量robo taxi增强。所以,这将是一个非常大的市场,将其连接并部署到世界各地。
与Uber的合作
今天,我们宣布与Uber建立合作伙伴关系。Uber,Derek,Dara,Dara将要,我们正在合作将这些NVIDIA Drive Hyperion汽车连接到全球网络,现在在未来你会能够召唤这些汽车中的一辆,生态系统将非常丰富,我们将在世界各地拥有Hyperion或Robo taxi汽车。这将成为我们的新计算平台,我期待它会相当成功。好的。
所以这就是我们今天谈到的。我们谈到了大量的事情。我们谈到了,记住这的核心是两个或两个平台转型,从通用计算到加速计算。英伟达CUDA和那套被称为CUDA-X的库使我们能够触及几乎每个行业,我们处于拐点。它现在正在增长,正如良性循环所暗示的那样。
第二个拐点现在降临到我们身上。第二个平台转型,AI,从经典的手工编写软件到人工智能。两个平台转型同时发生,这就是为什么我们感受到如此难以置信的增长。
量子,量子计算。我们谈到了开放模型。我们谈到了,我们谈到了与CrowdStrike和Palantir的企业加速他们的平台。我们谈到了机器人技术,潜在的最大消费电子和工业制造部门之一。当然我们谈到了6G。英伟达有6G的新平台。我们称之为ARC。我们有机器人汽车的新平台。我们称之为Hyperion。我们甚至有工厂的新平台。两种类型的工厂。AI工厂,我们称之为DSX。然后带有AI的工厂,我们称之为Mega。
所以现在我们也在美国制造。女士们先生们,感谢你们今天加入我们,感谢你们让我带来……
感谢你们让我们将GTC带到华盛顿特区。我们希望每年都能举办。感谢你们所有人的服务,让美国再次伟大。谢谢。
来源:时空探险家
