高通发布全新服务器AI芯片,与英伟达和AMD竞争

B站影视 内地电影 2025-10-27 22:09 1

摘要:高通正在与 Nvidia 和AMD竞争这些公司提供全机架系统,最多可容纳 72 块芯片,组成一台计算机。人工智能实验室需要这种计算能力来运行最先进的模型。

高通周一宣布将发布新的人工智能加速器芯片,标志着英伟达面临新的竞争该公司迄今已在人工智能半导体市场占据主导地位。

人工智能芯片是高通的一个转变,高通迄今为止一直专注于无线连接和移动设备的半导体,而不是大型数据中心。

高通表示,将于 2026 年上市销售的 AI200 和计划于 2027 年上市的 AI250 均可装入装满液冷服务器机架的系统中。

高通正在与 Nvidia 和AMD竞争这些公司提供全机架系统,最多可容纳 72 块芯片,组成一台计算机。人工智能实验室需要这种计算能力来运行最先进的模型。

高通的数据中心芯片基于高通智能手机芯片中的人工智能部件,称为 Hexagon 神经处理单元(NPU)。

高通数据中心和边缘计算总经理杜尔加·马拉迪 (Durga Malladi) 上周在与记者的电话会议上表示:“我们首先想在其他领域证明自己,一旦我们在那里建立了实力,我们就很容易在数据中心层面更上一层楼。”

高通进入数据中心领域,标志着技术领域增长最快的市场出现了新的竞争:以人工智能为重点的新型服务器群设备。

据麦肯锡估计,到 2030 年,数据中心的资本支出将接近 6.7 万亿美元,其中大部分将用于基于人工智能芯片的系统。

该行业一直由英伟达主导,其 GPU 迄今占据了超过 90% 的市场份额,其销售额推动该公司市值超过 4.5 万亿美元。英伟达的芯片曾用于训练 OpenAI 的 GPT(ChatGPT 中使用的大型语言模型)。

但像 OpenAI 这样的公司一直在寻找替代方案。本月早些时候,这家初创公司宣布计划从排名第二的 GPU 制造商 AMD 购买芯片,并可能入股该公司。其他公司,例如谷歌,亚马逊和微软,也在为其云服务开发自己的人工智能加速器。

高通表示,其芯片专注于推理或运行人工智能模型,而不是训练,而 OpenAI 等实验室则通过处理 TB 级数据来创造新的人工智能能力。

该芯片制造商表示,其机架式系统最终将降低云服务提供商等客户的运营成本,并且一个机架的功耗为 160 千瓦,与某些 Nvidia GPU 机架的高功耗相当。

Malladi 表示,高通还将单独出售其 AI 芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。他表示,其他 AI 芯片公司,例如 Nvidia 或 AMD,甚至可能成为高通部分数据中心部件(例如中央处理器,简称 CPU)的客户。

马拉迪说:“我们试图确保我们的客户能够选择全部购买,或者说‘我要混合搭配’。”

该公司拒绝评论芯片、卡或机架的价格,以及单个机架可安装多少个NPU。今年5月,高通宣布与沙特阿拉伯的HumAIn公司合作,为该地区的数据中心提供AI推理芯片。Humain将成为高通的客户,并承诺部署多达200兆瓦电力的系统。

高通表示,其AI芯片在功耗、拥有成本以及内存处理的新方法方面均优于其他加速器。该公司表示,其AI卡支持768GB内存,高于Nvidia和AMD的产品。

来源:史哥讲事爱分享

相关推荐