摘要:2024 年初,无论好坏,很明显,Windows 的未来将充满AI增强的功能和体验。主要功能包括实时字幕和翻译、MS Paint 中的图像生成,以及最终有点可疑的回忆功能,该功能可捕获定期屏幕截图并使用它们来跟踪过去的活动。
Nvidia 是 AI 基础设施领域无可争议的冠军——至少在数据中心领域。在 AI PC 这一新兴领域,情况并不那么明朗。
2024 年初,无论好坏,很明显,Windows 的未来将充满AI增强的功能和体验。主要功能包括实时字幕和翻译、MS Paint 中的图像生成,以及最终有点可疑的回忆功能,该功能可捕获定期屏幕截图并使用它们来跟踪过去的活动。
目前,这些新功能仅限于所谓的 Copilot+ PC,但为了获得该称号,计算机必须满足微软的最低性能目标。
根据 Windows 巨头的文档,Copilot+ PC 需要一个能够每秒执行 40 TOPS 或更高速度的神经处理单元 (NPU),或每秒执行 40 多万亿次 INT8 AI 操作,以及至少 16GB 的 RAM 和 256GB 的存储空间。当这一切推出时,只有高通拥有能够满足雷德蒙德 NPU 要求的处理器,因此只有配备该芯片的 PC 才被允许作为 Copilot+ PC 运行上述 AI 增强功能。
从那时起,高通符合 Arm 要求的 X 芯片就与英特尔的 Lunar Lake 以及 AMD 的 Strix Point 和 Halo 处理器系列一起成为符合 Copilot + PC 标准的芯片。
然而,不知何故,本月在 CES 2025 上发布的售价 2,000 美元的 Nvidia RTX 5090拥有超过 3.3 petaFLOPS 的 AI 计算能力(顺便说一下,这是 FP4),对于雷德蒙德来说仍然不够好。无论您的 GPU 可以产生多少 FLOPS 或 TOPS,对微软来说,只有NPU能够产生这些 FLOPS 才是最重要的——至少目前是这样。
Nvidia在AI PC方面并未懈怠
人工智能 PC 的大部分营销宣传都围绕着微软的 Copilot+ 规格,这是可以理解的。如今,几乎每台售出的 PC 都运行 Windows。PC 软件生态系统的主导地位使得微软对 NPU 的痴迷难以忽视,但这并不意味着 Nvidia 一直固步自封,满足于在数据中心、工作站图形和独立游戏 GPU 领域称霸。
事实上,Nvidia 多年来一直致力于将 AI 功能引入 PC,Nvidia 负责 Windows AI 产品营销的 Jesse Clayton 向The Register表示。
克莱顿说:“早在 2018 年,我们就推出了首款配备专用 AI 硬件(即我们的张量核心)的 GeForce GPU 和 Nvidia GPU,从而开启了 PC 上 AI 的浪潮。与此同时,我们还宣布了首个广泛部署的 PC AI,即 DLSS,它用于游戏中,通过使用 AI 生成像素来加速帧速率,现在又可以为游戏生成帧。”
此后,这家 GPU 巨头推出了RTX AI 工具包,这是一套用于在 Windows PC 上优化和部署 genAI 模型的工具和软件,将 Nvidia 推理微服务 ( NIM ) 引入 PC,并推出了许多蓝图,用于最先进的图像生成和将 PDF 转换为播客等。
克莱顿解释说:“我们的策略是提供有趣且差异化的体验,无论是作为游戏玩家,因为它可以增强你的游戏体验;还是作为创作者,因为它可以节省你的时间并减少重复而繁琐的工作。”
虽然其中一些体验直接针对最终用户(例如 ChatRTX 和 RTX Voice),但 Nvidia 最近推出的许多软件都是针对开发者社区的。
竞争还是机遇
不管你对 Copilot+ 的实际价值有何看法,微软已经成功迫使芯片组设计师提供某种形式的 NPU,以满足 Windows 巨头的需求,同时也为机器学习性能设定了新的最低标准。
考虑到 Windows 的市场份额以及微软将 AI 强行塞入其软件各个角落的持续努力,NPU 渗透到甚至最低预算的配置中只是时间问题。
此外,采用 Microsoft 的DirectML和ONNX Runtime等框架有助于简化应用程序开发,并允许代码以最少的重新调整在各种硬件上运行。
这对 Nvidia 来说是一个潜在的问题。这家硅谷巨头可能在独立显卡处理器市场占据主导地位,被其CUDA 护城河所包围,但其 GPU 只在售出的 PC 中占比约18%,绝大多数系统使用英特尔、AMD 或其他公司的集成显卡。
可以肯定的是,不久之后,NPU 将成为开发 AI 应用的开发人员的更大目标。尽管 Nvidia 不一定会退出讨论,因为它的加速器也支持许多更受欢迎的软件框架,但至少它的部分竞争优势在于说服开发人员使用其库和微服务,这些库和微服务有望实现更轻松的集成以及更高的性能和效率。
克莱顿表示,最终,开发人员必须决定是否要使用 NIM 之类的东西快速将他们的应用推向市场,或者是否要支持尽可能多的安装基础。
不过,尽管 Nvidia 最终可能会面临来自 NPU 的竞争(AI PC 仍然是一个相当小众的市场),但这未必都是坏消息。即使模型最终没有在 Nvidia 的 PC 硬件上运行,它们也极有可能在其 GPU 上进行训练。
即便如此,Clayton 仍认为 NPU 并不适合所有工作负载。40 TOPS 是一个不错的计算量,但正如我们之前提到的,与高端图形芯片的性能相比,它显得微不足道。
他说:“NPU 将成为运行轻量级 AI 工作负载的地方,而且它们的能效非常高。GPU 则是运行要求更高的 AI 用例的地方,这也是我们一直在推动和集中精力的地方。”
“对于那些无法在 PC 上运行的东西,你可以在云端的 GPU 上运行它们,这样你就可以获得无限的性能,”Clayton 补充道。
GPU或许会受到Copilot+的青睐
已经有证据表明,微软可能会将一些 Copilot+ 功能扩展到 GPU,以支持未来更具计算挑战性的工作负载。
微软没有回答我们关于其利用 GPU 计划的问题。不过,在 6 月份的一份声明中,Nvidia 表示正在与微软合作,通过 Windows Copilot Runtime 为小型语言模型 (SLM) 添加 GPU 加速。
该技术原本应该在 2024 年底实现,但微软自己的文档(上次更新时间为 12 月 5 日)并未提及 GPU,而是特别指出 NPU 是其尚未推出的 SLM Phi Silica 项目的必要条件。
克莱顿拒绝提供有关合作的任何最新消息,并表示“最终,微软将决定在哪里运行哪些工作负载。”
微软是否以及何时选择将 GPU 用于本地 AI 最终可能取决于硬件可用性。截至撰写本文时,配备 NPU 和专用显卡的 Copilot+ PC 数量相当少。
在桌面上,情况更加棘手。带有 NPU 的桌面芯片确实存在,但据我们所知,它们都没有达到微软 40 TOPS 的性能要求。我们预计更强大的 NPU 很快就会进入桌面芯片领域。英特尔或 AMD 只需找到一种方法,将其移动芯片中的 NPU 塞进桌面芯片中即可。
来源:智慧芯片