摘要:目前市场上PCIe 6.0产品仍处于部署初期阶段,大多集中在数据中心级别硬件中。已知情报显示,Intel下代服务器级CPU“Xeon 7(代号Diamond Rapids)”将支持PCIe 6.0/6.x链路 ;而AMD方面,目前桌面/数据中心处理器(如Zen
目前市场上PCIe 6.0产品仍处于部署初期阶段,大多集中在数据中心级别硬件中。已知情报显示,Intel下代服务器级CPU“Xeon 7(代号Diamond Rapids)”将支持PCIe 6.0/6.x链路 ;而AMD方面,目前桌面/数据中心处理器(如Zen 5/Zen 4架构)尚停留在PCIe 5.0,预计PCIe 6.0要到Zen 6(2027年甚至有说到2030年左右)才会支持。存储控制器厂商中,Micron于2025年8月推出了数据中心级PCIe 6.0 SSD “Micron 9650”,标称连续读写速率分别达28GB/s和14GB/s ,不过其工业级E3.S/E1.S封装并不适用于普通PC;Phison等厂商也在积极开发PCIe 6.0 SSD控制器(例如曝光的SM8466)。FPGA厂商方面,AMD(前身Xilinx)推出了第二代Versal Premium SoC,其集成硬件IP支持PCIe 6.0和CXL 3.1 。至于GPU,目前主流加速卡(如NVIDIA Ada系列、AMD CDNA系列)仍使用PCIe 5.0,尚无公开PCIe 6.0 GPU产品,但未来高端AI加速卡可能会跟进。网络和互连设备方面,虽然PCIe 6.0NIC尚未流片,但部分企业已有内部互操作测试:今年6月PCI-SIG研讨会即演示了PCIe 6.0链路连通性(包括光纤、CR链路)测试。总体来看,业界普遍认为,企业级(AI/数据中心)应用将首先采用PCIe 6.0,而桌面级消费领域恐怕要等到2030年前后才逐步跟进 。据PCI-SIG官方预计,首批PCIe 6.0整合列表将于2025年前后发布,这意味着搭载PCIe 6.0的CPU、芯片组、SSD、GPU等产品可能在2025年底至2026年初陆续亮相
服务器CPU :Intel Diamond Rapids(Xeon 7代)支持PCIe 6.0链路;AMD目前尚无正式PCIe 6.0服务器CPU上市。
桌面CPU :现有AMD/Intel旗舰CPU使用PCIe 5.0(如AMD X870芯片组为PCIe 5.0) 。下一代桌面平台(如Intel 14代、AMD Zen 6)才可能引入PCIe 6.0。
GPU/加速卡 :目前均在PCIe 5.0,有消息称客户端PCIe 6.0 SSD要到2030年才有需求 ,GPU大概也是类似时间线。
存储SSD :Micron 9650为首款PCIe 6.0 SSD,可达28GB/s读取 ;其它厂商控制器开发中。
FPGA/加速器 :AMD Versal Premium Gen2硬件IP已支持PCIe 6.0 ;Intel FPGA暂未披露具体进度。
NIC/交换芯片 :目前关注更多的是400GbE/800GbE速度及UEC兼容(见下文),PCIe 6.0接口预计搭配下一代芯片使用,暂无商用产品。
总体而言,PCIe 6.0设备多集中于“AI & 数据中心”场景,在服务器平台和专业加速器上率先部署;对于普通PC和消费级设备,则暂时兴趣不大 。
2. PCIe 7.0/8.0演进与推动动因PCI-SIG计划在2025年上半年完成PCIe 7.0规范,并随后于2028年发布PCIe 8.0规范 。PCIe 8.0将把每通道速率提升至256 GT/s(x16总线带宽≈1 TB/s) 。PCIe 8.0延续了“每三年翻倍速率”的传统:PCIe 7.0目前已确定每通道128 GT/s 。PCI-SIG官方指出,此举旨在满足AI/机器学习、超高速网络、边缘计算等新兴应用的需求 。Tom’s Hardware评论强调,PCIe 8.0将“维持我们每三年翻倍带宽的传统,以支持下一代应用”,并指出AI等应用对高性能互连有强烈需求。从技术角度看,PCIe 7.0/8.0的推进也是应对信号完整性和能耗挑战的努力:PCI-SIG已在研究新连接技术和高级编码方式,以克服PAM4铜线256 GT/s带宽所面临的极限 。
为何PCI-SIG如此加速发展8.0,有分析认为与AI数据中心互联竞争有关。近年业界出现了基于Ethernet的“超以太网”(UEC)以及面向加速器的“超加速互联”(UALink)标准组织,它们有意挑战NVIDIA的Infiniband/NVLink垄断。PCIe 8.0大幅提升带宽,可视为PCI-SIG的回应策略:保持PCIe在高性能场景中的领先地位,同时吸引数据中心采用。Tom’s Hardware引用PCI-SIG主席Al Yanes的话强调,AI等应用持续拉高数据吞吐量要求,PCIe要继续提供“高带宽、低延迟”连接 。可以认为,这既是技术发展需要,也是面对UEC/UALink等新兴互联标准的一种市场竞争策略。
图1:PCIe各代理论带宽(x16通道配置)示意图,从PCIe 1.x到PCIe 8.0,带宽逐代翻倍。可以看到,PCIe 8.0在x16下可达约1 TB/s。
3. UEC 与 UALink:组织背景与链路技术超以太网联盟(UEC) 由AMD、Arista、Broadcom、Cisco、HPE、Intel、Meta、微软等行业巨头于2023年7月联合发起 。UEC专注于“ 以太网优化方案 ”:在以太网物理层及协议层进行增强,以满足AI/HPC对大规模集群网络带宽、低延迟和可扩展性的要求,同时保持与传统以太网生态的兼容 。2025年6月,UEC发布了规格1.0(全栈Ethernet通信架构) ,提出对NIC、交换机、光学链路等全层级进行优化,包括现代化的以太网RDMA(低延迟高吞吐)和互操作性保证 。UEC还强调防止厂商锁定,通过开放标准实现多厂商互通 。截至2024年,UEC成员迅速增长,已有120余家成员,国内外众多云/网络厂商参与(详见UEC官网) 。简言之,UEC是“基于增强型以太网实现 大规模横向扩展 (Scale-Out)”的产业组织,面向成千上万节点的AI集群互联需求。
超加速互联联盟(UALink) 于2024年10月28日由AMD、AWS、Google、Cisco等九家发起成立 (Broadcom原本在发起阵容中,但据报道后期退出创始董事会,仅作为贡献者参与 )。UALink的定位是“ 加速器Scale-Up互连协议 ”:提供类似NVLink的高性能内存语义互连,支持节点内上百个加速器连接。其规范计划在2024年下半年发布1.0版,目标支持最多1024个终端和每通道200Gbps的传输率 。根据发布信息,UALink特别支持GPU、CXL加速器等设备的内存共享访问及超低延迟通信 。也就是说,UALink在设计上更贴近PCIe等I/O互连(事实上Astera Labs推出的相关交换芯片已支持基于PCIe 6.0的GPU–GPU互联 ),但以开放标准方式实现。当前UALink已吸引约30余家厂商参与,包括云提供商、硬件厂商与IP设计商 。
底层链路对比 :UEC依托传统以太网物理层,通过在链接层/网络层加入RDMA(RoCE)、优先级流控(PFC)、细粒度拥塞控制(DCQCN等)等技术来降低尾时延、保障吞吐 。PCIe本身是点对点、基于信用的流控,可实现无数据包丢失的快速通信;而增强以太网需要利用无损流控机制和智能拥塞管理来弥补分组式网络的不足。与此相对,UALink则更贴近PCIe链路:支持高速且低延迟的点对点连接,并原生支持内存一致性和显存共享。U.S. 评论指出,“许多公司尝试用标准PCIe交换机扩展加速器规模,但业界认为这只是权宜之计。NVIDIA的NVLink是业界Scale-Up的黄金标准,现在大家正在推出开放的竞争者” 。可以看出,UALink(Scale-Up)与UEC(Scale-Out)在目标场景上有所区别,前者主要面向节点内部(或少量机架)级别的GPU/加速器高带宽互连,后者用于大规模服务器集群互连。
受欢迎程度与走向 :目前UEC在网络与云领域获得广泛关注,其1.0规格已发布 ,业界普遍认为以太网为大规模部署更易接受;而UALink旨在打破加速器互联的垄断,已有众多企业支持。两者短期内不会合并,因为它们分别优化不同层面:UEC增强以太网广域互连,UALink构建内部高速互连。Broadcom在其中居于核心位置:它既是UEC创始成员 ,也积极参与UALink生态。STH评论认为,Broadcom“无论谁占优势,Broadcom都在提供互连设备(无论Scale-Up还是Scale-Out)。对超大规模数据中心来说,投资标准互联基础设施更有意义” 。总之,当前业界对UEC(以太网Scale-Out)接受度较高,而UALink(PCIe-like Scale-Up)则被视为NVLink的开放竞争方案,未来能否整合两者还有待观察。
4. NVIDIA 在各标准中的态度与 NVLink “假开源”争议NVIDIA在上述各组织中的角色具有代表性。 PCIe-SIG 方面,NVIDIA长期为会员企业,无论在GPU还是Infiniband/DPU(Spectrum/X)产品线上都依赖PCIe基础。 UEC 方面,NVIDIA早期保持观望,但2024年9月正式加入UEC 。官方称这并非放弃InfiniBand,而是“支持整个生态”,同时展示了其Ethernet产品(Spectrum-X以太网交换机等)的一致性 。NVIDIA公开表示:“我们认同以太网需要随AI演进,我们的端到端平台(Spectrum-X、BlueField-3)已经体现了AI互联特性,并将支持新的标准” 。换言之,NVIDIA在以太网方面虽有投入,始终与其InfiniBand业务并行。
UALink 方面,NVIDIA未参与联盟。如STH所说:“除了NVIDIA,其余人都组成了联盟去挑战它” 。NVIDIA自有NVLink/NVSwitch生态,坦言尚不急于开放。然而NVIDIA今年提出“NVLink Fusion”计划,允许部分厂商获取NVLink互联许可,却备受争议。有报道指出NVIDIA仅向少数合作伙伴(Cadence、Synopsys、Alchip、Astera等)开放NVLink硬件层IP,但对软件层和配置仍严格控制,甚至要求平台必须包含其GPU/CPU/交换芯片 。Tom’s Hardware批评称,“NVLink Fusion并未真正让NVLink成为开放行业标准,只对选定伙伴开放,而且NVIDIA依旧掌握关键协议和软件” 。分析人士认为,此举更多是NVIDIA维系生态、受控扩展NVLink,以减少竞争对手(如UALink)吸引力,而非完全开源 。因此,NVIDIA的“开源NVLink”策略被业内讥讽为“假开源”——表面上开放,实则保持大部分控制权。
CXL 方面,NVIDIA亦为早期CXL联盟成员(并在自家系统上支持CXL内存扩展)。但NVIDIA的显卡架构则更侧重本地内存一致性(NVLink)与自家GPU通信,对CXL关注不如产业CPU阵营。综上,NVIDIA在PCIe-SIG、UEC、CXL中保持参与和支持,但在UALink(对手联盟)和NVLink开放策略上则更保守和竞争性。
5. Scale-Up 与 Scale-Out 架构及互联技术定位在AI智算中心中, 横向扩展(Scale-Out) 与 纵向扩展(Scale-Up) 分别对应不同的互联层面和技术选型。Scale-Out指跨服务器节点的扩展:各机柜或节点通过网卡与交换机互连,构建数千至数万个GPU/节点的大规模集群。此场景下常用 Ethernet 或 Infiniband 网络。Ethernet(尤其是经过UEC优化的超以太网)以广泛部署著称,可利用低成本交换设备实现大规模互联,支持多达数百万终端 ;InfiniBand则提供传统的低时延、RDMA能力,曾是HPC的主流后端网络。Scale-Out网络关注的是带宽密度、拥塞控制与容错,UEC和Infiniband均支持RDMA以提供算集群内部高效数据流;最新的UEC也专注于“极致带宽和低时延特性”来挑战Infiniband 。
Scale-Up指单个服务器或超级节点内部的扩展:在机架或节点内将多块GPU、加速卡连接起来,实现“超节点”级别的并行计算。Scale-Up互联强调极低时延和共享内存语义。例如NVIDIA DGX系列内置NVSwitch以实现多达数十块GPU内存一致访问;ASIC厂商亦推出各类加速器SoC和CXL互联,以供CPU与加速器共享内存。STH指出,行业过去尝试用PCIe交换技术做Scale-Up,但NVLink被视为 黄金标准 ;为了对标NVLink,业界新兴的 UALink 即为专门的加速器Scale-Up互联协议,支持千余节点和超大带宽 。此外, CXL 提供CPU到加速器或内存扩展的缓存一致性协议,也是Scale-Up架构中常见的技术之一。
具体技术定位归纳如下:
PCIe :通用I/O互连技术,用于服务器主板内CPU与GPU/NIC/SSD等设备连接,主要在Scale-Up层面上提供通道(但原生不具备跨节点互连)。未来PCIe 6.0/7.0可以通过光学互连或远程PCIe扩展卡进行节点间连接,但目前主要局限于机内互连。
CXL :基于PCIe的缓存一致互连标准,用于CPU和加速器/内存之间共享内存、资源聚合,典型用于单服务器内部Scale-Up(例如内存池化或GPU直连内存访问),强调高带宽和缓存一致性。
UEC / 超以太网 :增强型以太网通信栈,定位于 Scale-Out 场景。它利用以太网技术优势,加入低延迟RDMA、优先流控等特性,面向成千上万节点的AI/HPC集群网络互联 。
UALink :开源加速器Scale-Up互连协议,定位类似NVLink但开放标准。它在一个超节点内提供高带宽(≥200Gbps通道)、低延迟、GPU显存共享等能力,允许不同厂商GPU/加速器协同工作 。
NVLink :NVIDIA专有的Scale-Up互连技术,用于GPU–GPU或GPU–CPU连接。通过NVSwitch可实现数十GPU的全连接网络,具备超低延迟和显存共享功能,广泛用于NVIDIA高端AI系统。
InfiniBand :标准HPC互连网络,适用于Scale-Out。InfiniBand以超低延迟(微秒级)和硬件级RDMA著称,是很多AI训练集群的后端网络首选 。当前InfiniBand阵营也在与以太网阵营争夺AI互联标准席位。
综上,在AI计算中心,Scale-Up和Scale-Out架构需要不同互联技术的协同:Scale-Up内网互联(PCIe、CXL、UALink/NVLink)负责节点内各加速单元的高速协同与内存访问;Scale-Out网络(UEC以太网、Infiniband等)则负责节点间数据通信与任务分发。各类技术在实际部署中会根据应用特点取舍。例如,企业AI集群往往使用Ethernet+Infiniband做Scale-Out网络,同时在节点内采用NVLink/CXL实现GPU加速器的高效互连。
参考资料: 我们结合PCI-SIG发布的PCIe 6.X FYI研讨会资料以及 以及UEC, UALINK 相关技术博客、新闻和白皮书,从多个角度详细展示了PCIe 6.0/7.0/8.0的规格进展、各方对AI互联标准的博弈以及现有主要硬件的部署情况,为技术读者提供了当前领域的全面视角和分析洞见。
更多关于PCIe Gen6的测试工具和技术,请下载我们Saniffer公司2025.6.16最新更新的白皮书12.3版本 - 《 PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver12.3 》。本文介绍的PCIe和UEC, UALINK等一些文章参见Chapter 1.3。 白皮书下载链接 (或者点击下面的二维码直接下载): https://pan.baidu.com/s/18_c11aeFhSBe2qa-jUFs_Q?pwd=mm9y 提取码: mm9y
如果你有其任何关于PCIe5&6.0, CXL, NVMe/NVMoF, NAND, DDR5/LPDDR5以及UFS测试方面的我问题想咨询,请访问: 访问www.saniffer.cn / www.saniffer.com 访问我们的相关测试工具和产品;或者
来源:云阳好先生做实事