3nm的1.6T DSP发布,Credo如何破解AI集群“运力”瓶颈?

B站影视 韩国电影 2025-11-17 16:14 1

摘要:“在AI智算网络中,不只需要算力,还要关注运力。”Credo公司在9月9日的深圳发布会上明确提出了这一判断,“运力的基础就是高速互联——这种互联贯穿从芯片内部到服务器之间、再到数据中心互联的每一个层面。”

作者|杨依婷

编辑|包永刚

当全球科技巨头在AI算力竞赛中投入数千亿美元之际,一个新的瓶颈正悄然浮现——数据如何在庞大的AI计算集群中高效流动?

这个被称为“运力”的命题,正在成为决定AI计算效率的下一个战场。

“在AI智算网络中,不只需要算力,还要关注运力。”Credo公司在9月9日的深圳发布会上明确提出了这一判断,“运力的基础就是高速互联——这种互联贯穿从芯片内部到服务器之间、再到数据中心互联的每一个层面。”

换言之,解决互联问题,就是解决运力问题。

算力再强,如果数据传输跟不上,也难以真正释放AI系统的潜能。

也正是在这一判断下,Credo推出了其新一代旗舰产品——基于台积电3nm工艺的Bluebird系列1.6T DSP。

这款产品的推出,代表着Credo在高速光互联领域的又一次技术跨越,也为应对AI算力集群的“运力”瓶颈,提供了一个兼具前瞻性与落地可行性的关键方案。

与以往产品相比,Bluebird系列的设计目标明显更具挑战:在突破1.6T带宽的同时,实现“超低功耗”与“超低延迟”的协同优化。这意味着它不只是性能的跃升,更是面向AI时代网络架构需求的一次结构性革新。

Credo光DSP产品营销副总裁Chris Collins在会上指出,AI数据中心的光互联需求正迎来爆发期,根据其调研,“至少有11家公司每年在AI数据中心领域投入超过50亿美元,部分公司甚至超过1000亿美元,其中约16%用于网络建设。这对于以太网与光互联行业而言,是一个前所未有的增长窗口。”

他进一步分析了智算网络对互联有着巨大需求的原因——AI网络与通用计算网络的差异:“虽然两者都存在一个带交换机的以太网,但在AI网络中,还存在一个完全独立的后端网络,用于将所有GPU互联,形成一个更大的GPU来做大模型的训练。”正因为如此,AI网络所需的光收发器数量,至少是通用计算网络的两倍多,甚至接近十倍。

这种结构性的变化,使得高速互联技术从过去的“配套设施”升级为AI计算的“核心基础设施”,正是在这个技术转折点上,Credo将其17年在高速连接领域的技术积累,全面押注于解决AI时代的“运力”挑战。

一、Bluebird 1.6T DSP:更快、更聪明、更节能

当光模块加速迈向1.6T时代,挑战早已超越“更快”本身。

“今天大家都在谈论1.6T光模块,但这不仅仅意味着速率更高。”Chris Collins说,“在一秒钟内,有1.6万亿个0与1通过DSP传输,真正的挑战在于——如何确保每一个比特都被正确且高效地接收。”

这意味着,在AI训练和推理场景中,信号完整性与能效的平衡已成为高速光互联的核心命题。

为应对这一挑战,Bluebird DSP采用了台积电3nm CMOS工艺,并在设计中延续了Credo一贯的“定制化优化”设计理念——工程团队在标准设计单元(cell)基础上,开发定制的芯片设计单元和时序结构,而非依赖通用标准单元,从而在不牺牲性能的前提下,将功耗优化至最佳水平。

配置方面,Bluebird提供4×224 Gbps和8×224 Gbps PAM4两种版本,既能满足800 G高密度互联需求,也可支撑1.6T光模块的更高带宽场景。同时,Credo同步推出了全功能DSP版本与线性接收光模组(LRO)版本,以适配不同规模和架构的AI数据中心部署,包括scale-up与scale-out等多样化网络形态。

针对AI集群中GPU间通信的高延迟瓶颈,Bluebird将往返单向时延压缩至

Bluebird不仅关注性能指标,也在系统层面做了深度优化,其内置的全链路遥测功能,可实时监控与诊断信号状态,从而提升系统可靠性与在线时长。这些功能同样适用于故障隔离、调试与量产测试等阶段,帮助用户提升部署与维护效率。

此外,Bluebird DSP在电口与光口两端均配置了可调式性能优化功能套件,用户可根据不同应用场景灵活启用或关闭特定模块,以在光器件选型、系统集成及主机ASIC互操作性测试中获得最佳匹配效果。

凭借定制化架构与工艺优化,Bluebird 1.6T全DSP光模块功耗低于25W;若采用Credo的线性接收光模组(LRO)方案,功耗可进一步降至低于20W,甚至接近现有800G光模块的能耗水平。

由此,Bluebird真正实现了“更快、更聪明、更节能”的设计初衷——以1.6T速率突破带宽极限,以智能架构优化信号完整性与链路管理,并以极致能效重塑AI光互联的新平衡。

二、不止于DSP:构建“运力网络”的产品矩阵

在Credo的战略版图中,1.6T DSP只是“运力网络”的一个关键节点,真正的目标,是构建一条贯穿芯片、模块与系统的全栈高速互联链——从AEC、PCIe到SerDes IP,Credo正在用十余年的积累,重塑AI数据中心的“互联底座”。

早在AI算力爆发之前,Credo就已着手探索“高带宽、低功耗”的互联形式,其在七八年前推出的AEC(Active Electrical Cable)产品,通过内置自研的Retimer与Gearbox芯片,可替代传统高功耗光模块,在保持信号完整性的同时实现最长7米的机柜内或跨机柜互联。

凭借出色的功耗控制与稳定性,AEC迅速在AI服务器中获得广泛应用,Credo销售副总裁杨学贤(Simon Yang)指出:“AEC的应用正在从机架内延伸至跨机架连接。客户之所以选择它,是因为它在功耗、可靠性和成本上的综合优势。”

他表示:“我以前从未想过铜缆能替代光纤,但现在这正在发生。”

这一趋势让AEC成功占据了AI网络“短距互联”的关键生态位,也为Credo的系统化布局打下基础。

在短距互联之外,Credo同样在服务器内部总线和集群互联层面发力。

基于AEC技术积累,公司推出了PCIe AEC产品线,以满足AI服务器中Scale-up场景下GPU与CPU、GPU与GPU之间的高速互联需求。

更值得关注的是,Credo已满足PCIe Gen 6标准的产品 – Toucan retimer以及Toucan AEC。Simon介绍,该产品基于7nm工艺与自研SerDes技术,支持更高信号速率,并通过工具PILOT实现链路状态可视化,让客户能够实时监测、分析乃至预测链路性能变化。

这意味着,Credo不仅在做“物理连接”,更在构建智能可管理的运力链路。

而贯穿上述所有硬件产品与工具的,是Credo更为底层的技术根基——自主开发的硅知识产权(IP),“Credo的创新始于SerDes。它既可以作为独立IP授权,也能集成到芯片,再进一步扩展到系统级方案。”

从IP到芯片,再到系统,这种“垂直贯通”的创新体系,使Credo能够在AI时代实现从底层信号处理到系统互联的全栈优化,这不仅让公司产品具备一致的技术逻辑,也让其在多层网络架构中保持高兼容性与高能效。

随着AI模型规模不断扩大、GPU集群愈发密集,‘运力’将与算力并列,成为AI基础设施的新核心指标。

在AI高速互联的时代拐点上,Credo正以从SerDes IP到系统产品的全栈创新,构建AI“运力网络”的新标准——让数据流动的效率,真正匹配算力的爆发。

来源:大力财经

相关推荐