摘要:2024 IEEE IEDM 国际电子设备会议目前正在美国加州旧金山举行。据分析师 Ian Cutress 的 X 平台动态,英伟达在本次学术会议上分享了有关未来 AI 加速器的构想。
IT之家 12 月 10 日消息,2024 IEEE IEDM 国际电子设备会议目前正在美国加州旧金山举行。据分析师 Ian Cutress 的 X 平台动态,英伟达在本次学术会议上分享了有关未来 AI 加速器的构想。
英伟达认为未来整个 AI 加速器复合体将位于大面积先进封装基板之上,采用垂直供电,集成硅光子 I/O 器件,GPU 采用多模块设计,3D 垂直堆叠 DRAM 内存,并在模块内直接整合冷板。
IT之家注:Ian Cutress 还提到了硅光子中介层,但相关内容不在其分享的图片中。
在英伟达给出的模型中,每个 AI 加速器复合体包含 4 个 GPU 模块,每个 GPU 模块与 6 个小型 DRAM 内存模块垂直连接并与 3 组硅光子 I/O 器件配对。
硅光子 I/O 可实现超越现有电气 I/O 的带宽与能效表现,是目前先进工艺的重要发展方向;3D 垂直堆叠的 DRAM 内存较目前的 2.5D HBM 方案拥有更低信号传输距离,有益于 I/O 引脚的增加和每引脚速率的提升;垂直集成更多器件导致发热提升,模块整合冷板可提升解热能力。
Ian Cutress 认为这一设想中的 AI 加速器复合体要等到 2028~2030 年乃至更晚才会成为现实:
一方面,由于英伟达 AI GPU 订单庞大,对硅光子器件产能的需求也会很高,只有当英伟达能保障每月 100 万以上硅光子连接时才会转向光学 I/O;
另一方面,垂直芯片堆叠所带来的热效应需要以更先进的材料来解决,届时可能会出现芯片内冷却方案。
来源:IT之家一点号