摘要:2024 IEEE IEDM 会议目前正在美国加州旧金山举行。据分析师 Ian Cutress 在其社交平台上发布的动态,英伟达在本次学术会议上分享了有关未来 AI 加速器设计的愿景。
来源:TECHPOWERUP
2024 IEEE IEDM 会议目前正在美国加州旧金山举行。据分析师 Ian Cutress 在其社交平台上发布的动态,英伟达在本次学术会议上分享了有关未来 AI 加速器设计的愿景。
英伟达认为未来整个 AI 加速器复合体将位于大面积先进封装基板之上,采用垂直供电,集成硅光子 I/O 器件,GPU 采用多模块设计,3D 垂直堆叠 DRAM 内存,并在模块内直接整合冷板。
在英伟达给出的模型中,每个 AI 加速器复合体包含 4 个 GPU 模块,每个 GPU 模块与 6 个小型 DRAM 内存模块垂直连接并与 3 组硅光子 I/O 器件配对。
硅光子 I/O 可实现超越现有电气 I/O 的带宽与能效表现,是目前先进工艺的重要发展方向;3D 垂直堆叠的 DRAM 内存较目前的 2.5D HBM 方案拥有更低信号传输距离,有益于 I/O 引脚的增加和每引脚速率的提升;垂直集成更多器件导致发热提升,模块整合冷板可提升解热能力。
热管理是另一个关键考虑因素。多层 GPU 设计带来了复杂的冷却挑战,而目前的技术无法充分解决这一问题。NVIDIA 承认,在将 DRAM 堆叠在逻辑上的概念成为现实之前,材料科学必须取得重大进展。该公司正在探索创新解决方案,包括实施芯片内冷却系统,例如使用专用冷板进行模块级冷却。这种设计的商业化还需要一段时间,Ian Cutress 博士等分析师预测,采用这种技术的产品可能会在 2028-2030 年左右上市。
来源:半导体芯科技SiSC
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!