摘要:随着AI工作负载超出传统DRAM的能力,Compute Express Link应运而生,成为内存危机的解决方案。
随着AI工作负载超出传统DRAM的能力,Compute Express Link应运而生,成为内存危机的解决方案。
目前80%至90%的AI计算资源来自推理,而非训练。
支持这些任务所需的运算规模之大令人咋舌。
训练OpenAI的GPT-4估计消耗了50千兆瓦时的电力,足以为数万户家庭供电数天。
将训练中的功耗与推理工作负载所需的能源相结合,当前数据中心基础设施的压力显而易见。
传统架构已无法跟上时代的步伐。
采用专用DRAM和普通NVMe SSD的传统架构成本高昂、功耗高且效率低下,因为会遇到数据管道瓶颈。
对更智能、可扩展且节能的解决方案的需求日益增长。
Compute Express Link (CXL) 应运而生,成为下一代AI应用的颠覆者。
在传统设置中,扩展内存意味着添加更多服务器或CPU插槽来连接更多内存。
这种方法存在两个主要问题:
成本禁止,添加服务器会增加硬件成本。
能源效率低下,更多的服务器意味着能源使用量猛增,给可持续发展目标带来巨大压力。
如果没有突破性进展,随着工作负载的增加,数据中心将面临效率低下的困境。
通过将内存与CPU插槽分离,CXL使数据中心能够集成内存池、共享和动态分配功能。
这项创新解决了关键瓶颈,并为可扩展的基础设施奠定了基础,满足人工智能的复杂需求。
CXL主要优势包括:
动态内存池:
CXL支持将集中式内存资源池化,并在多个设备之间共享。
CPU、GPU和AI加速器现在可以访问统一的内存池,从而确保最佳利用率,并显著提高硬件利用率。
无需过度配置即可实现可扩展性:
传统内存通道受限于CPU架构。
CXL突破了这些限制,无需添加更多物理服务器,即可独立且经济高效地扩展内存。
低延迟,助力实时应用:
CXL的低延迟架构确保设备间通信顺畅。
这对于自主系统和交易算法等人工智能应用至关重要,因为即使是轻微的延迟也会影响性能。
通过效率实现可持续发展:
通过实现更智能的内存分配,由CXL驱动的数据中心整体耗电量更低。
减少对过度配置硬件的需求,从而节省能源,使企业能够在降低成本的同时,实现可持续发展目标。
集成CXL架构可将内存带宽提升高39%,并将AI训练性能提升24%。
利用CXL等创新技术增强基础设施不仅仅是升级,更是企业寻求竞争优势的必要手段。
来源:随性自由的溪流qJt一点号