第四范式(06682)发布“Virtual VRAM”虚拟显存扩展卡 GPU资源利用率实现突破

B站影视 韩国电影 2025-09-30 09:33 1

摘要:在AI大模型迅速发展的背景下,GPU显存容量正成为制约模型训练与推理效率的关键瓶颈。单卡运行时显存不足,又或是轻负载场景中一模型一卡的部署形态,无不反映出市场对高效、低成本扩展显存资源的迫切需求。

智通财经APP获悉,在AI大模型迅速发展的背景下,GPU显存容量正成为制约模型训练与推理效率的关键瓶颈。单卡运行时显存不足,又或是轻负载场景中一模型一卡的部署形态,无不反映出市场对高效、低成本扩展显存资源的迫切需求。

近日,第四范式(06682)正式推出了“Virtual VRAM”可插入式虚拟显存扩展卡,该产品通过将物理内存转化为可动态调度的显存缓冲池,实现了GPU算力资源的弹性扩展。第四范式创始人戴文渊,第四范式联合创始人、首席科学家陈雨强出席发布活动。

传统GPU显存容量固定且扩展成本高昂,限制了AI模型规模的扩大与多任务并发能力。用户往往只能通过购置更高端显卡或多卡并行来缓解压力,导致投入成本急剧上升。第四范式的“Virtual VRAM”创新性地构建了显存与内存之间的高速数据通道,将内存虚拟为显存使用,相当于为原有的“固定备菜台”配置了一个可灵活调度的“储藏室”,从而在不大幅变更硬件结构的前提下,突破显存容量限制。

据第四范式联合创始人、首席科学家陈雨强介绍,单张显卡在使用该扩展卡后,虚拟显存容量最高可扩展至256GB。以NVIDIA H20显卡为例,其原生显存为96GB,扩展后相当于10张NVIDIA RTX 4090或6张NVIDIA A100的物理显存容量。用户无需更换硬件,即可在接近原生大显存性能的状态下,运行更大规模的AI训练与推理任务。

该产品主要面向两大应用场景:一是在大模型单卡运行显存不足时,用户可通过调用内存资源继续完成任务,从而避免采购额外显卡,显著降低成本;二是在轻负载场景中,可将多个模型部署于同一GPU,实现资源动态调度,有效解决“一模型一卡”带来的资源闲置问题。

此外,“Virtual VRAM”具备高度兼容性与部署便利性。产品支持物理机、Docker容器及Kubernetes等云原生环境,用户无需修改现有代码或重新编译即可实现即插即用,大幅降低了部署复杂度和二次开发成本。

分析认为,随着AI模型数量与参数规模持续高速增长,显存容量已成为制约企业AI能力构建与成本控制的关键因素。第四范式此次发布的新产品,有望为企业提供更具性价比的算力扩展方案,帮助用户在保持高性能的同时进一步实现降本增效。未来,第四范式计划与更多内存厂商展开合作,持续推动AI基础设施的优化与普及。

来源:智通财经APP

相关推荐