摘要:企业可以利用AI基础设施中的算力、存力、算法和数据,推动业务实现智能化创新与进步。特别是在智能汽车、具身智能机器人、智能制造等新兴领域的发展过程中,AI基础设施带来的价值日益凸显。
当前,随着大模型行业应用的展开,打造AI基础设施在全球受到前所未有的重视,美国星际之门,法国的France 2030……
企业可以利用AI基础设施中的算力、存力、算法和数据,推动业务实现智能化创新与进步。特别是在智能汽车、具身智能机器人、智能制造等新兴领域的发展过程中,AI基础设施带来的价值日益凸显。
不过,推动AI基础设施建设,在算力需求上呈现出了三大趋势:算力需求分层、存算协同、GPU国产替代。其中,先进存力依然占据着基石地位。
全球存储观察分析指出,随着中国存储力量的逐渐崛起,借助AI基础设施建设的大好机遇,加速弯道超车,大有可为。
聚焦存力需求变革,以创变应万变
AI训练与推理的应用对高性能存储产品可谓是刚需。近年来中国存储厂商在高性能存储领域不断发力,正好可以立足当前AI应用,顺势而为,在数据存储领域推陈出新,以满足AI基础设施对存储的高要求。
伴随DeepSeek出现,通过算法优化和混合精度训练,大模型训练成本已经大幅降低。开源模型开始推动推理需求爆发,推理普及化与专业化,企业可基于DeepSeek蒸馏小模型,结合领域数据微调,实现低延迟、高精度推理,边缘端部署成为可能。同时对于数据模型精细化要求提升,就此带来了存力需求的三大变革。
一是,刺激了数据存储需求增加。随着大模型的广泛应用和推理需求的增长,数据的产生和存储需求也在不断增加。企业需要处理和存储大量的训练数据、模型参数以及推理过程中产生的中间结果,这对存储系统的容量和性能提出了更高的要求。
二是,迫使存储性能要求提升。为了满足大模型快速推理的需求,存储系统需要具备更高的读写速度和更低的延迟。传统的存储架构可能无法满足这些要求,因此需要采用更先进的存储技术和架构,如分布式存储、闪存存储等,以提高存储系统的性能和可靠性。
三是,强化数据管理并确保安全性。大量的数据存储也带来了数据管理和安全性的挑战。企业需要建立有效的数据管理系统,确保数据的一致性、完整性和可用性。同时,还需要加强数据安全防护,防止数据泄露和被恶意篡改。
聚焦AI时代的存力需求变革,唯有以创新应万变,方能与时俱进,力争中国存储弯道超车。曙光存储副总裁张新凤分析指出,特别是在自动驾驶应用领域,每天需要采集数TB数据,并做数据存储汇总,然后经过标注、清洗等处理后的数据,供给大模型训练,训练完的数据需要归档存储起来。于是在每一个数据处理阶段,将面对不同的存储协议,如数据采集阶段需要S3协议,数据标注处理时需要NAS协议,算法训练时需要高性能POSIX协议,归档云端需要S3协议。
为此,针对支持AI训练加速应用场景的需求,曙光存储全新升级的ParaStor分布式全闪存储解决方案,采取2U2N设计。其带宽190GB/s,读写速度500万 IOPS/s,大模型CKPT时间缩短到分钟级,充分压榨算力性能,万亿参数大模型训练时间可以从数月缩短到数周,并且ParaStor分布式系统本身对多协议有着高效的支持能力,全面满足自动驾驶应用场景每个处理数据阶段的存储协议需求。
然而,一个存储设备不可能满足AI的所有需求。因此针对训练提速与推理应用的高要求上,需要有所不同的创新考量。
AI推理对存储系统性能要求很高,可能大家有所耳闻,那么到底有多高呢?
全球存储观察分析认为,主要在于AI推理对实时性要求高,高并发请求,以及数据密集型处理要求存储系统性能必须高之又高,可谓没有最高只有更高。为此,我们才看到SPC存储性能打榜,每隔一段时间,总会出现新奇迹,这也是曙光、华为等国产存储厂商努力登榜的原因所在。
AI推理需要快速响应用户请求,尤其是在实时交互场景中,如中大规模实时推理应用、金融行业实时交易类业务等。存储系统需要具备低延迟特性,以确保数据能够快速加载和处理,从而满足这类场景应用的实时性要求。
在高并发请求上,大模型实时推理往往带来每秒千万级的并发请求,这对存储系统的IO吞吐量和并发处理能力提出了极高的要求。
当然,AI推理属于数据密集型处理的典型应用场景,尤其是在处理大规模数据集时,会涉及大量数据的读取和写入。因而,存储系统需要具备高带宽和大容量,才能支持AI推理场景下的数据快速传输和存储。
为了更好满足AI推理加速应用场景的需求,曙光FlashNexus集中式全闪存储(8000)在AI推理领域树立起了新的性能标杆。这款具备全球最强存储性能的产品,拥有32控、超3000万IOPS性能和 0.202ms的时延,通过超级隧道技术,实现RAG、KV-Cache亲和,切实解决AI推理场景的存储性能瓶颈,应对AI推理场景的实时性、低延迟、高并发、数据密集型等存储高性能需求。
除此之外,降本增效一直是中国存储产业发展的长期话题。因此,针对AI应用场景的需求变革,还有一个重要的事情,AI应用的数据最终会有很大一部分需要长期存储,归档存储的成本优化一直是所有存储用户所关注的重点之一。但是,AI应用数据的归档存储需要在保障存储高效率的前提下,去实现成本的优化。
瞄准AI降本增效的应用需求,立足高融合AI存储需求,曙光存储创新推出了4U60 ParaStor分布式全闪方案,实现更低成本归档AI数据。以1.44PB/框的超大容量和20%成本降低支撑千亿参数归档,通过冷热数据分层技术和智能数据调度功能,实现动态优化存储资源的分配、跨形态热温冷数据无感流动,提高了存储资源的利用率。
其实,无论是针对训练提速、推理高质,还是极致降本的应用场景需求,都存在两个最大的共性,那就是数据管理与数据安全,以及扩展性和灵活性。
在AI训练与推理过程中,数据的安全性和隐私性至关重要。因而,任何一个过硬的存储系统需要提供数据加密和访问控制功能,以防止数据泄露和未授权访问。值得一提的是,在数据全生命周期管理上,曙光ParaStor具备热温冷数据智能分级流动,支持给数据自定义标签,过期后自动删除。对于AI数据存储的安全要求,曙光ParaStor凭借全栈自研能力,从操作系统、存储架构、软件核心模块、存储介质等多层面保障数据安全。提升存储可靠性,降低数据管理成本,让AI训练与推理应用变得省心省力。
同时对于扩展性和灵活性的要求,随着AI模型规模和数据量的增长,存储系统需要具备良好的扩展性。于此,曙光存储ParaStor分布式体系,与生俱来的扩展性与灵活性,能够提供动态扩展能力,支持存储资源的灵活分配,这都不在话下。
新架构重塑AI存储,借势加速弯道超车
兵来将挡,水来土掩。通常而言,在存储技术创新的道路上,唯有搞定了难点、痛点,才能谈得上存储技术的真创新。
面对AI基础设施的大好发展时机,中科曙光在存储产品升级的背后,暗藏新架构重塑AI存储的玄机,也借势加速弯道超车。
首先,让数据离GPU更近,搞定AI存储两大痛点。曙光存储另辟蹊径的XDS技术,让数据直通GPU显存,解决AI大模型训练和推理场景下的存储痛点,提升数据处理效率和存储性能,大幅缩短了训练时间,提高了模型的开发效率。XDS技术采用多层级智能加速,集成了算力端和存力端各维度各层级的加速引擎,实现了高效的存算协同。在存力端,XDS内嵌ParaBuffer加速引擎,在AI训练计算节点与存储系统之间构造大内存池,将系统整体I/O性能提升数倍,大幅降低训练时间。
其次,实现高效数据处理,以存代算与以存促算相结合。作为一种在Transformer架构中用于提升模型推理效率的关键技术,中科曙光AI存储采用的KV-Cache通过缓存已计算的Key和Value矩阵,避免在自回归生成过程中重复计算,从而显著提升推理效率。由此,不仅提升实时交互性能,同时也降低同等GPU资源消耗,实现更高并发推理请求,推理效率提升50%,令业界刮目相看。不仅如此,中科曙光AI存储支持检索增强生成RAG技术,突破大模型在知识更新、幻觉问题和推理效率上的限制。这种多源数据整合能力有助于提升模型在处理复杂问题时的准确性和全面性。
其三,打造AI数据湖,构建AI全栈数据通道。中科曙光AI存储通过高性能池、大容量池、数据保护池打造AI数据湖解决方案,聚焦数据加工的全环节,集成数据预处理、检查点保存/加载等,能够自动查找、筛选和传输数据。
基于此,在新架构重溯AI存储的赛道上,曙光存储通过多年的计算、存储等领域技术积累,拥有面向AI存储最新发展趋势的创新能力,不只是发布升级产品,强化AI市场策略,聚焦行业用户创新需求,同时也在引领中国存储行业的发展,助推先进存力赋能AI基础设施的创新与变革。
而今大踏步迈入AI存储时代,如此良好的发展契机,为何不顺应行业发展的时代机遇,实现中国存储高质量发展呢?
诚然,顺应行业政策对AI基础设施建设的重视与支持,像曙光、华为等中国存储厂商正在加大研发投入,提升技术水平,推动产业发展。同时抓住AI技术的快速发展和应用的大好时机,中国存储厂商不断推出符合市场需求的产品和解决方案,实现市场份额更大增长,推动中国存储高质量发展。
由此可见,借AI新基础设施建设的上升大势头,继续提升中国存力的世界影响力,中国存储加速弯道超车也将从理想逐渐变成现实。
机不可失,时不我待。
- END-
你怎么看?
欢迎文末评论补充!
【全球存储观察 |全球云观察|科技明说|阿明观察】专注科技公司分析,用数据说话,带你看懂科技。本文和作者回复仅代表个人观点,不构成任何投资建议。
来源:阿明观察