算力需求大爆发,谁是“大推手”?

B站影视 2025-01-23 21:56 2

摘要:同样,人工智能在经历70余年曲折发展之后,也处于一个极为关键的时刻,在模型、数据、算力等各项基础技术多年持续迭代、升级的驱动下,各种形式与样态的智能体大爆发,人工智能展现出令人惊叹的“跳跃式”进化速度。

大约5亿年前,地球迎来了物种的突然大爆发,标志着生物进化除了缓慢渐变,还可能以跳跃的方式进行。

同样,人工智能在经历70余年曲折发展之后,也处于一个极为关键的时刻,在模型、数据、算力等各项基础技术多年持续迭代、升级的驱动下,各种形式与样态的智能体大爆发,人工智能展现出令人惊叹的“跳跃式”进化速度。

这其中,算力在人工智能“跳跃式”进化中发挥着不可低估的作用,不仅支撑起人工智能的快速创新,自身也迎来变革与爆发式增长。Gartner最新报告显示,2024年第三季度全球服务器销售额617.1亿美元,同比大幅增长85.1%,出货量303.2万台,同比增长7.2%,其中浪潮信息以11.7%的市占率蝉联全球第二,中国第一。同时Gartner预计2024年全球服务器市场规模预计可突破2000亿大关,达到2164亿美元,出货量约为1199万台,同比增长6.5%。

再仔细分析,AI算力又展现出极强的增长态势,主导着算力产业未来演进方向。Gartner甚至预测,到2028年,全球服务器市场规模将超3329亿美元,其中AI服务器占据70%的市场份额,一个由AI算力主导驱动的人工智能“大爆炸”时代正全面开启。

基础大模型的高速发展,是2024年全球服务器市场爆发性增长的最大推手。

回顾过去两年AI的发展,基础大模型无疑是最大主角。在Scaling Law定律加持下,基础大模型进化速度日新月异。如今,基础大模型不仅是各类智能应用的底座,使得各类AI应用具备人类的理解、推理等能力,更加速进入到垂直行业之中,成为千行百业数智转型升级的基石。

如果说数据是基础大模型的原料,那么算力就是基础大模型的引擎。因此,基础大模型的激烈竞争,直接导致全球加大对于算力等基础设施的投入,算力即竞争力成为AIGC时代的不二法则。

例如,超大规模云服务提供商既是基础大模型的深度参与者,也是AI服务器市场的需求主力军。Gartner数据显示,微软、Meta、Google等公司在2024年预计投入了722亿美元在AI服务器采购上,占据整个AI服务器市场的56%,巨头们对于AI基础设施的重视可见一斑。

从地域来看,北美和大中华区两个超大规模数据中心集中的区域也是全球服务器的销量担当,其中北美地区同比增长149%,大中华区同比增长116%。事实上,北美和大中华区也是当下基础大模型、智能应用创新高地,不仅有互联网巨头,还涌现出一批像OpenAI、Anthropic、月之暗面、DeepSeek等一批AI初创公司,这些初创公司对于AI算力的需求亦是水涨船高。

另外,垂直行业全面拥抱AI的趋势也不容忽视,自动驾驶、智能交通、智慧金融、工业AI、医疗AI等行业趋势同样带动了AI服务器的采购。Gartner数据显示,2024年全球企业用户在AI服务器采购支出上同步增长高达184%。事实上,随着基础大模型能力的持续提升,垂直领域的大模型也在今年迅速兴起,行业用户普遍渴望拥有属于自身领域的大模型和基于垂直大模型来广泛构建各类智能应用,从而重塑自身业务场景、流程和用户体验。

可以说,2024年是人工智能发展的里程碑式一年。既有OpenAI o1、o3,Anthropic ,Claude 3.5i等众多令人惊艳的大模型发布,也有五花八门具身智能产品的大量涌现,更有各大垂直行业尝试推动AI与场景的深度融合,这一切眼花缭乱的背后都离不开算力的支撑与推动。

那么,2025年随着人工智能的发展达到一个关键拐点,接下来又会对算力需求产生哪些重要影响?

人们从对大模型的预训练的关注,已经延伸到了后训练和推理。事实上,在今后相当长的时间里,Scaling law依然非常重要,因为大家在不同的场景中依然要持续的训练迭代,提升模型的性能。

24年,大模型的技术路径从LLM(Large Language Model)演进到LRM(Large Reasoning Model),推理已经成为接下来业界重点突破的方向。正如OpenAI 前创始人、首席科学家Ilya Sutskever所言:整个基础大模型领域正重新进入一个“发现和探索”的新阶段。

例如,OpenAI的o1模型采用“推理时间计算(test-time compute)”技术,展现出令人震惊的复杂推理和决策能力;Google则在2025年初发布了Transformer 架构的替代者--Titans架构,取消上下文限制,并将“推理时间计算”技术应用在记忆(memory)层面;Anthropic则在Claude 3.5采用合成数据和强化学习来提升模型的性能表现……

另一方面,随着基础大模型进入到各种业务场景之中,不仅加速与各种软件进行融合,更产生出极为丰富的AI应用和各类AI Agent,也进一步增加大量推理的需求。AWS CEO Matt Garman在去年底2024 re:Invent大会上表示,推理正变得愈发重要,成为构建应用当之无愧的核心组件模块之一。

例如,《中国互联网络发展状况统计报告》显示,2024年,中国的生成式人工智能产品用户规模已达到2.49亿人,生成式人工智能在中国的应用和普及已初具规模。而2025年,所有企业将面临AI转型,AI的普及与落地将带来全新的推理算力需求的爆发。

可以预见,“训练”依然会成为消耗算力的“大户”,不过“推理”也会变得与“训练”一样重要,成为人工智能舞台上未来几年的主角。这一改变不仅是整个产业界创新的重点,也将持续带动算力的需求和创新。VerifiedMarketResearch预测,推理芯片2024-2030年复合年增长率高为22.6%。Gartner也预测,2025年,推理的集群算力规模将超过训练,也将是AI走向普及化的关键之年,到2028年,应用于推理的服务器将占整个市场规模70%。

随着人工智能与业务场景的深度融合,复杂的训练和推理任务,对算力基础设施提出了全新的需求,算力演进需要去突破算力多元化、数据中心能耗、建设运营模式等一系列新挑战。

如今,人工智能的“跳跃式”进化,不仅带来巨大且持续的算力资源需求,更直接推动算力产业加速演进。

首先,在人工智能快速发展的驱动下,算力走向多元化成为大势所趋,算力的演进也将加速打破过去的固有封闭生态,从芯片到算力系统将以更短的周期进行升级与迭代,这必然需要算力更加开放化,逐步实现全面解耦和多元化生态。事实上,近年来OAM、OCM等标准获得产业界的高度重视,从NVIDIA、AMD等芯片厂商,到Amazon、Meta、Google、阿里等超大规模数据中心用户,再到浪潮信息等整机系统厂商,纷纷投入资源,让不同算力能够共享统一平台,以降低算力创新成本和适配成本,也让多元化的应用场景都能方便快捷的适配到贴合的方案,加速AI算力的创新。

其次,随着AI的普及需求,未来需要一切计算皆AI,哪怕是通用算力也需要处理AI推理工作负载,服务器等算力设备的应用边界将持续扩大,以满足AI越来越多的算力需求。事实上,算力成本的昂贵是当前最为突出的挑战,一切计算皆AI有望成为缓解算力资源匮乏和算力成本高昂的有效手段之一。以浪潮信息为例,基于张量并行、NF4模型量化等算法优化,其元脑服务器仅需要4颗CPU就能完成运行千亿参数的运行;另外,还有最新发布的元脑服务器新平台,也在Llama大模型的AI推理场景中性能获得大幅提升。

第三,AI算力带来的高功耗挑战刻不容缓,绿色算力相关规范会愈加成熟,相关技术也会加速得到应用与普及。如今,万卡、十万卡规模的AI集群不断涌现,加上AI算力性能的提升,单机系统功耗不断攀升,使得整个数据中心的散热成为一项长期挑战。因此,AI液冷整机柜的相关规范正在制定中,冷板式液冷、热管式液冷、浸没式液冷等产品将加速普及;甚至,从规划咨询、设备定制到交付施工的全生命周期最优液冷解决方案会在市场中收到用户的青睐。以浪潮信息为例,日前采用119个集装箱,仅用时120天,就像“搭乐高积木”一样建成10MW的元脑“算力工厂”, 该算力工厂内部署了高密智算算力仓,包括50kW负载的风冷机柜和130kW负载的液冷机柜,实现智能算力的高密部署与绿色节能。

最后则是算力使用模式和算力服务生态也在加速演进,除了公有云能够提供各种便捷算力服务之外,GPU租赁、托管等模式需求也大幅上涨,将形成新的AI算力服务供给生态。例如,美国对AI基础设施的投资额爆发增长,这些初创公司已经将GPU算力租赁与托管的模式走通。在中国,智算中心的建设热度也居高不下。Gartner预测到2028年90%的中国企业将采用托管而非自建AI基础设施,智算中心未来在AI基础设施中奖发挥重要作用。

综合观察,Gartner最新全球服务器市场报告充分表明,在基础大模型、AI应用等快速发展的带动下,算力市场2024年已全面爆发;同时,算力需求侧与供给侧的需求结构也在发生重要调整,来自AI推理的越来越多需求,将极大推动算力未来的演进。无论是AI芯片厂商,还是整机厂商,均需要正视和适应算力市场的变化,以提升算力密度和能源利用效率,满足AIGC“大爆发”时代的算力需求。

来源:小袁的科技锐观察

相关推荐