AI芯天下丨热点丨Arm为生成式AI架构,推计算子系统,目标1000亿台

B站影视 2024-12-03 08:40 2

摘要:CPU作为智能终端的运算和控制核心,其性能直接决定了终端设备的响应速度、处理能力、能效、用户体验以及安全性,是衡量终端性能的关键指标。

前言

CPU作为智能终端的运算和控制核心,其性能直接决定了终端设备的响应速度、处理能力、能效、用户体验以及安全性,是衡量终端性能的关键指标。

随着生成式AI的兴起,大模型的小型化以及推理任务向终端设备的迁移,CPU始终保持着终端硬件的核心地位,能够高效地执行本地AI推理任务,为众多设备提供强大的计算支持。

作者 | 方文三

图片来源 | 网 络

未来Arm计算平台的核心优势

从技术层面来看,AI相较于历史上任何技术革新,对计算能力、内存容量以及能效比提出了更高的要求。

它需要在功耗极低的环境中部署大量计算能力,而这正是Arm技术的专长所在。

历史上,每一次计算技术的变革与转型,都需求具备卓越性能、能效比和扩展性的计算解决方案,以加速产品的上市和普及。

这正是面向未来的Arm计算平台的核心优势。

迄今为止,基于Arm架构的芯片,其合作伙伴的出货量已超过3000亿颗。

可以预见,在未来十年中,Arm计算平台将持续为AI进行优化,而这些功能的实现将依赖于软硬件能力的结合。

同时,结合Arm针对基础设施、汽车、终端等多个市场推出的计算子系统、全面的设计方案以及强大的生态系统优势,Arm已经成功转型为一个面向未来的、应用广泛且至关重要的计算平台技术供应商。

在一年一度的Arm Tech Symposia年度技术大会上,Arm终端事业部产品管理副总裁James McNiven宣布:[预计到2025年底,全球将有超过1000亿台Arm设备具备AI能力。]

SVE2与SEM架构的扩展是未来重要方向

在2011年发布的Armv7-A架构中,Neon技术被引入,这是一种高级单指令多数据(SIMD)指令集的实现方式。

随后,在2016年推出的Armv8-A架构中,引入了SVE技术;

到了2021年,Armv9-A架构进一步引入了SVE2技术,两者均提供了可变长度的寄存器支持。

同样在2021年,Armv9-A架构中引入了SME和SME2技术。

SME技术带来了两个核心的新架构特性:Streaming SVE模式和ZA存储。

这些新特性使得SME和SME2能够更加高效地处理矩阵运算和基于向量的工作负载。

在Armv9 CPU中,SVE2对于提升视频解码及图像处理的效率具有显著影响。

SME架构建立于SVE2基础之上,引入了高效处理矩阵运算的能力,作为一项增强矩阵操作的架构扩展。

Arm的SME技术显著提升了Arm CPU在处理当前AI和机器学习应用方面的能力,加速了诸多依赖矩阵运算的应用程序,例如增强现实、虚拟现实和图像处理。

自2015年采用Armv8(NEON)架构的Cortex-A73 CPU问世以来,Arm公司便已将其在AI领域的研究与开发成果转化为具体产品。

Arm公司致力于实现1000亿台设备具备AI能力的目标,其产品线覆盖了从Armv8(NEON)到Armv9(SVE2/SME)的全系列。

早在十多年前,Arm就已经将AI功能融入其架构之中,Armv8架构首次引入了64位技术,显著提升了计算能力。

然而,真正开启AI时代的,是新一代的Armv9架构。

经过多年持续的投资与演进,该架构加入了大量以AI为核心的功能,使其更适应未来的发展,而这一进程仍在继续。

全力构建Arm计算子系统(CSS)

随着AI应用的迅速普及,技术复杂性相应提升,计算需求亦呈指数级增长。

为了有效应对这一发展趋势,并为边缘侧AI提供坚实的基础平台,Arm终端计算子系统应运而生。

Arm终端计算子系统为顶级系统级芯片(SoC)提供了核心计算组件,包括最新的Armv9.2 CPU、Arm Immortalis GPU、基于三纳米工艺的CPU和GPU物理实现,以及最新的CoreLink系统互连和系统内存管理单元(SMMU)。

为了适应新的计算发展需求,采用全面的系统级设计思维,为服务器、客户端、汽车等不同应用市场提供相应的解决方案,服务于整个生态系统。

CSS特别强调硬件与软件的协同优化,尤其是扩展了底层技术,以满足不断演进的AI计算需求。

截至今年10月,自ATD推出一年以来,生态企业已迅速增至30家,产品设计也在加速推进,特别是基于Neoverse N系列或V系列计算子系统(CSS)的产品,以及采用chiplet芯粒设计的方案。

Arm公司正致力于构建AI框架、软件库以及技术——KleidiAI。

该技术确保了全球领先的AI框架能够在Arm平台上高效运行,释放出最优性能。

在基于Arm架构的AWS Graviton处理器上运行Llama 3大型模型时,词元(token)的首次响应时间可提升至原来的2.5倍。

可扩展计算平台是Arm公司满足生成式AI时代需求的技术基础。

对于芯片设计企业而言,他们在关注可扩展性的同时,也同等重视性能和产品上市的速度。

基于Armv9.2架构的Arm Cortex-X925在Geekbench 6.2基准测试中取得了新的突破,实现了每时钟周期指令数(IPC)15%的提升。

Cortex-X925的矢量管线在Integer8 TOPS上实现了50%的提升,这将有助于加速智能手机上AI应用的响应速度。

尽管Arm的设计卓越,为了加快产品上市的进程,仍需依赖整体解决方案的支持。

Kleidi软件库包括面向AI工作负载的KleidiAI和面向计算机视觉工作负载的KleidiCV。

KleidiAI的显著优势在于Arm公司与领先的AI框架直接合作,Kleidi软件库已嵌入至包括MediaPipe、LLAMA.cpp、PyTorch和TensorFlow Lite在内的多个AI框架中,使得开发者无需额外操作,不会增加任何额外负担。

强化AI决心体现在对服务器的持续投入

在云服务器基础设施领域,Arm公司的CPU与英伟达的AI芯片相结合,例如在Grace Blackwell数据中心的应用,为开发大型模型等应用场景提供了支持。

一些主要的服务器制造商,如戴尔、HPE、浪潮等,已经推出了基于Arm芯片的处理器;

同时,包括亚马逊AWS、微软Azure、阿里云、腾讯云以及华为云在内的众多云服务提供商,也已经推出了自主研发的Arm处理器或Arm云主机。

今年早些时候,有传闻指出Arm已设立AI芯片部门,并获得软银集团的投资,计划自主研发AI芯片,目标是在2025年实现芯片的量产。

Arm对AI芯片领域的兴趣是合乎逻辑的,因为它有能力自行研发架构,设计专为AI计算优化的芯片,从而与目前市场上的英伟达GPU形成差异化的竞争态势。

结尾:

Arm的CPU因其在低功耗和高能效方面的显著优势,被广泛应用于各种消费电子产品中。

在当前的安卓平台上,第三方应用中有70%的AI运算是在Arm CPU上进行的。

除了智能手机,基于Arm CPU的个人计算机市场也在迅速扩大。

部分资料参考:硬件世界:《AI浪潮之下Arm CPU凭什么稳如磐石》,雷锋网:《Arm定了个超1000亿台设备运行AI的目标》,脑极体:《将大模型装进PC和手机,需要怎样的底层创[芯]?》

来源:AI芯天下

相关推荐