摘要:这两年,人工智能(AI)领域取得了显著进展,成为备受瞩目的热门话题,不断涌现出各种创新的AI模型与应用。这一蓬勃发展的背后,算力扮演着至关重要的角色,而算力则高度依赖于各类硬件设备。提及AI硬件,CPU和GPU广为人知,但实际上,还有许多其他类型的处理器同样重
这两年,人工智能(AI)领域取得了显著进展,成为备受瞩目的热门话题,不断涌现出各种创新的AI模型与应用。这一蓬勃发展的背后,算力扮演着至关重要的角色,而算力则高度依赖于各类硬件设备。提及AI硬件,CPU和GPU广为人知,但实际上,还有许多其他类型的处理器同样重要。下面,我们就来简要介绍这些关键的AI硬件组件。
1、CPU(中央处理器,CentralProcessingUnit))
中央处理器(CPU),是电子计算机的主要设备之一,电脑中的核心配件。其功能主要是解释计算机指令以及处理计算机软件中的数据。
CPU是计算机中负责读取指令,对指令译码并执行指令的核心部件。中央处理器主要包括两个部分,即控制器、运算器,其中还包括高速缓冲存储器及实现它们之间联系的数据、控制的总线。
根据冯诺依曼体系,CPU的工作分为以下5个阶段:取指令阶段、指令译码阶段、执行指令阶段、访存取数和结果写回。
2、GPU(图形处理器,GraphicsProcessingUnit)
图形处理器,英文为GPU,又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。
它是怎么工作的?具体来看,主机总线接口模块收到来自PCI总线的读写操作,包括对寄存器的读写操作和对显示存储的读写操作,完成对寄存器的初始化后,基本图形模式能够正常输出显示。
3、NPU(神经网络处理器,NeuralNetworkProcessingUnit)
NPU是一种专门用于进行神经网络计算的处理器。它主要用于加速人工智能和机器学习任务,包括图像识别、语音识别、自然语言处理等。NPU通常具有高度并行、低延迟和高能效的特点,特别适合在边缘计算、自动驾驶、机器人、智能手机等设备中进行实时的人工智能计算任务。
4、DPU(数据处理器也称深度学习处理器:DataProcessingUnit,缩写:DPU)
DPU是一种新型的可编程多核处理器,集成于一块SoC(SystemonChip)芯片之中,遵循行业标准,具备强大的算力及高性能网络接口。
它能够迅速解析和处理数据,并高效地将数据传输至CPU和GPU。与CPU擅长处理广泛的通用计算任务不同,DPU专注于执行基础层应用任务,例如网络协议处理、交换路由计算、加密解密以及数据压缩等繁重且具体的任务。
5、IPU(基础设施处理器也称智能处理器:Inter-ProcessorUnit,缩写:IPU)
它是一种用于连接多个处理器的硬件设备。它的作用是实现多处理器中不同处理器之间的通信和协调,从而提高性能。
基础设施处理器(IPU)可加速网络基础设施,释放CPU内核,实现应用程序性能的提升。IPU使云服务提供商能够按照软件的速度,定制基础设施功能部署,同时通过允许灵活安排工作负载,提高数据中心的利用率。
IPU通常被用于高性能计算领域,如超级计算机、服务器等。它可以连接不同类型的处理器,如CPU、GPU等,并提供高速数据传输和协调功能。在现代计算机中,IPU已成为必不可少的组成部分。
6、TPU(张量处理器英语:tensorprocessingunit,缩写:TPU)
与图形处理器(GPU)相比,TPU采用低精度(8位)计算,以降低每步操作使用的晶体管数量。降低精度对于深度学习的准确度影响很小,但却可以大幅降低功耗、加快运算速度。同时,TPU使用了脉动阵列的设计,用来优化矩阵乘法与卷积运算,减少I/O操作。
此外,TPU还采用了更大的片上内存,以此减少对DRAM的访问,从而更大程度地提升性能。TPU也是一种专门用于进行人工智能计算的处理器。它专注于进行大规模张量计算,特别适用于深度学习任务。
TPU采用了定制的硬件架构和优化的指令集,以提供高度并行化和高效能的计算能力。TPU通常用于加速训练和推断过程,可以大幅缩短深度学习模型的计算时间。
来源:我就这样咋地了