摘要:计算平台(Computing Platform)是指能够支持应用程序运行和开发的底层硬件架构与软件框架的完整环境集合,核心是为计算任务提供基础支撑的软硬件集成环境。其特征在于通过标准化技术栈(包括处理器、操作系统、运行时库、开发工具及关键服务)为上层软件提供稳
计算平台(Computing Platform)是指能够支持应用程序运行和开发的底层硬件架构与软件框架的完整环境集合,核心是为计算任务提供基础支撑的软硬件集成环境。其特征在于通过标准化技术栈(包括处理器、操作系统、运行时库、开发工具及关键服务)为上层软件提供稳定的运行基础和开发接口。
从技术构成看,计算平台可分为硬件层和软件层:硬件层包括中央处理器(CPU)、图形处理器(GPU)、存储器等物理硬件;软件层涵盖操作系统、虚拟机、容器、编程框架及应用程序接口(API)。这些组件共同构建了一个可扩展的生态系统,使开发者能够基于统一标准创建兼容的应用程序。
现代化的计算平台进一步演进为服务导向生态,通过硬件抽象与资源虚拟化,提供更高效的资源调度和开发工具及运维环境。如平台即服务(PaaS)和人工智能开发平台(如TensorFlow、PyTorch),进一步屏蔽了底层基础设施的复杂性,通过容器化、微服务和DevOps实践实现动态资源调度与跨环境部署。
边缘人工智能计算平台部署于网络边缘侧、靠近数据生成源的专用计算环境,其通过集成面向人工智能处理的专用硬件架构(如NPU、GPU、ASIC等加速单元)与优化的软件栈(包括轻量化推理框架、模型管理工具及边缘操作系统),为人工智能应用提供低延迟、高能效、高可靠且具备隐私保护能力的本地化计算服务。
边缘人工智能计算平台可根据其部署位置、计算能力及核心功能划分为四种类型:终端设备嵌入式平台、边缘网关级平台、边缘服务器级平台和边缘与云计算协同平台。
终端设备嵌入式平台。此类平台集成于终端设备内部,是AI算力的最边缘的载体,主要特点是在于高度集成化与超低功耗,通常采用集成了CPU与专用AI加速内核的系统级芯片(SoC)或微控制器(MCU),专为在资源(功耗、算力、体积)极度受限的环境下执行预先训练好的单一轻量化推理任务而优化,实现终端设备自身的智能化。例如智能门锁的人脸识别、预测性维护等。
边缘网关级平台。这类平台作为连接终端与云端的枢纽节点,具备更丰富的接口与中等算力,能够聚合多路终端数据并运行更为复杂的AI模型,并进行本地决策与数据预处理,减轻云端负担。硬件形态为基于高性能AI芯片的工业智能网关或计算盒子,如工厂产线质检等场景。
边缘服务器级平台。提供接近云端的高性能AI计算能力。这类平台通常部署在区域中心或网络侧,如工厂机房、电信基站侧,构成一个边缘侧的微型数据中心。它不仅能够处理极其复杂的AI推理任务,还支持利用本地数据进行模型微调与持续学习,如工厂本地分析、自动驾驶等场景。
边缘与云计算协同平台。此类平台本质是一个软件定义的管理与控制介面。通过统一的云原生技术栈对分布广泛的边缘硬件资源进行抽象与调度,实现AI任务从下发、部署到版本管理的全生命周期自动化运维,从而构建起一个全局协同、高效管理的“边缘即服务”体系,支撑起跨地域的大规模智能应用网络。这些平台类型相互协同,共同构成了完整而高效的边缘智能基础设施层级。
边缘人工智能计算平台的处理器产品的类型,主要有以下几种:
通用处理器(Central Processing Unit, CPU),作为计算系统的核心,是一种执行软件指令、处理通用计算任务的处理器。它以其强大的逻辑控制、复杂的串行处理能力和优异的通用性而著称,能够运行复杂的操作系统(如Linux、Windows)和承担各种多样的计算任务。在边缘人工智能系统中,CPU通常扮演着“管理者”和“协调者”的角色:负责系统控制、任务调度、数据搬运以及运行不适合在其他加速器上执行的算法部分。如:x86和ARM Cortex-A系列。
微控制器(Microcontroller Unit, MCU) ,是把中央处理器、存储器、定时/计数器、各种输入输出接口等都集成在一块集成电路芯片上的微型计算机。微控制器是终端嵌入式设备基础的处理器,实现终端设备的功能性计算任务。由于其资源受限,可运行轻量的机器学习。随着神经网络处理器(NPU)加速器的引入,微控制器在人工智能方面的处理能力得到显著增强,进一步扩展了其在边缘计算中的应用范围。
微处理器(Micro Processor Unit, MPU) ,此概念在行业内有时与CPU通用,是指将计算机的中央处理器(CPU)的功能集成在一块或几块集成电路芯片上的可编程通用计算核心。它可以被视为一个功能更强大的CPU芯片,为运行高级操作系统和复杂应用而设计。在边缘侧,MPU为设备提供了强大的本地计算基础。
图形处理器(Graphics Processing Unit, GPU),最初专为图形渲染设计,因其强大的并行浮点计算能力,已成为人工智能训练和推理的主流加速方案。在边缘侧,GPU能够高效处理图像、视频等非结构化数据,执行复杂的深度学习模型推理任务。
现场可编程门阵列(Field-Programmable Gate Array, FPGA),提供硬件级可重构能力,适合算法快速迭代或定制化需求场景。用户可通过硬件描述语言(HDL)编程其内部逻辑单元和连线,构建专用硬件加速电路,从而实现低延迟、高确定性的并行计算。FPGA 在工业自动化、通信基站等需要灵活适配的领域具有独特优势。
系统级芯片(System on Chip, SoC),是现代边缘AI处理器的主流形态。它将上述多种计算单元(如CPU、GPU、NPU、DSP等)以及内存控制器、各种I/O接口和外设控制器全部集成在一颗芯片上。SoC通过异构计算架构,让任务在最适合的处理单元上执行,实现了性能、功耗、成本和尺寸的最佳平衡。
专用集成电路(Application-Specific Integrated Circuit, ASIC),是为特定用途、特定算法(如神经网络推理)而定制设计的芯片。
神经网络处理器(Neural-network Processing Unit, NPU),是ASIC的一种,是专门为加速神经网络运算(如卷积、池化、激活函数等)而设计的专用处理器。NPU通常以IP核的形式被集成到SoC中,而非独立芯片,为系统提供高效、低功耗的AI推理能力。
边缘人工智能开发平台,主要有以下几种:
ST Edge AI Suite,涵盖了 STM32Cube.AI、NanoEdge AI Studio、MEMS Studio、Stellar Studio 等多个核心工具。STM32Cube.AI是意法半导体提供的核心开发工具之一,是一个将预训练AI模型转换为优化C代码的工具,支持TensorFlow Lite、ONNX等主流AI框架。NanoEdge AI Studio 是一款基于AutoML技术的低代码/无代码开发工具,通过少量数据,它便能自动生成轻量级机器学习库,并支持设备端学习。ST Edge AI Developer Cloud 是一个在线云端协作平台,它允许开发者在线上对边缘AI模型进行优化和基准测试。面向OpenSTLinux的AI (X-LINUX-AI) 是针对STM32 MPU的嵌入式Linux系统开发套件,支持在STM32 MPU上部署AI模型,满足高扩展性应用需求,集成Linux AI框架及应用示例,支持时间序列、音频、视觉等复杂模型的处理和部署。
Edge Impulse,是一个为用户提供低代码甚至自动化机器学习开发体验的云端平台。它极大地简化了从数据采集到模型部署的全流程,用户可以通过图形化界面轻松完成数据预处理、模型训练和性能测试,最终生成可直接在嵌入式设备上运行的优化模型。该平台非常适合物联网(IoT)设备和嵌入式系统的快速AI原型开发与部署。
SensiML,是一个专注于简化TinyML代码开发的端到端平台。其核心优势在于能够自动化地生成高效的AI算法和对应的固件代码。平台提供数据收集、自动标记、模型训练和代码生成等一系列工具,旨在让开发者即使没有深厚的机器学习背景,也能为资源受限的MCU开发应用,如预测性维护、异常检测和手势识别等。
NVIDIA Jetson,是一个集高性能硬件与完整软件栈于一体的强大生态系统。该平台提供从入门级到超高性能的硬件计算模块(如Jetson Orin系列),所有模块均搭载GPU,并提供强大的AI算力。其软件栈(JetPack SDK)包含CUDA、cuDNN、TensorRT等工具,为开发者提供了熟悉的开发环境,是机器人、自动驾驶和智能城市等高性能边缘AI应用的理想选择。
Google Coral,是一个由Google推出的、包含软硬件的完整边缘AI解决方案。其核心是搭载了专为TensorFlow Lite模型推理设计的Edge TPU ASIC芯片,能提供高能效的AI加速。该平台提供开发板(Dev Board)、USB加速棒(USB Accelerator)以及相应的模型转换与部署工具,主要面向视觉处理、IoT和机器人等应用场景。
AWS IoT Greengrass,是亚马逊云科技(AWS)推出的边缘运行时软件,它将AWS的云服务能力无缝扩展至本地设备。开发者可以在边缘设备上运行AWS Lambda函数和预训练的机器学习模型进行本地推理,同时享受AWS云提供的强大设备管理、安全性和数据分析服务。它非常适合需要与AWS生态系统紧密集成的大规模工业自动化和智能设备项目。
Azure IoT Edge,是微软Azure云服务的边缘计算组件,允许将云端的AI分析和自定义业务逻辑容器化并部署到边缘设备上运行。它支持在断网环境下离线执行任务,并能通过Azure云进行集中管理和监控,广泛应用于预测性维护和实时数据分析等场景。
Qeexo AutoML,是一个专注于为超低功耗微控制器(MCU)提供自动化机器学习解决方案的平台。其特色在于一键式的自动化ML工作流,尤其擅长处理来自各种传感器的时序数据,并生成极其精简高效的代码,非常适合工业、物联网和可穿戴设备领域的应用开发。
Imagimob Studio,是一个为快速开发资源受限设备上的端到端Edge AI应用而设计的平台。它提供了一个集成的开发环境,指导用户完成从数据准备、模型设计、训练到部署的全过程,在音频分类、预测性维护和手势识别等领域有广泛应用。
Fibocom AI Stack,是广和通(Fibocom)推出的边缘AI整体解决方案,其核心是整合了高性能通信模组、AI工具链和海量优化模型。该平台提供模型压缩与优化、高性能推理引擎以及跨不同芯片平台的部署能力,旨在智能零售、自动驾驶和可穿戴设备等领域推动AI应用落地。
NXP eIQ® ML,是恩智浦半导体为其微控制器(MCU)和应用处理器(MPU)提供的机器学习软件开发环境。它包含eIQ Toolkit工具流、多种推理引擎(如GLOW、ARM NN)、神经网络编译器和优化库,帮助开发者在其NXP硬件上高效地实现物体检测、语音命令等功能。
Stream Analyze,是一个专注于为工业及汽车等领域的边缘设备提供端到端开发能力的平台。它专为处理实时数据流而设计,支持分析、计算和AI模型的开发、训练、部署与协调,已应用于矿用装载机、自动驾驶汽车等复杂场景。
网宿科技边缘AI平台,是一个面向企业级应用的全链路平台,提供覆盖“模型接入—推理优化—场景落地”的全面能力。其核心产品包括边缘AI网关、边缘模型推理服务和边缘AI应用,旨在支撑如智能客服、内容生成(AIGC)等企业级AIGC应用的规模化落地。
边缘人工智能生态系统由处理器硬件与开发工具软件共同驱动。硬件层面呈现多元化架构:通用CPU负责系统控制,GPU加速并行计算,专用ASIC/NPU专注高效推理,FPGA提供灵活加速,MCU满足低功耗需求。现代SoC采用异构计算架构,整合多种处理单元以优化性能功耗比。软件层面形成全栈式开发生态,涵盖模型优化到部署的全流程工具链,云端服务商提供标准化云边协同方案。通过自动化优化工具与预集成模型库,大幅降低开发门槛,推动了AI技术在工业自动化、物联网等领域的规模化商业部署。
来源:芯知汇