摘要:Akama近日发布一系列解决方案及重磅计划,包括利用推出Akamai Cloud Inference强化其AI边缘技术,提供云端视频处理单元(VPU),提供基础设施支持,确保Linux内核开发不间断,以及携手Fermyon推出基于WebAssembly的边缘原
中关村在线3月28日消息,Akama近日发布一系列解决方案及重磅计划,包括利用推出Akamai Cloud Inference强化其AI边缘技术,提供云端视频处理单元(VPU),提供基础设施支持,确保Linux内核开发不间断,以及携手Fermyon推出基于WebAssembly的边缘原生无服务器和 AI 应用程序,与Scalstrm合作通过按需转码四线更高效的视频处理。
据悉,作为一项突破性的解决方案,Akamai Cloud Inference帮助平台工程师和开发人员在更靠近终端用户的地方运行AI应用程序和数据密集型工作负载。特别是在越来越多AI推理在边缘侧进行的当下,Akamai Cloud Inference提供了3倍的吞吐量,同时将延迟减少至最高2.5倍,为企业节省高达86%的AI推理和代理AI工作负载成本。
作为又一项重磅发布,Akamai Cloud Accelerated Compute Instances能够针对媒体公司优化的高性能、专业化工作负载实例,用于更高效地处理视频。这些实例由NETINT VPUs(专用于视频编码的芯片)驱动,使流媒体更便宜、更易扩展。据悉,Akamai是首个提供VPUs即服务的云供应商,免除了企业购买和管理此类硬件的需求。
不仅如此,Akamai还宣布支持Kernel.org,Akamai为Kernel.org提供关键基础设施支持,Kernel.org是Linux内核源代码的主要分发系统,这体现了Akamai对开源开发和全球协作的承诺。同时,Akamai 还宣布,其正在为Alpine Linux提供基础设施和交付支持,Alpine Linux是最受欢迎的Linux发行版之一。
“全球范围内的公司正在向更分布式的云模型转型,尤其是AI工作负载,它们受益于数据的接近。无服务器WebAssembly能带来巨大的性能提升,同时使应用程序变得更易构建、管理和默认安全。”Akamai产品副总裁Jon Alexander表示。为此,Akamai加强与Fermyon合作,成为首个通过WebAssembly (WASM)提供边缘原生无服务器和AI应用的云供应商,实现超低延迟的AI工作负载规模化。
此外,Scalstrm正式加入Akamai的Qualified Compute Partner(QCP)计划。凭借此次加入,Scalstrm将充分发挥自身优势,提供即时转码服务。Akamai还于近期与VAST Data达成合作关系。双方携手共进,旨在支持分布式 AI 推理实现更快、更高效的数据处理。
这些公告标志着Akamai从CDN先锋到边缘AI和云计算领导者的重大里程碑。虽然大型AI计算仍将在超大规模数据中心进行,但令人兴奋的AI推理工作正在边缘完成——在这里,延迟、规模和效率最为重要。Akamai经过二十多年的发展构建了一个大规模分布的网络,使其在将AI能力更接近用户方面拥有无与伦比的优势。企业正在面临传统集中式云架构的局限性——这些架构是为过去的工作负载设计的,而不是为今天的AI驱动现实设计的。
Akamai在填补这一空白方面具有独特优势,多年来一直为这一时刻奠定基础。从收购Linode到推出Akamai App Platform和Akamai Managed Container Service——这些都以云原生原则、开发者友好的控制以及可预测的定价为设计核心。云计算正在发生变化,Akamai计划引领下一代云计算。
来源:中关村在线