摘要:两大科技巨头首先将英伟达的Blackwell平台与微软的Azure AI服务基础设施进行了深度整合。这一举措优化了生成型AI模型的部署流程,使得AI技术的实际应用更加高效便捷。通过此次整合,用户可以享受到更加流畅和强大的AI服务。
在近期举办的GTC 2025大会上,微软与英伟达携手宣布了一系列关于人工智能领域的深度合作计划,旨在通过全栈协作推动AI技术的进一步发展。
两大科技巨头首先将英伟达的Blackwell平台与微软的Azure AI服务基础设施进行了深度整合。这一举措优化了生成型AI模型的部署流程,使得AI技术的实际应用更加高效便捷。通过此次整合,用户可以享受到更加流畅和强大的AI服务。
Azure AI Foundry也迎来了NVIDIA NIM微服务的加入。这一微服务支持多种基础模型,并通过性能优化提升了在各行业的应用效果,特别是在医疗和汽车领域展现出了显著的优势。NVIDIA NIM的引入,无疑为AI应用的开发提供了更为强大的支持。
微软还利用NVIDIA的TensorRT-LLM技术对AI模型进行了优化,以meta Llama模型为例,这一技术改进大幅提升了模型的吞吐量和响应速度,同时降低了延迟。这一成果不仅加速了AI应用的训练过程,还提升了用户体验。
在Azure AI基础设施方面,微软也进行了扩展和升级。全新的Azure ND GB200 V6虚拟机系列正式上市,配备了先进的NVIDIA GB200 NVL72和NVIDIA Quantum InfiniBand网络加速器。这些新技术的加入,将进一步提升AI任务的处理速度和效率。
微软还承诺将在今年晚些时候将NVIDIA Blackwell Ultra GPU和NVIDIA RTX PRO 6000 Blackwell服务器版引入Azure平台。这一举措将进一步丰富Azure的AI计算能力,为用户提供更多样化的选择。
在利用Azure AI基础设施为企业赋能方面,多家企业已经取得了显著的成果。Meter公司正在Azure AI基础设施上训练大型基础模型,以实现端到端网络自动化,从而扩展AI训练和推理能力。而Black Forest Labs则已经将其旗舰FLUX模型部署在Azure AI服务基础设施上。
微软还推出了Azure Container Apps,支持无服务器GPU。这一创新服务让企业能够按需扩展AI工作负载,不仅优化了冷启动和按秒计费,还降低了操作复杂度。开发团队可以更加灵活地处理AI任务,提高工作效率。
新的ND GB200 V6虚拟机系列在处理复杂AI任务方面也展现出了卓越的性能。例如,在规划和推理等任务中,该系列虚拟机大幅提升了处理速度,帮助企业应对更高效的AI计算需求。
在创新工具方面,微软还在Azure市场上推出了NVIDIA Omniverse和Isaac Sim虚拟桌面工作站,以及Omniverse Kit App Streaming等工具。这些工具支持数字孪生和机器人仿真,为制造业等行业的数字化转型提供了有力支持。通过AI技术的应用,企业可以提升效率、降低成本,并优化生产流程。
来源:ITBear科技资讯