摘要:微软在 Microsoft Build 上发布了 Microsoft Discovery。这个可扩展平台旨在赋能研究人员借助代理式 AI 改变整个探索流程,帮助各行各业的研发部门加速新品上市,推动并扩展所有科学家的端到端探索流程。
代理式 AI 正在重新定义科学探索,推动各行各业的研究突破和创新发展。NVIDIA 和微软正通过深化合作提供先进的技术,从云到 PC 加速代理式 AI 应用的发展。
微软在 Microsoft Build 上发布了 Microsoft Discovery。这个可扩展平台旨在赋能研究人员借助代理式 AI 改变整个探索流程,帮助各行各业的研发部门加速新品上市,推动并扩展所有科学家的端到端探索流程。
Microsoft Discovery 将集成用于为化学模拟优化 AI 推理的 NVIDIA ALCHEMI NIM 微服务,通过属性预测和候选推荐来加速材料科学的研究。该平台还将集成 NVIDIA BioNeMo NIM 微服务,通过接入预训练 AI 工作流加速用于药物研发的 AI 模型开发。这些集成的微服务为研究人员提供了强大的性能,助力加速科学发现。
在测试中,微软研究人员使用 Microsoft Discovery 在不到 200 小时的时间内就检测出一种有望用于数据中心浸没式液冷的新型冷却剂原型,若使用传统方法则可能需要数月乃至数年。
通过大规模部署
NVIDIA Grace Blackwell
系统推进代理式 AI 的发展
微软正在其 Azure 数据中心快速部署数万台 NVIDIA Grace Blackwell 机架级系统,大幅提升 Azure 数据中心的性能和效率。
Azure 的 ND GB200 v6 虚拟机采用机架级架构,每个机架最多可搭载 72 个 NVIDIA Blackwell GPU 并采用先进的液冷技术。与之前由 8 个 NVIDIA Hopper GPU 加速的 ND H100 v5 VM 相比,推理吞吐量最多提高了 35 倍,树立了 AI 工作负载性能的新标杆。
这些创新是基于可自定义的服务器设计、NVIDIA NVLink 高速互连技术和 NVIDIA Quantum InfiniBand 网络平台,可无缝扩展至数万个 Blackwell GPU,以满足生成式 AI 和代理式 AI 严苛的应用需求。
微软董事长兼首席执行官 Satya Nadella 和 NVIDIA 创始人兼首席执行官黄仁勋还特别强调,微软与 NVIDIA 的合作是基于 Azure 上的 NVIDIA 架构,对软件进行持续优化以提升性能。这种方法可以极大提高开发者的工作效率,降低总体拥有成本,并在加速所有工作负载(包括 AI 和数据处理)的同时,为客户带来更高的单位成本效益和功耗效率。
Azure AI Foundry 上的 NVIDIA AI
逻辑推理和医疗微服务
NVIDIA 在 GTC 上发布了集成在 Azure AI Foundry 中的 NVIDIA NIM 微服务。微软和 NVIDIA 将在此基础上,通过 NVIDIA Llama Nemotron 开放推理模型系列和 NVIDIA BioNeMo NIM 微服务扩展该平台,为复杂决策和特定领域的 AI 工作负载提供企业级容器化推理。
开发者现在可以在 Azure AI Foundry 中使用经过优化的 NIM 微服务进行先进的逻辑推理。其中包括 NVIDIA Llama Nemotron Super 和 Nano 模型,这两个模型可提供先进的多步骤逻辑推理、编码和代理功能。与之前的模型相比,准确率最高可提升 20%,推理速度最高可加快 5 倍。
面向医疗行业的 BioNeMo NIM 微服务 (例如 ProteinMPNN、RFDiffusion 和 OpenFold2) 满足了数字生物学、药物研发和医学成像领域的关键应用需求,使研究人员和临床医生能够加速蛋白质科学研究、分子建模和基因组分析,进而提高患者护理的质量并加速科学创新。
这些扩展集成的 NIM 微服务使企业能够快速部署高性能 AI 智能体,并以强大的可靠性和简化的扩展能力将智能体连接到这些模型和其他专业医疗解决方案。
使用 RTX AI PC 加速
Windows 11 上的生成式 AI
从数字人到写作助手、智能体以及创作工具,生成式 AI 正在赋予 PC 软件全新的体验。NVIDIA RTX AI PC 可让用户轻松探索生成式 AI,并在 Windows 11 上释放更强性能。
NVIDIA 与微软在 Microsoft Build 上共同发布了一个 AI 推理框架,以简化 Windows 11 PC 开发并提升其推理性能。
NVIDIA TensorRT 已为 RTX AI PC 重新设计,将业界领先的 TensorRT 性能与即时编译 (Just-In-Time) 的本地引擎构建模式相结合,封装体积缩小至原来的 1/8,使 AI 功能能够快速部署至超过 1 亿台 RTX AI PC 上。
在 Microsoft Build 上发布的 TensorRT for RTX 由 Windows ML 提供原生支持。Windows ML 是一种全新推理框架,为应用开发者提供广泛的硬件兼容性与业界领先的性能表现。TensorRT for RTX 现已通过 Windows ML preview 向开发者开放,并将在 6 月作为独立 SDK 通过 NVIDIA Developer 正式发布。
进一步了解 TensorRT for RTX 和 Windows ML 如何简化软件开发。在 RTX AI PC 博客中探索新的 NIM 微服务和 RTX AI Blueprint,以及 RTX 赋能的来自 Autodesk、哔哩哔哩、Chaos、LM Studio 和 Topaz 的多款主流软件应用将发布的更新:
来源:NVIDIA英伟达中国