42.5 Exaflops:谷歌新TPU性能超越最强超算24倍,智能体协作协议A2A

B站影视 港台电影 2025-04-10 17:06 2

摘要:本周三,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。

机器之心报道

编辑:泽南、+0

第七代 TPU 来了。

AI 算力又迎来了新的标杆。

本周三,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。

这款在 Google Cloud Next '25 大会上发布的新芯片代表着谷歌十年来 AI 芯片研发战略的重大转折:谷歌自研的前几代 TPU 主要面向 AI 的训练和推理工作负载,而 Ironwood 是第一款专为推理而设计的芯片。

谷歌副总裁兼机器学习、系统和云 AI 总经理 Amin Vahdat 表示:「Ironwood 旨在支持生成式 AI 的下一阶段及其巨大的计算和通信需求。这就是我们所说的『推理时代』,AI 代理将主动检索和生成数据,以协作方式提供洞察和答案,而不仅仅是数据。」

突破壁垒,最大 42.5 exaflops 算力

Ironwood 拥有超模的技术规格,当每个 pod 扩展至 9216 块芯片时,它可提供 42.5 exaflops 的 AI 算力,远超目前全球最快的超级计算机 El Capitan 的 1.7 exaflops。每块 Ironwood 芯片的峰值计算能力可达 4614 TFLOPs。

在单芯片规格上,Ironwood 显著提升了内存和带宽,每块芯片配备 192GB 高带宽内存(HBM),是去年发布的上一代 TPU Trillium 的六倍。每块芯片的内存带宽达到 7.2 terabits/s,是 Trillium 的 4.5 倍。

在数据中心规模扩大,供电逐渐成为瓶颈的时代,Ironwood 也大幅提升了计算效率,其每瓦性能是 Trillium 的两倍,和 2018 年推出的首款 TPU 相比高出近 30 倍。

对于推理的优化代表了 AI 发展历程中的一个重要转折点。最近几年,前沿的 AI 实验室一直专注在构建参数规模不断扩大的基础模型上。谷歌转向推理优化表明,我们正在进入一个以部署效率和推理能力为核心的新阶段。

毕竟对于 AI 参与的业务而言,模型训练的次数有限,但随着 AI 技术应用逐渐铺开,推理操作每天都会发生数十亿次。由于模型日趋复杂,这些业务的经济效益与推理成本紧密相关。

谷歌在过去八年里对于 AI 计算的需求同比增长了 10 倍,总需求量高达惊人的 1 亿。如果没有像 Ironwood 这样的专用架构,任何摩尔定律的进步都无法满足这一增长曲线。

尤其值得注意的是,谷歌在发布中提到了对执行复杂推理任务而非简单模式识别的「思维模型」的关注。这表明,谷歌认为 AI 的未来不仅在于更大的模型,还在于能够分解问题、进行多步骤推理并模拟类人思维过程的模型。

面向下一代大模型

谷歌将 Ironwood 定位为其最先进 AI 模型的基础设施,其优化的大模型自然包括自家的 Gemini 2.5,它「原生内置了思维能力」。

昨天,谷歌还发布了 Gemini 2.5 Flash,作为最新旗舰模型的缩小版本,它「可以根据提示的复杂性调整推理深度」,定位于对响应速度敏感的日常应用。

谷歌还展示了其全套多模态生成模型,包括文本转图像、文本转视频以及新发布的文本转音乐功能 Lyria。谷歌展示 demo 介绍了如何将这些工具结合使用,为一场音乐会制作完整的宣传视频。

Ironwood 只是谷歌更广泛的 AI 基础设施战略的一部分,谷歌还宣布推出 Cloud WAN,这是一项托管式广域网服务,使企业能够访问 Google 的全球规模私有网络基础设施。

Google 还在扩展其面向 AI 工作负载的软件产品,其中包括由 Google DeepMind 开发的机器学习运行时 Pathways,现在它允许客户在数百个 TPU 上扩展模型服务。

提出 A2A、支持 MCP,构建智能体协作生态

除了硬件之外,谷歌还概述了以多智能体系统为中心的 AI 愿景,发布了一个促进智能体发展的协议 ——Agent-to-Agent(A2A),旨在促进不同 AI 智能体之间的安全、标准化通信。

地址:https://google.github.io/A2A/#/

谷歌认为,2025 年将是 AI 方向转型之年,生成式 AI 的应用形式会从回答单一问题转向通过智能体系统来解决复杂问题。

A2A 协议允许跨平台、跨框架的智能体实现互操作,为它们提供了共同的「语言」和安全的通信渠道。这一协议可视为智能体的网络层,其目标是简化复杂工作流程中的智能体协作,使专业 AI 智能体能够协同完成各种复杂度和时长的任务,从而通过协作提升整体能力。

A2A 的工作原理

谷歌在博客中对 MCP 和 A2A 两种协议进行了比较。

MCP(模型上下文协议,Model Context Protocol)用于工具和资源管理

通过结构化的输入 / 输出将智能体连接到工具、API 接口和资源Google ADK 支持 MCP 工具,使得各类 MCP 服务器能够与智能体配合使用

A2A(智能体间协议,Agent2Agent Protocol)用于智能体之间的协作

在不共享内存、资源和工具的情况下,实现智能体之间的动态多模态通信由社区驱动的开放标准可使用 Google ADK、LangGraph、Crew.AI 等工具查看示例

总的来说,A2A 与 MCP 是互补的:MCP 可以为智能体提供工具支持,而 A2A 则让这些装备了工具的智能体能够相互对话和协作。

从谷歌公布的合作伙伴阵容来看,A2A 似乎有望获得类似 MCP 的关注度。该计划已吸引超过 50 家企业加入首批合作阵营,包括领先科技企业以及全球顶级咨询和系统集成服务商。

谷歌强调了该协议的开放性,将其作为智能体相互协作的标准方式,不受底层技术框架或服务供应商的限制。谷歌表示,在与合作伙伴设计协议时,坚持了以下五项关键原则:

1. 拥抱智能体能力:A2A 专注于使智能体能够以其自然、非结构化的方式进行协作,即使它们不共享记忆、工具和上下文。我们正在实现真正的多智能体场景,而不将智能体限制为「工具」。

2. 基于现有标准构建:该协议建立在现有流行标准之上,包括 HTTP、SSE、JSON-RPC,这意味着它更容易与企业日常使用的现有 IT 堆栈集成。

3. 默认安全:A2A 设计为支持企业级身份验证和授权,在发布时与 OpenAPI 的身份验证方案相当。

4. 支持长时间运行的任务:我们设计 A2A 具有灵活性,支持各种场景,从快速任务到可能需要数小时甚至数天(当人类参与其中时)的深入研究。在整个过程中,A2A 可以向用户提供实时反馈、通知和状态更新。

5. 模态无关:智能体世界不仅限于文本,这就是为什么我们设计 A2A 支持各种模态,包括音频和视频流。

官方还给出了一个例子,通过 A2A 招聘流程得到显著简化。

视频链接:

在 Agentspace 等统一界面中,招聘经理可指派智能体依据职位需求寻找匹配人选,该智能体会与专业领域智能体互动完成候选人寻源工作。用户还可指示智能体安排面试,并启用其他专项智能体协助背景调查,从而实现跨系统协作的全流程智能化招聘。

与此同时,谷歌也在拥抱 MCP。就在 OpenAI 宣布采用竞争对手 Anthropic 的模型上下文协议(Model Context Protocol,简称 MCP)几周后,Google 也紧随其后加入了这一行列。

刚刚,Google DeepMind 首席执行官 Demis Hassabis 在 X 平台上发文宣布,Google 将在其 Gemini 模型和 SDK 中添加对 MCP 的支持。不过他并未给出具体时间表。

Hassabis 表示:「MCP 是一个优秀的协议,正在迅速成为 AI 智能体时代的开放标准。期待与 MCP 团队和业界其他伙伴一起推进这项技术的发展。」

自 2024 年 11 月发布以来,MCP 迅速走红,引发广泛关注,成为连接语言模型与工具和数据的一种简单、标准化方式。

MCP 使 AI 模型能够从企业工具和软件等数据源获取数据以完成任务,并访问内容库和应用程序开发环境。该协议允许开发者在数据源与 AI 驱动的应用程序(如聊天机器人)之间建立双向连接。

开发者可以通过 MCP 服务器开放数据接口,并构建 MCP 客户端(如应用程序和工作流)来连接这些服务器。自从 Anthropic 开源 MCP 以来,多个公司已在其平台中集成了 MCP 支持。

参考内容:

https://google.github.io/A2A/#/

来源:新浪财经

相关推荐