摘要:本周三,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。
机器之心报道
编辑:泽南、+0
第七代 TPU 来了。
AI 算力又迎来了新的标杆。
本周三,谷歌正式发布了旗下第七代张量处理单元(TPU)Ironwood。谷歌称,在大规模部署的情况下,这款 AI 加速器的计算能力能达到全球最快超级计算机的 24 倍以上。
这款在 Google Cloud Next '25 大会上发布的新芯片代表着谷歌十年来 AI 芯片研发战略的重大转折:谷歌自研的前几代 TPU 主要面向 AI 的训练和推理工作负载,而 Ironwood 是第一款专为推理而设计的芯片。
谷歌副总裁兼机器学习、系统和云 AI 总经理 Amin Vahdat 表示:「Ironwood 旨在支持生成式 AI 的下一阶段及其巨大的计算和通信需求。这就是我们所说的『推理时代』,AI 代理将主动检索和生成数据,以协作方式提供洞察和答案,而不仅仅是数据。」
突破壁垒,最大 42.5 exaflops 算力
Ironwood 拥有超模的技术规格,当每个 pod 扩展至 9216 块芯片时,它可提供 42.5 exaflops 的 AI 算力,远超目前全球最快的超级计算机 El Capitan 的 1.7 exaflops。每块 Ironwood 芯片的峰值计算能力可达 4614 TFLOPs。
在单芯片规格上,Ironwood 显著提升了内存和带宽,每块芯片配备 192GB 高带宽内存(HBM),是去年发布的上一代 TPU Trillium 的六倍。每块芯片的内存带宽达到 7.2 terabits/s,是 Trillium 的 4.5 倍。
在数据中心规模扩大,供电逐渐成为瓶颈的时代,Ironwood 也大幅提升了计算效率,其每瓦性能是 Trillium 的两倍,和 2018 年推出的首款 TPU 相比高出近 30 倍。
对于推理的优化代表了 AI 发展历程中的一个重要转折点。最近几年,前沿的 AI 实验室一直专注在构建参数规模不断扩大的基础模型上。谷歌转向推理优化表明,我们正在进入一个以部署效率和推理能力为核心的新阶段。
毕竟对于 AI 参与的业务而言,模型训练的次数有限,但随着 AI 技术应用逐渐铺开,推理操作每天都会发生数十亿次。由于模型日趋复杂,这些业务的经济效益与推理成本紧密相关。
谷歌在过去八年里对于 AI 计算的需求同比增长了 10 倍,总需求量高达惊人的 1 亿。如果没有像 Ironwood 这样的专用架构,任何摩尔定律的进步都无法满足这一增长曲线。
尤其值得注意的是,谷歌在发布中提到了对执行复杂推理任务而非简单模式识别的「思维模型」的关注。这表明,谷歌认为 AI 的未来不仅在于更大的模型,还在于能够分解问题、进行多步骤推理并模拟类人思维过程的模型。
面向下一代大模型
谷歌将 Ironwood 定位为其最先进 AI 模型的基础设施,其优化的大模型自然包括自家的 Gemini 2.5,它「原生内置了思维能力」。
昨天,谷歌还发布了 Gemini 2.5 Flash,作为最新旗舰模型的缩小版本,它「可以根据提示的复杂性调整推理深度」,定位于对响应速度敏感的日常应用。
谷歌还展示了其全套多模态生成模型,包括文本转图像、文本转视频以及新发布的文本转音乐功能 Lyria。谷歌展示 demo 介绍了如何将这些工具结合使用,为一场音乐会制作完整的宣传视频。
Ironwood 只是谷歌更广泛的 AI 基础设施战略的一部分,谷歌还宣布推出 Cloud WAN,这是一项托管式广域网服务,使企业能够访问 Google 的全球规模私有网络基础设施。
Google 还在扩展其面向 AI 工作负载的软件产品,其中包括由 Google DeepMind 开发的机器学习运行时 Pathways,现在它允许客户在数百个 TPU 上扩展模型服务。
提出 A2A、支持 MCP,构建智能体协作生态
除了硬件之外,谷歌还概述了以多智能体系统为中心的 AI 愿景,发布了一个促进智能体发展的协议 ——Agent-to-Agent(A2A),旨在促进不同 AI 智能体之间的安全、标准化通信。
地址:https://google.github.io/A2A/#/
谷歌认为,2025 年将是 AI 方向转型之年,生成式 AI 的应用形式会从回答单一问题转向通过智能体系统来解决复杂问题。
A2A 协议允许跨平台、跨框架的智能体实现互操作,为它们提供了共同的「语言」和安全的通信渠道。这一协议可视为智能体的网络层,其目标是简化复杂工作流程中的智能体协作,使专业 AI 智能体能够协同完成各种复杂度和时长的任务,从而通过协作提升整体能力。
A2A 的工作原理
谷歌在博客中对 MCP 和 A2A 两种协议进行了比较。
MCP(模型上下文协议,Model Context Protocol)用于工具和资源管理
通过结构化的输入 / 输出将智能体连接到工具、API 接口和资源Google ADK 支持 MCP 工具,使得各类 MCP 服务器能够与智能体配合使用A2A(智能体间协议,Agent2Agent Protocol)用于智能体之间的协作
在不共享内存、资源和工具的情况下,实现智能体之间的动态多模态通信由社区驱动的开放标准可使用 Google ADK、LangGraph、Crew.AI 等工具查看示例总的来说,A2A 与 MCP 是互补的:MCP 可以为智能体提供工具支持,而 A2A 则让这些装备了工具的智能体能够相互对话和协作。
从谷歌公布的合作伙伴阵容来看,A2A 似乎有望获得类似 MCP 的关注度。该计划已吸引超过 50 家企业加入首批合作阵营,包括领先科技企业以及全球顶级咨询和系统集成服务商。
谷歌强调了该协议的开放性,将其作为智能体相互协作的标准方式,不受底层技术框架或服务供应商的限制。谷歌表示,在与合作伙伴设计协议时,坚持了以下五项关键原则:
1. 拥抱智能体能力:A2A 专注于使智能体能够以其自然、非结构化的方式进行协作,即使它们不共享记忆、工具和上下文。我们正在实现真正的多智能体场景,而不将智能体限制为「工具」。
2. 基于现有标准构建:该协议建立在现有流行标准之上,包括 HTTP、SSE、JSON-RPC,这意味着它更容易与企业日常使用的现有 IT 堆栈集成。
3. 默认安全:A2A 设计为支持企业级身份验证和授权,在发布时与 OpenAPI 的身份验证方案相当。
4. 支持长时间运行的任务:我们设计 A2A 具有灵活性,支持各种场景,从快速任务到可能需要数小时甚至数天(当人类参与其中时)的深入研究。在整个过程中,A2A 可以向用户提供实时反馈、通知和状态更新。
5. 模态无关:智能体世界不仅限于文本,这就是为什么我们设计 A2A 支持各种模态,包括音频和视频流。
官方还给出了一个例子,通过 A2A 招聘流程得到显著简化。
视频链接:
在 Agentspace 等统一界面中,招聘经理可指派智能体依据职位需求寻找匹配人选,该智能体会与专业领域智能体互动完成候选人寻源工作。用户还可指示智能体安排面试,并启用其他专项智能体协助背景调查,从而实现跨系统协作的全流程智能化招聘。
与此同时,谷歌也在拥抱 MCP。就在 OpenAI 宣布采用竞争对手 Anthropic 的模型上下文协议(Model Context Protocol,简称 MCP)几周后,Google 也紧随其后加入了这一行列。
刚刚,Google DeepMind 首席执行官 Demis Hassabis 在 X 平台上发文宣布,Google 将在其 Gemini 模型和 SDK 中添加对 MCP 的支持。不过他并未给出具体时间表。
Hassabis 表示:「MCP 是一个优秀的协议,正在迅速成为 AI 智能体时代的开放标准。期待与 MCP 团队和业界其他伙伴一起推进这项技术的发展。」
自 2024 年 11 月发布以来,MCP 迅速走红,引发广泛关注,成为连接语言模型与工具和数据的一种简单、标准化方式。
MCP 使 AI 模型能够从企业工具和软件等数据源获取数据以完成任务,并访问内容库和应用程序开发环境。该协议允许开发者在数据源与 AI 驱动的应用程序(如聊天机器人)之间建立双向连接。
开发者可以通过 MCP 服务器开放数据接口,并构建 MCP 客户端(如应用程序和工作流)来连接这些服务器。自从 Anthropic 开源 MCP 以来,多个公司已在其平台中集成了 MCP 支持。
参考内容:
https://google.github.io/A2A/#/
来源:新浪财经