Google Ironwood TPU:10 倍效能+ 四家伙伴对抗Nvidia


根据Bloomberg 深度报导与Google 官方公告,Google 于4 月22 日正式扩张自研AI 晶片阵容:推理专用Ironwood(第七代TPU)在Google Cloud 全面供应,并同步启动与Broadcom、MediaTek、Marvell、Intel 四家伙伴的下世代设计合作,目标是以客制晶片供应链正面挑战Nvidia 在AI 算力市场的主导地位。

Ironwood:第七代TPU,首度专为推理设计

Ironwood 是Google TPU 系列第七代产品,也是首款「训练推理分流」策略下的推理专用晶片。 Google 揭露的规格:单晶片尖峰效能为TPU v5p 的10 倍,配置192GB HBM3E 记忆体、记忆体频宽达7.2 TB/s,单个superpod 可扩展至9,216 颗液冷Ironwood,合计FP8 运算量达42.5 exaflops。

Google 官方表示Ironwood 已「全面开放Google Cloud 客户使用」,今年出货量预计达「百万颗」等级。 Anthropic 已承诺采用多达100 万颗Ironwood TPU,Meta 则签署「数十亿美元多年合约」透过Google Cloud 使用TPU。

四家伙伴分工:训练归Broadcom、推理归MediaTek

Google 下世代晶片供应链明确分工如下:

伙伴 代号 角色 特色
Broadcom Sunfish 训练专用 延续既有TPU 合作关系,主导大型训练节点
MediaTek(联发科) Zebrafish 推理专用 宣称比Broadcom 方案成本低20–30%
Marvell 谈判中 记忆体处理单元(MPU)+ 额外推理TPU 为HBM 与inference 优化
Intel 未公开 参与设计 强化供应链分散

这是AI 产业中首见的「四家伙伴并行、训练推理明确分工」模式。 Google 透过分散IP 风险与竞争议价,避开Nvidia 单一供应商的结构依赖。路线图延伸至2027 年底的TPU v8,将于台积电2nm 制程生产。

策略意义:挑战Nvidia 的不是单晶片,而是供应链

过去三年AI 晶片市场由Nvidia 近乎垄断,CUDA 软体生态与H100/GB200 晶片构成双重护城河。 Google 的Ironwood 与四伙伴策略并非以「单点规格超越」为目标,而是复制Nvidia 在产业中的「标准化平台+ 多客户采购」逻辑——让TPU 不只是Google 自用,而是可被Anthropic、Meta 等主要AI 公司共用的商业化算力选项。

Anthropic 承诺100 万颗TPU 的意义尤其关键:这是Nvidia 以外单家AI 公司最大算力承诺,与Anthropic 4/20 与Amazon 达成5GW/1000 亿AWS 承诺形成互补——一边绑定AWS Trainium、一边绑定Google TPU,Anthropic 以「双客制晶片」策略降低Nvidia 依赖。 Meta 则是首次公开将TPU 纳入自家AI 训练/推理工作负载,形成另一道讯号。

市场反应与产业连动

联发科在此次揭露前已被视为「Google 客制晶片受益者」,Zebrafish 代号的曝光是首度将联发科直接列为Google 推理晶片设计伙伴。这延伸近期AMD × GlobalFoundries 矽光子、Marvell × Google MPU 的「非Nvidia 晶片联盟」叙事线。

Nvidia 于同期仍有GB200 与下世代Rubin 平台支撑,但客户端的算力组合正从「全Nvidia」走向「Nvidia + TPU + AWS Trainium」的三轨并行。这对台积电2nm 产能也意味着Google、Nvidia、Apple、Amazon 四大客户都在排队,晶圆代工供应议价力持续上升。

本文链接地址:https://www.wwsww.cn/hqfx/38389.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。