
白话文解释记忆体名词:HBM(包含HBM3E、HBM4、HBM5)
HBM 全名High Bandwidth Memory (高频宽记忆体)。可以想成:把很多层DRAM 晶片像千层蛋糕一样叠起来,再用非常多又粗的高速公路接到GPU,传资料超快。
- HBM3E:目前主力,用在最新一代GPU 上,速度快、功耗也压得不错。
- HBM4:下一代,给像Vera Rubin 这种更凶猛的GPU 用,频宽更高、容量更大。
- HBM5:再下一代(规划中),会再拉高速度与容量,对未来更大模型准备。
Rubin GPU 旁边会塞很多颗HBM 堆叠,让GPU 能以超高速拿资料。 AI 训练、推论的核心算力全靠HBM 供应资料,是这波AI 伺服器供应紧缺的最大明星,厂商把大量产能都转去做HBM,导致其他记忆体供应吃紧。在Vera Rubin 时代,HBM 是所有零件中最关键的元件。
白话文解释记忆体名词:SSD
SSD 就像一个超大的USB 随身碟,用来长期存资料,不会因为关机就忘记。电脑里放档案、影片、游戏,就是存在SSD(或传统硬碟)。在Vera Rubin 时代为了让AI 聊天机器人记住很多很多文字、对话历史和知识,Vera Rubin 要接上非常多SSD,当作超大资料图书馆。 Citi 估算,一台Vera Rubin 伺服器要接大约1,152TB(也就是1,152 个1TB)这么多的SSD,才能让新的ICMS 系统运作。
以前SSD 比较像资料仓库配角,现在在ICMS/长上下文推论里变成很重要的角色。
白话文解释记忆体名词:NAND
SSD 里面真正存资料的材料叫NAND 快闪记忆体。可以想成:SSD 是书柜,NAND 是一块一块的书本页面。 Vera Rubin 的ICMS 要用很多SSD,而SSD 里就是堆满NAND 晶片,所以AI 要的是很多很多NAND。当AI 模型越来越大、对话记忆越来越长,就需要更多NAND 来放这些文字和中间结果。
白话文解释记忆体名词:DRAM
DRAM 就像短期记忆白板,电脑运算时先把要算的东西写在DRAM,上完课(关机)白板就擦掉。速度比SSD 快很多,但一关机就全忘。在Vera Rubin 给CPU / GPU 当一般运算时的工作区。不直接存很久的对话或超大模型,但负责支撑系统运作。不过因为厂商把产能移去做HBM,结果一般DRAM 供应变少,价格猛涨、甚至缺货。
白话文解释记忆体名词:LPDDR5X / DDR5
- DDR5:伺服器与桌机里常用的主记忆体,比旧的DDR4 更快。
- LPDDR5X:给行动装置、或者高密度CPU 模组用的省电版本,可以想像是「省电型的DRAM」。
Rubin CPU 这种处理器,需要很多LPDDR5X 或DDR5 当系统记忆体,处理控制、排程、系统任务。它们不会像HBM 那样直接绑在GPU 上,但也是整个AI 伺服器稳定运作的基础。由于产能被HBM 吸走,一般DDR5 / LPDDR5X 供应变紧、价格上升。
白话文解释记忆体名词:High Bandwidth Flash(HBF)
可以把HBF 想成速度被强化过的NAND,目标是让Flash(快闪记忆体)不再只是慢慢存资料,而是变得更快、更像记忆体来用。比起一般SSD,它更强调「高吞吐量、低延迟」,好让AI 在推论时可以比较快地读写大量上下文。
在Vera Rubin 里当ICMS 的核心之一:把大量KV Cache、长上下文资料放在这种高速Flash 上,用网路(RDMA 等)让GPU 以接近内存的速度取用。这就是G3.5 层概念。把Flash 从只有存档提升成快得可以参与运算流程的外部记忆。
本文链接地址:https://www.wwsww.cn/jishu/36551.html
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。



