当前位置:比特中国 > 区块链 >

HBM、DRAM、NAND是什么?记忆体名词分析

来源: www.cnkki.com时间:2026-01-20 14:34

HBM、DRAM、NAND是什么?记忆体名词分析
白话文讲解记忆体名词:HBM(包括HBM3E、HBM4、HBM5)

HBM 全称High Bandwidth Memory (高频宽记忆体)。可以想成:把不少层DRAM 晶片像千层蛋糕一样叠起来,再用很多又粗的高速公路接到GPU,传资料超快。

HBM3E:现在主力,用在最新一代GPU 上,速度快、功耗也压得很好。HBM4:下一代,给像Vera Rubin 这种更凶猛的GPU 用,频宽更高、容量更大。HBM5:再下一代(规划中),会再拉高速度与容量,对将来更大模型筹备。

Rubin GPU 旁边会塞不少颗HBM 堆叠,让GPU 能以超高速拿资料。 人工智能 练习、推论的核心算力全靠HBM 提供资料,是这波人工智能 伺服器提供紧缺的最大明星,厂家把很多产能都转去做HBM,致使其他记忆体提供吃紧。在Vera Rubin 年代,HBM 是所有零件中最重要的元件。

白话文讲解记忆体名词:SSD

SSD 就像一个超大的USB 随身碟,用来长期存资料,不会由于关机就忘记。电脑里放档案、影片、游戏,就是存在SSD(或传统硬碟)。在Vera Rubin 年代为了让人工智能 聊天机器人记住不少不少文字、对话历史和常识,Vera Rubin 要接上很多SSD,当作超大资料图书馆。 Citi 估算,一台Vera Rubin 伺服器要接大约1,152TB(也就是1,152 个1TB)这么多的SSD,才能让新的ICMS 系统运作。

以前SSD 比较像资料仓库配角,目前在ICMS/长上下文推论里变成非常重要的角色。

白话文讲解记忆体名词:NAND

SSD 里面真正存资料的材料叫NAND 快闪记忆体。可以想成:SSD 是书厨,NAND 是一块一块的书本页面。 Vera Rubin 的ICMS 要用不少SSD,而SSD 里就是堆满NAND 晶片,所以人工智能 要的是不少不少NAND。当人工智能 模型愈加大、对话记忆愈加长,就需要更多NAND 来放这类文字和中间结果。

白话文讲解记忆体名词:DRAM

DRAM 就像短期记忆白板,电脑运算时先把要算的东西写在DRAM,上完课(关机)白板就擦掉。速度比SSD 快不少,但一关机就全忘。在Vera Rubin 给CPU / GPU 当一般运算时的工作区。不直接存很长时间的对话或超大模型,但负责支撑系统运作。不过由于厂家把产能移去做HBM,结果一般DRAM 提供变少,价格猛增、甚至缺货。

白话文讲解记忆体名词:LPDDR5X / DDR5

DDR5:伺服器与桌机里常见的主记忆体,比旧的DDR4 更快。LPDDR5X:给行动装置、或者高密度CPU 模组用的省电版本,可以想像是「省电型的DRAM」。

Rubin CPU 这种处置器,需要不少LPDDR5X 或DDR5 当系统记忆体,处置控制、排程、系统任务。它们不会像HBM 那样直接绑在GPU 上,但也是整个人工智能 伺服器稳定运作的基础。因为产能被HBM 吸走,一般DDR5 / LPDDR5X 提供变紧、价格上升。

白话文讲解记忆体名词:High Bandwidth Flash(HBF)

可以把HBF 想成速度被强化过的NAND,目的是让Flash(快闪记忆体)不再只不过慢慢存资料,而是变得更快、更像记忆体来用。比起一般SSD,它更强调「高吞吐量、低延迟」,好让人工智能 在推论时可以比较快地读写很多上下文。

在Vera Rubin 里当ICMS 的核心之1、把很多KV Cache、长上下文资料放在这种高速Flash 上,用网路(RDMA 等)让GPU 以接近内存的速度取用。这就是G3.5 层定义。把Flash 从只有存档提高成快得可以参与运算步骤的外部记忆。

标签:

免责声明:

1.本文内容综合整理自互联网,观点仅代表作者本人,不代表本站立场。

2.资讯内容不构成投资建议,投资者应独立决策并自行承担风险。