复制成功

分享至

主页 > 数字货币 >

HBM、DRAM、NAND是什么?记忆体名词解析

2026.01.21

HBM、DRAM、NAND是什么?记忆体名词解析
白话文解释记忆体名词:HBM(包含HBM3E、HBM4、HBM5)

HBM 全名High Bandwidth Memory (高频宽记忆体)。可以想成:把很多层DRAM 晶片像千层蛋糕一样叠起来,再用非常多又粗的高速公路接到GPU,传资料超快。

  • HBM3E:目前主力,用在最新一代GPU 上,速度快、功耗也压得不错。
  • HBM4:下一代,给像Vera Rubin 这种更凶猛的GPU 用,频宽更高、容量更大。
  • HBM5:再下一代(规划中),会再拉高速度与容量,对未来更大模型准备。
  • Rubin GPU 旁边会塞很多颗HBM 堆叠,让GPU 能以超高速拿资料。 AI 训练、推论的核心算力全靠HBM 供应资料,是这波AI 伺服器供应紧缺的最大明星,厂商把大量产能都转去做HBM,导致其他记忆体供应吃紧。在Vera Rubin 时代,HBM 是所有零件中最关键的元件。

    白话文解释记忆体名词:SSD

    SSD 就像一个超大的USB 随身碟,用来长期存资料,不会因为关机就忘记。电脑里放档案、影片、游戏,就是存在SSD(或传统硬碟)。在Vera Rubin 时代为了让AI 聊天机器人记住很多很多文字、对话历史和知识,Vera Rubin 要接上非常多SSD,当作超大资料图书馆。 Citi 估算,一台Vera Rubin 伺服器要接大约1,152TB(也就是1,152 个1TB)这么多的SSD,才能让新的ICMS 系统运作。

    以前SSD 比较像资料仓库配角,现在在ICMS/长上下文推论里变成很重要的角色。

    白话文解释记忆体名词:NAND

    SSD 里面真正存资料的材料叫NAND 快闪记忆体。可以想成:SSD 是书柜,NAND 是一块一块的书本页面。 Vera Rubin 的ICMS 要用很多SSD,而SSD 里就是堆满NAND 晶片,所以AI 要的是很多很多NAND。当AI 模型越来越大、对话记忆越来越长,就需要更多NAND 来放这些文字和中间结果。

    白话文解释记忆体名词:DRAM

    DRAM 就像短期记忆白板,电脑运算时先把要算的东西写在DRAM,上完课(关机)白板就擦掉。速度比SSD 快很多,但一关机就全忘。在Vera Rubin 给CPU / GPU 当一般运算时的工作区。不直接存很久的对话或超大模型,但负责支撑系统运作。不过因为厂商把产能移去做HBM,结果一般DRAM 供应变少,价格猛涨、甚至缺货。

    白话文解释记忆体名词:LPDDR5X / DDR5

  • DDR5:伺服器与桌机里常用的主记忆体,比旧的DDR4 更快。
  • LPDDR5X:给行动装置、或者高密度CPU 模组用的省电版本,可以想像是「省电型的DRAM」。
  • Rubin CPU 这种处理器,需要很多LPDDR5X 或DDR5 当系统记忆体,处理控制、排程、系统任务。它们不会像HBM 那样直接绑在GPU 上,但也是整个AI 伺服器稳定运作的基础。由于产能被HBM 吸走,一般DDR5 / LPDDR5X 供应变紧、价格上升。

    白话文解释记忆体名词:High Bandwidth Flash(HBF)

    可以把HBF 想成速度被强化过的NAND,目标是让Flash(快闪记忆体)不再只是慢慢存资料,而是变得更快、更像记忆体来用。比起一般SSD,它更强调「高吞吐量、低延迟」,好让AI 在推论时可以比较快地读写大量上下文。

    在Vera Rubin 里当ICMS 的核心之一:把大量KV Cache、长上下文资料放在这种高速Flash 上,用网路(RDMA 等)让GPU 以接近内存的速度取用。这就是G3.5 层概念。把Flash 从只有存档提升成快得可以参与运算流程的外部记忆。

    免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

    加⼊OKEx全球社群

    和全球数字资产投资者交流讨论

    扫码加入OKEx社群

    相关推荐

    industry-frontier