
女股神:特朗普政府期中

HBM 全名High Bandwidth Memory (高频宽记忆体)。可以想成:把很多层DRAM 晶片像千层蛋糕一样叠起来,再用非常多又粗的高速公路接到GPU,传资料超快。
Rubin GPU 旁边会塞很多颗HBM 堆叠,让GPU 能以超高速拿资料。 AI 训练、推论的核心算力全靠HBM 供应资料,是这波AI 伺服器供应紧缺的最大明星,厂商把大量产能都转去做HBM,导致其他记忆体供应吃紧。在Vera Rubin 时代,HBM 是所有零件中最关键的元件。
SSD 就像一个超大的USB 随身碟,用来长期存资料,不会因为关机就忘记。电脑里放档案、影片、游戏,就是存在SSD(或传统硬碟)。在Vera Rubin 时代为了让AI 聊天机器人记住很多很多文字、对话历史和知识,Vera Rubin 要接上非常多SSD,当作超大资料图书馆。 Citi 估算,一台Vera Rubin 伺服器要接大约1,152TB(也就是1,152 个1TB)这么多的SSD,才能让新的ICMS 系统运作。
以前SSD 比较像资料仓库配角,现在在ICMS/长上下文推论里变成很重要的角色。
SSD 里面真正存资料的材料叫NAND 快闪记忆体。可以想成:SSD 是书柜,NAND 是一块一块的书本页面。 Vera Rubin 的ICMS 要用很多SSD,而SSD 里就是堆满NAND 晶片,所以AI 要的是很多很多NAND。当AI 模型越来越大、对话记忆越来越长,就需要更多NAND 来放这些文字和中间结果。
DRAM 就像短期记忆白板,电脑运算时先把要算的东西写在DRAM,上完课(关机)白板就擦掉。速度比SSD 快很多,但一关机就全忘。在Vera Rubin 给CPU / GPU 当一般运算时的工作区。不直接存很久的对话或超大模型,但负责支撑系统运作。不过因为厂商把产能移去做HBM,结果一般DRAM 供应变少,价格猛涨、甚至缺货。
Rubin CPU 这种处理器,需要很多LPDDR5X 或DDR5 当系统记忆体,处理控制、排程、系统任务。它们不会像HBM 那样直接绑在GPU 上,但也是整个AI 伺服器稳定运作的基础。由于产能被HBM 吸走,一般DDR5 / LPDDR5X 供应变紧、价格上升。
可以把HBF 想成速度被强化过的NAND,目标是让Flash(快闪记忆体)不再只是慢慢存资料,而是变得更快、更像记忆体来用。比起一般SSD,它更强调「高吞吐量、低延迟」,好让AI 在推论时可以比较快地读写大量上下文。
在Vera Rubin 里当ICMS 的核心之一:把大量KV Cache、长上下文资料放在这种高速Flash 上,用网路(RDMA 等)让GPU 以接近内存的速度取用。这就是G3.5 层概念。把Flash 从只有存档提升成快得可以参与运算流程的外部记忆。
免责声明:数字资产交易涉及重大风险,本资料不应作为投资决策依据,亦不应被解释为从事投资交易的建议。请确保充分了解所涉及的风险并谨慎投资。OKEx学院仅提供信息参考,不构成任何投资建议,用户一切投资行为与本站无关。

和全球数字资产投资者交流讨论
扫码加入OKEx社群
industry-frontier