全球 AI 需求持续??升,带动伺服器与高效能运算设备对记忆体的用量出现大幅成长。多家科技大厂,包括 Dell 与 HP 等知名系统业者近日警告,随着生成式 AI、企业级大型语言模型(LLM)与云端服务的加速部署,市场对 DRAM、HBM 等关键记忆体的需求快速扩张,已明显推升供应链压力。传统记忆体产品正在面临供不应求的风险,冲击正逐步外溢到整体电子产业。
AI 伺服器的记忆体配置量是一般伺服器的数倍,特别是搭载 GPU 的加速器平台,其每一节点所需的 DRAM 与 HBM 数量远高於传统使用情境。随着企业导入 AI 模型的速度加快,大量采购行为正推动记忆体市场快速紧缩。Dell 与 HP 皆指出,若 AI 产能扩张延续当前步伐,2025~2026 年全球记忆体供给的缺囗可能扩大。
更关键的是,供应链正在「重分配产能」。几家主要记忆体业者已将资源优先投入高毛利、高技术门槛的 AI 产品线,包括 HBM、企业级 DRAM、先进 LPDDR,以及对应 AI PC 与 AI 手机的高频运算记忆体模组。这意味着传统 PC、主流笔电、家电、消费性电子甚至汽车电子所使用的记忆体可能遭遇排挤效应。
产业人士指出,AI 伺服器一台装入的 DRAM 数量可能是消费笔电的 20 倍以上。在 AI 推升需求的情况下,企业级产品的采购优先度远高於其他领域,使得供应商愿意将更多产能分配至利润更高的 AI 应用。短期内,这种产能偏移现象虽可带动记忆体厂获利成长,但同时也增加传统终端市场的供应波动风险。