全球 AI 需求持續飆升,帶動伺服器與高效能運算設備對記憶體的用量出現大幅成長。多家科技大廠,包括 Dell 與 HP 等知名系統業者近日警告,隨著生成式 AI、企業級大型語言模型(LLM)與雲端服務的加速部署,市場對 DRAM、HBM 等關鍵記憶體的需求快速擴張,已明顯推升供應鏈壓力。傳統記憶體產品正在面臨供不應求的風險,衝擊正逐步外溢到整體電子產業。
AI 伺服器的記憶體配置量是一般伺服器的數倍,特別是搭載 GPU 的加速器平台,其每一節點所需的 DRAM 與 HBM 數量遠高於傳統使用情境。隨著企業導入 AI 模型的速度加快,大量採購行為正推動記憶體市場快速緊縮。Dell 與 HP 皆指出,若 AI 產能擴張延續當前步伐,2025~2026 年全球記憶體供給的缺口可能擴大。
更關鍵的是,供應鏈正在「重分配產能」。幾家主要記憶體業者已將資源優先投入高毛利、高技術門檻的 AI 產品線,包括 HBM、企業級 DRAM、先進 LPDDR,以及對應 AI PC 與 AI 手機的高頻運算記憶體模組。這意味著傳統 PC、主流筆電、家電、消費性電子甚至汽車電子所使用的記憶體可能遭遇排擠效應。
產業人士指出,AI 伺服器一台裝入的 DRAM 數量可能是消費筆電的 20 倍以上。在 AI 推升需求的情況下,企業級產品的採購優先度遠高於其他領域,使得供應商願意將更多產能分配至利潤更高的 AI 應用。短期內,這種產能偏移現象雖可帶動記憶體廠獲利成長,但同時也增加傳統終端市場的供應波動風險。