韓國記憶體大廠SK hynix近日預測,未來數年內專為人工智慧(AI)應用設計的記憶體市場將以每年約30%的速度快速成長,其中,高頻寬記憶體(HBM)系列產品將成為主要推動力。這一評估反映出全球資料中心、AI運算以及高效能運算(HPC)需求持續升溫的趨勢。
隨著生成式AI、機器學習及大型語言模型的興起,市場對記憶體的性能與頻寬需求急速擴張。與傳統DRAM相比,HBM透過3D堆疊技術顯著提升資料傳輸速率與能效,能滿足AI運算中龐大而密集的數據處理需求,因此已成為GPU、AI加速器及HPC平台不可或缺的關鍵元件。
SK hynix指出,近年AI運算架構已從過去的通用計算逐步轉向專用加速,而這一變化對記憶體產品提出更高要求,包括更低延遲、更大頻寬與更佳的能源效率。HBM產品正好契合這些條件,因此市場滲透率快速提升。特別是在資料中心與雲端運算領域,為提升AI推論與訓練效能,伺服器對HBM的採用正呈現加速態勢。
目前,HBM已被應用於NVIDIA、AMD等領先廠商的AI平台中,支援其最新一代的GPU與加速器晶片。在AI模型規模不斷擴大的背景下,這些平台對記憶體容量與頻寬的需求只會持續增加,進一步推動HBM市場的長期成長。
業界分析認為,AI專用記憶體市場的高速成長,不僅來自資料中心的強勁需求,也與電動車、邊緣AI裝置等新興應用有關。隨著運算場景多元化,對高效能記憶體的需求將更加廣泛,帶動HBM以及其他AI優化記憶體的技術演進與產品升級。