韩国记忆体大厂SK hynix近日预测,未来数年内专为人工智慧(AI)应用设计的记忆体市场将以每年约30%的速度快速成长,其中,高频宽记忆体(HBM)系列产品将成为主要推动力。这一评估反映出全球资料中心、AI运算以及高效能运算(HPC)需求持续升温的趋势。
随着生成式AI、机器学习及大型语言模型的兴起,市场对记忆体的性能与频宽需求急速扩张。与传统DRAM相比,HBM透过3D堆叠技术显着提升资料传输速率与能效,能满足AI运算中庞大而密集的数据处理需求,因此已成为GPU、AI加速器及HPC平台不可或缺的关键元件。
SK hynix指出,近年AI运算架构已从过去的通用计算逐步转向专用加速,而这一变化对记忆体产品提出更高要求,包括更低延迟、更大频宽与更隹的能源效率。HBM产品正好契合这些条件,因此市场渗透率快速提升。特别是在资料中心与云端运算领域,为提升AI推论与训练效能,伺服器对HBM的采用正呈现加速态势。
目前,HBM已被应用於NVIDIA、AMD等领先厂商的AI平台中,支援其最新一代的GPU与加速器晶片。在AI模型规模不断扩大的背景下,这些平台对记忆体容量与频宽的需求只会持续增加,进一步推动HBM市场的长期成长。
业界分析认为,AI专用记忆体市场的高速成长,不仅来自资料中心的强劲需求,也与电动车、边缘AI装置等新兴应用有关。随着运算场景多元化,对高效能记忆体的需求将更加广泛,带动HBM以及其他AI优化记忆体的技术演进与产品升级。