根据TrendForce最新AI server产业分析,2026年因来自云端服务业者(CSP)、主权云的需求持续稳健,对GPU、ASIC拉货动能将有所提升,加上AI推理应用蓬勃发展,预计全球AI server出货量将年增20%以上,占整体server比重上升至17%。
 |
| TrendForce预计全球AI server出货量将年增20%以上,占整体server比重上升至17%。 |
其中观察2025年AI server出货表现,因NVIDIA H20於中国大陆市场受阻,以及GB300、B300推动进度较原计画延後,TrendForce微幅下修年增率至24%左右。AI server产值方面,2025年受惠於Blackwell新方案、GB200/GB300机柜较高价值的整合型AI方案,预料将有近48%的年成长。
2026年在GPU供应商积极推出整柜型方案,以及CSP扩大投资ASIC AI基础建设的情况下,AI server产值有??较2025年再增加30%以上,营收占整体server比重将达74%。
惟若进一步分析AI晶片供应商竞争格局,估计2025年NVIDIA仍占据约70%市场。但到了2026年因北美CSP、大陆AI自研晶片力道更加强劲,预期ASIC拉货成长幅度将高於GPU,进,而导致NVIDIA市占下滑。
TrendForce表示,高阶AI晶片记忆体主要配套HBM,中低阶产品则搭配Graphics DRAM。由於GPU需求维持在高水位,且供应商产品不断推陈出新,个别晶片搭载的HBM容量亦明显提升,拉动HBM需求。
以2025年AI晶片出货量推估,HBM需求量年增达130%以上;预计2026年HBM消耗量将持续增加,年成长仍有70%以上,主要驱动力包括B300、GB300、R100/R200、VR100/VR200的渗透,加上Google TPU、AWS Trainium皆积极推进至HBM3e世代。
至於HBM价格,2025年因NVIDIA、AMD晶片主要搭载HBM3e世代产品,ASIC也有升级至HBM3e的趋势,需求相对热络,HBM3e销售单价年增5-10%。但随着Samsung完成HBM3e验证後,2026年这项产品将呈现三大原厂竞争的格局,买方握有较大议价优势,合约价将恐有转为年减的压力。
目前HBM4已陆续进入送样阶段,後续进度仍待观察,且买方正要启动备货,TrendForce预估其2026年销售单价将显着高於HBM3e,供应商获利空间较大。然而,若明年三家原厂皆完成验证,买卖双方不排除将再次议价。