为加速AI应用导入与升级,全球云端服务供应商(CSP)仍持续加强投资AI server及相关基础建设,依TrendForce预估2026年8大主要CSP的合计资本支出将超越7,100亿美元,年成长率约61%。业者除持续采购NVIDIA、AMD GPU方案,也扩大导入ASIC基础设施,以确保各项AI应用服务的适切性,以及资料中心建置成本效益。
 |
| 为加速AI应用导入与升级,全球云端服务供应商(CSP)仍持续加强投资AI server及相关基础建设,并扩大导入ASIC基础设施。 |
其中包含美系Google、AWS、Meta、Microsoft、Oracle及中国大陆系的Tencent、Alibaba、Baidu等,预估2026年Google母公司Alphabet的资本支出有??逾1,783亿美元,年成长率高达95%。且因为Google比其他CSP更早投入自研ASIC,已累积相当研发优势,预期今年TPU主力将转进至v8新平台。
另受惠Google Cloud Platform、Gemini等AI应用带动TPU需求,预估2026年TPU於Google AI server的出货占比将上升至逼近78%,扩大与GPU AI server的差距。Google也是各CSP中,唯一ASIC机种出货比例高於GPU机种的业者。
Amazon近期则上调对NVIDIA GB300、V200整柜系统的采购规模,反映其加速导入更高功耗与密度的GPU平台,以因应云端AI训练、推理服务扩张,预估2026年其GPU机种於自家AI server占比将达近60%。关於其自研ASIC的新一代Trainium 3,将於2026年Q2起接续Trainium 2/2.5放量;系统端因为尚需配合软体成熟度、产品验证等,出货动能可能到下半年才较为显着。
此外,依TrendForce预估2026年Meta的资本支出将破1,245亿美元,年增77%。其AI server也以NVIDIA、AMD方案为主,估GPU机种占比仍将高达80%以上;另欲推进自研ASIC,以降低单位算力成本、分散对单一供应商的依赖,惟据供应链评估,其MTIA目前仍受软硬体系统调教耗时等影响,恐面临实际出货不如原预期的风险。
Microsoft则看好大模型训练推理的长期需求,主要购置NVIDIA整柜解决方案支持其AI server出货。该公司日前并发布自研晶片Maia 200,锁定高效率AI推理应用。Oracle则因应Stargate、Open AI等扩增AI资料中心专案,持续布建GPU整柜式方案。
惟若进一步分析陆系CSP动态,尽管ByteDance未公开揭露2026年资本支出细节,但预估一半以上资金将用於采购AI晶片相关产品。NVIDIA H200可??成为ByteDance AI server的一项主要方案,但仍须视後续美国、大陆官方审查情况而定。ByteDance同时扩大导入本土AI晶片,主要采用Cambricon等方案。
Tencent利用外购NVIDIA等GPU方案支撑云端、生成式AI需求,也同时与当地业者合作发展ASIC自主方案,聚焦网通应用、资料中心基础架构、线上AI应用服务等场景,以分散算力来源并提升系统整合弹性。
目前Alibaba和Baidu皆积极自研ASIC AI晶片。Alibaba旗下有平头哥、阿里云事业等,提供公有云和其他线上服务的AI应用基础设施,并开发Qwen(通义)LLM及App应用软体等,同时面向自用云端、企业和消费性用户。Baidu规划於2026後陆续导入Kunlun新方案,锁定大规模AI训练或AI推理应用,并尝试发展AI server cluster超节点天池系列,连结可达数百颗AI晶片以强化整体AI系统运算能力。