随着AI运算需求持续??升,从大型语言模型(LLM)、生成式AI到高效能运算(HPC),资料中心面临的最大瓶颈已不再是单纯的晶片效能,而是频宽、功耗与散热。传统电连接逐渐无法满足AI GPU/TPU所需的庞大资料传输,促使 光电整合(Opto-Electronic Integration)成为必然趋势。其中,CPO(Co-Packaged Optics,光电共封装)与LPO(Linear Drive Pluggable Optics,线性可??拔光模组)两种不同架构的方案,正成为全球大厂与台湾光通讯供应链的竞逐焦点。
AI伺服器的频宽与功耗挑战
在生成式AI与超大规模训练模型驱动下,单一AI伺服器可能搭载多达数十颗GPU,并透过高速互连进行大规模运算。以NVIDIA H100、B100系列为例,每颗GPU之间需要数百GB/s的资料传输能力,而未来HBM4/PCIe 7.0世代甚至将突破至数TB/s级别。
...
...
| 另一名雇主 |
限られたニュース |
文章閱讀限制 |
出版品優惠 |
| 一般使用者 |
10/ごとに 30 日間 |
0/ごとに 30 日間 |
付费下载 |
| VIP会员 |
无限制 |
25/ごとに 30 日間 |
付费下载 |