账号:
密码:
最新动态
产业快讯
CTIMES/SmartAuto / 新闻 /
美光发布首款8层堆叠24GB HBM3 实现1.2TB/s频宽
 

【CTIMES / SMARTAUTO ABC_1 报导】    2023年07月30日 星期日

浏览人次:【1565】

美光科技宣布推出业界首款第二代 8 层堆叠(8-High)24GB HBM3,并开始送样。此产品频宽达 1.2TB/s 以上,每脚位传输速率超过 9.2Gb/s,较目前市面上的HBM3解决方案高出 50%。此外,美光第二代HBM3的每瓦效能较前几代产品提升2.5 倍,刷新 AI 数据中心的关键性能、容量及功耗指标。这些改进缩短了业界训练 GPT-4 等大型语言模型及其更高阶版本所需时间。

/news/2023/07/30/0929567130S.jpg

奠基於1β DRAM 制程节点,美光的 HBM 解决方案能在业界标准封装尺寸中,将24GB的晶粒组装为8层高度的立方体。美光 12 层堆叠(12-High)36GB HBM3 亦将於 2024 年第一季开始送样。

透过此堆叠高度,美光可提供较竞品解决方案高出 50% 的容量。美光第二代 HBM3 性能功耗比和每脚位传输速率的改善,对因应当前 AI 资料中心的高功耗需求而言至关重要。美光提供较现行 HBM3 解决方案多出一倍的直通矽晶穿孔(TSV)数量,又以五倍金属密度减少热阻抗,并采用高能效资料路径设计,实现功耗的改善。

在生成式AI方面,美光第二代 HBM3 亦能符合多模态数兆叁数AI模型所需。每组堆叠24GB的容量、大於9.2Gbps的每脚位传输速率除了能减少大型语言模型 30% 以上的训练时间,进而降低总体拥有成本外,也能大幅提升每日查询次数,让训练完成的模型在使用时更有效率。

美光??总裁暨运算产品事业群总经理 Praveen Vaidyanathan表示:「美光第二代 HBM3 的研发重点,在於为客户及业界提供卓越的 AI 及高效能运算解决方案。我们所考虑的一项重要标准,就是第二代 HBM3 产品能否轻松与客户平台整合。对此,记忆体内建的自我测试(MBIST)不仅可彻底程式化,还能以规格中的最高每脚位传输速率进行测试,有助於改善与客户的测试能力,提升协作效率,并缩短上市时间。」

關鍵字: HBM  美光 
相关新闻
美光针对用户端和资料中心等市场 推出232层QLC NAND
美光正式量产HBM3E 功耗较前代降低约 30%
Ansys与Humanetics展开深入合作 提升人类安全
美光率先推出基於LPDDR5X的LPCAMM2记忆体
美光推出128GB DDR5 RDIMM记忆体 为生成式AI应用提供更隹解
comments powered by Disqus
相关讨论
  相关文章
» 高频宽电源模组消除高压线路纹波抑制干扰
» 电动压缩机设计ASPM模组
» PCIe桥接AI PC时代
» 用科技灭火:前线急救人员的生命徵象与环境监测
» 打造沉浸式体验 XR装置开启空间运算大门


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK84S7FWELGSTACUKT
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw