账号:
密码:
最新动态
产业快讯
CTIMES/SmartAuto / 新闻 /
NVIDIA发表80GB记忆体 GPU 运算效能突破2TB/s
 

【CTIMES / SMARTAUTO ABC_1 报导】    2020年11月17日 星期二

浏览人次:【3480】

NVIDIA (辉达) 宣布推出 NVIDIA A100 80GB GPU,其记忆体容量较前一代多出一倍,将为次世代的 AI 与科学研究提供倍数的效能。

/news/2020/11/17/2002047630S.jpg

NVIDIA指出, A100 搭载 HBM2e 技术,将 A100 40GB GPU 的高频宽记忆体容量加倍至 80GB,提供每秒超过 2 terabytes (TB) 的记忆体频宽。

NVIDIA 深度学习应用研究部门??总裁 Bryan Catanzaro 表示,若想获得高效能运算 (HPC) 与人工智慧 (AI) 最顶尖的研究成果,就必须建立极庞大的模型,而这也代表将会需要比过去更多的记忆体容量和传输频宽。A100 80GB GPU 提供比前一代 GPU 多一倍的记忆体容量,让研究人员能克服全球最重要的科学与大数据研究难题。

在 AI 训练方面,例如 DLRM 这类含有大量表格以记载数十亿名用户及数十亿项产品的推荐系统模型,由於 A100 80GB 能提供 3 倍的加速效果,因此企业能快速重新训练这些模型,以提供高精准度的建议。

此外,A100 80GB 还能训练最庞大的模型,透过套用更多叁数,导入到配备单一 HGX 的伺服器,例如GPT-2 ━━ 一个运用自然语言处理模型来执行超越人类的文字生成功能。如此一来就不再需要耗费大量时间建置资料或模型平行处理架构,而且这类技术在跨多个节点运行时速度过慢。

凭藉本身具备的多执行个体GPU (MIG) 技术,A100 可切分成7个GPU执行个体,而单一个体配有 10GB 的记忆体,构成安全无虞的硬体分隔区,并能为各种规模较小的作业负载提供最高的 GPU 资源使用率。对於像 RNN-T 这类自动语音辨识模型的 AI 推论,光靠一个 A100 80GB MIG 执行个体就能处理更大的批量,在生成环境中的推论吞吐量提高 1.25 倍。

在 TB 规模的零售业大数据分析基准方面,A100 80GB 能产生最高 2 倍的效能,故能针对庞大的资料集快速获得洞察,而企业则能透过这些随时更新的资料即时做出关键决策。

在诸如气象预报及量子化学等科学应用方面,A100 80GB 能提供强大的加速效果。例如像 Quantum Espresso 这款材料模拟软体,在单节点 A100 80GB 系统运行可达到接近 2 倍的资料产出量提升。

NVIDIA A100 80GB GPU 现已搭载於 NVIDIA DGXT A100 和NVIDIA DGX Station A100 系统,预计在本季开始出货。包括Atos、戴尔科技 (Dell Technologies)、富士通 (Fujitsu)、技嘉 (GIGABYTE)、慧与科技 (Hewlett Packard Enterprise)、浪潮 (Inspur)、联想 (Lenovo)、广达 (Quanta) 和美超微 (Supermicro) 等系统大厂,预计於 2021 上半年开始提供整合四个或八个 A100 80GB GPU 基板的 HGX A100 。

關鍵字: GPU  NVIDIA 
相关新闻
AMD扩展商用AI PC产品阵容 为专业行动与桌上型系统??注效能
MSI於2024 NAB Show展示媒体及娱乐产业适用的GPU伺服器
AMD第2代Versal系列扩展自调适SoC组合 为AI驱动型系统提供端对端加速
Arm打造全新物联网叁考设计平台 加速推进边缘AI发展进程
Pure Storage携手NVIDIA加快企业AI导入 以满足日益成长的需求
comments powered by Disqus
相关讨论
  相关文章
» 以协助因应AI永无止尽的能源需求为使命
» 低 IQ技术无需牺牲系统性能即可延长电池续航力
» P通道功率MOSFET及其应用
» 运用能量产率模型 突破太阳能预测极限
» 新一代4D成像雷达实现高性能


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK84KDWEN4ESTACUKZ
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw