绘图晶片大厂NVIDIA(辉达)揭晓支援 NVIDIA HGX AI 超级运算平台的 NVIDIA A100 80GB GPU,其记忆体容量较前一代多出一倍,为研究人员与工程师带来前所未有的速度与效能,解锁新一波 AI 与科学研究突破的潜能。
全新A100搭载HBM2e技术,将A100 40GB GPU的高频宽记忆体容量加倍至80GB,并提供每秒超过2 terabytes(TB)的记忆体频宽。如此充裕的频宽让资料能快速匯入全球最快的资料中心GPU A100,让研究人员能进一步推升其应用的速度,以处理更庞大的模型与资料集。
NVIDIA深度学习应用研究部门副总裁Bryan Catanzaro表示,若想获得高效能运算(HPC)与人工智慧(AI)最顶尖的研究成果,就必须建立极庞大的模型,而这也代表将会需要比过去更多的记忆体容量和传输频宽。A100 80GB GPU提供比六个月前推出的前一代GPU多一倍的记忆体容量,还突破每秒 2TB 的频宽瓶颈,让研究人员能克服全球最重要的科学与大数据研究难题。
NVIDIA A100 80GB GPU现已搭载于NVIDIA DGXTM A100和17日发表的NVIDIA DGX StationTM A100系统,预计在本季开始出货。
包括Atos、戴尔科技、富士通、技嘉、慧与科技、浪潮、联想、广达和美超微(Supermicro)等顶尖系统大厂,预计于2021上半年开始提供整合四个或八个 A100 80GB GPU 基板的 HGX A100 。
建立于具备多元功能的A100 40GB,此次推出的80GB版本能因应庞大资料记忆体的需求,适用于更大范围的应用。
在AI训练方面,例如DLRM这类含有大量表格以记载数十亿名用户及数十亿项产品的推荐系统模型,由于A100 80GB能提供3倍的加速效果,因此企业能快速重新训练这些模型,以提供高精准度的建议。
此外,A100 80GB还能训练最庞大的模型,透过套用更多参数,导入到配备单一HGX的伺服器,例如GPT-2是一个运用自然语言处理模型来执行超越人类的文字生成功能。如此一来就不再需要耗费大量时间建置资料或模型平行处理架构,而且这类技术在跨多个节点运行时速度过慢。
凭藉本身具备的多执行个体GPU(MIG)技术,A100可切分成7个GPU执行个体,而单一个体配有10GB的记忆体,构成安全无虞的硬体分隔区,并能为各种规模较小的作业负载提供最高的GPU资源使用率。对于像RNN-T这类自动语音辨识模型的AI推论,光靠一个 A100 80GB MIG执行个体就能处理更大的批量,在生成环境中的推论吞吐量提高1.25倍。
在 TB 规模的零售业大数据分析基准方面,A100 80GB 能产生最高 2 倍的效能,故能针对庞大的资料集快速获得洞察,而企业则能透过这些随时更新的资料即时做出关键决策。
在诸如气象预报及量子化学等科学应用方面,A100 80GB 能提供强大的加速效果。例如像 Quantum Espresso 这款材料模拟软体,在单节点 A100 80GB 系统运行可达到接近 2 倍的资料产出量提升。
日本理化学研究所计算科学研究中心 (RIKEN Center for Computational Science) 主任松冈聪表示,加速且充裕的记忆体频宽与容量,是实现高效能超级运算应用的关键条件。NVIDIA A100 结合 80GB 的 HBM2e GPU 记忆体,以每秒2 TB带来全球最快的传输频宽,将为应用挹注大幅提升的效能表现。
A100 80GB GPU 是 NVIDIA HGX AI 超级运算平台的关键元素,匯集了 NVIDIA GPU、NVIDIA NVLink、NVIDIA InfiniBand 网路技术的力量,加上完全优化的 NVIDIA AI 与 HPC 软体堆迭,发挥最高的应用效能。它让研究人员与科学家能结合 HPC、资料分析及深度学习运算方法,推动科学研究的进展。
发表意见
中时新闻网对留言系统使用者发布的文字、图片或檔案保有片面修改或移除的权利。当使用者使用本网站留言服务时,表示已详细阅读并完全了解,且同意配合下述规定:
违反上述规定者,中时新闻网有权删除留言,或者直接封锁帐号!请使用者在发言前,务必先阅读留言板规则,谢谢配合。