NVIDIA HGX AI 超级计算机

NVIDIA HGX AI 超级计算机

品牌: 英伟达
型号:

价格:

功能强大的端到端 AI 超级计算平台。

  • 产品介绍
  • 规格参数
  • 商品资源
  • 购买须知

专为模拟仿真、数据分析和 AI 的融合而构建

庞大的数据集、呈爆炸式增长的模型大小和复杂的模拟需要多个极速互连的 GPU 以及充分加速的软件堆栈。NVIDIA HGX™ AI 超级计算平台整合了 NVIDIA GPU、NVIDIA® NVLink®、NVIDIA InfiniBand 网络及 NVIDIA NGC™ 目录中经全面优化的 NVIDIA AI 和 HPC 软件堆栈,提供出色的应用性能。NVIDIA HGX 具备端到端性能和灵活性,可助力研究人员和科学家整合模拟仿真、数据分析和 AI,推动科学研究取得新进展。


出色的端到端加速计算平台

NVIDIA HGX 将 NVIDIA A100 Tensor Core GPU 与高速互连技术相结合,打造功能强大的服务器。HGX 拥有 16 个 A100 GPU,具有高达 1.3 TB 的 GPU 显存和超过 2 TB/秒的显存带宽,可实现非凡加速。

与前几代产品相比,HGX 借助 Tensor Float 32 (TF32) 开箱即可为 AI 提供高达 20 倍的加速,同时借助 FP64 实现 2.5 倍的 HPC 加速。NVIDIA HGX 提供了令人惊叹的 10 petaFLOPS,为 AI 和 HPC 领域打造出全球性能强劲的加速扩展服务器平台。

HGX 经过全面测试且易于部署,可集成至合作伙伴服务器中,以提供有保证的性能。HGX 平台提供 4-GPU 和 8-GPU HGX 主板并采用 SXM GPU,也可采用 PCIe GPU 的形式以提供模块化部署选项,为主流服务器带来卓越计算性能。

 
 
HGX Stack

深度学习性能

 
 

针对大型模型提供高达 3 倍的 AI 训练速度

DLRM 训练

 
Up to 3X Higher AI Training on Largest Models
 
 
 
 

深度学习模型的大小和复杂性急剧增加,需要系统具备大容量内存、强大计算能力和快速互连能力来实现可扩展性。 借助 NVIDIA NVSwitch™ 提供的高速多对多全 GPU 通信,HGX 能处理极其先进的 AI 模型。A100 80GB GPU 使 GPU 显存容量提高了一倍,可在单个 HGX 中提供高达 1.3 TB 的显存。对于在拥有庞大数据表的超大模型(深度学习推荐模型 (DLRM))上出现的新兴工作负载,相较于 A100 40GB GPU 驱动的 HGX,它能将处理性能加速高达 3 倍。

 

机器学习性能

 
 

相较于 A100 40GB,在大数据分析基准测试中速度提升 2 倍

 
2X Faster than A100 40GB on Big Data Analytics Benchmark
 
 
 
 

机器学习模型需要通过加载、转换和处理极大型数据集来获取重要见解。借助高达 1.3TB 的统一显存和通过 NVSwitch 实现的多对多全 GPU 通信,由 A100 80GB GPU 驱动的 HGX 能够加载巨大的数据集并对其执行计算,从而快速获得可行见解。 在大数据分析基准测试中,A100 80GB 提供见解的吞吐量比 A100 40GB 高两倍,因此非常适合处理数据集大小急增的新型工作负载。

 

HPC 性能

 

HPC 应用程序需要每秒执行大量计算增加每个服务器节点的计算密度可大幅减少所需的服务器数量,因而能够大大节省数据中心所用成本和空间并降低功耗。在模拟仿真方面,高维矩阵乘法需要每个处理器从众多相邻处理器中提取数据以执行计算,这使得通过 NVIDIA NVLink 连接的 GPU 非常适合此用途。HPC 应用还可以利用 A100 中的 TF32 在 4 年内将单精度、密集矩阵乘法运算的吞吐量提高多达 11 倍。

由 A100 80GB GPU 提供支持的 HGX 在 Quantum Espresso(一种材质模拟)上提供了比 A100 40GB GPU 高 2 倍的吞吐量,加快了见解获取速度。

 
 

在四年内将 HPC 性能 提高 11 倍

热门 HPC 应用​

 
11X More HPC Performance in Four Years
 
 
 
 

HPC 应用的性能 提升高达 1.8 倍

Quantum Espresso​

 
Up to 1.8X Higher Performance for HPC Applications
 




HGX H100
  H100 PCIe 4-GPU 8-GPU 256-GPU
GPUs 1x NVIDIA H100 PCIe HGX H100 4-GPU HGX H100 8-GPU 32x HGX H100 8-GPU
外形规格 PCIe 4x NVIDIA H100 SXM 8x NVIDIA H100 SXM 16x NVIDIA H100 SXM
HPC 和 AI 计算 (FP64/TF32/FP16/FP8/INT8) 48TF/800TF/1.6PF/3.2PF/3.2 POPS 240TF/4PF/8PF/16PF/16POPS 480TF/8PF/16PF/32PF/32POPS 15PF/256PF/512PF/1EF/1EOPS
显存 每个 GPU 为 80GB 高达 320GB 高达 640GB 高达 20TB
NVLink 第四代 第四代 第四代 第四代
NVSwitch 不适用 不适用 第三代 第三代
NVLink Switch 不适用 不适用 不适用 第一代
NVSwitch 互联 GPU 间带宽 不适用 不适用 900 GB/s 900 GB/s
聚合总带宽 900 GB/s 3.6 TB/s 7.2 TB/s 57.6 TB/s
  HGX A100
  A100 PCIe 4-GPU 8-GPU 16-GPU
GPUs 1x NVIDIA A100 PCIe HGX A100 4-GPU HGX A100 8-GPU 2x HGX A100 8-GPU
外形规格 PCIe 4x NVIDIA A100 SXM 8x NVIDIA A100 SXM 16x NVIDIA A100 SXM
HPC 和 AI 计算 (FP64/TF32/FP16/INT8) 19.5TF/312TF/624TF/1.2POPS 78TF/1.25PF/2.5PF/5POPS 156TF/2.5PF/5PF/10POPS 312TF/5PF/10PF/20POPS
显存 每个 GPU 为 80GB 高达 320GB 高达 640GB 高达 1,280GB
NVLink 第三代 第三代 第三代 第三代
NVSwitch 不适用 不适用 第二代 第二代
NVSwitch 互联 GPU 间带宽 不适用 不适用 600 GB/s 600 GB/s
聚合总带宽 600 GB/s 2.4 TB/s 4.8 TB/s 9.6 TB/s

订阅快讯

通过快讯订阅,您将及时收到我们的信息更新通知。