AMD正式推出InstinctMI10032GBHPC加速器 这是世界上最快的采用CDNA架构的HPCGPU

马学爽
导读 AMD正式公布了其下一代本能MI100加速器,采用CDNA GPU,是世界上最快的HPC GPU。Instmi100旨在为AI深度学习工作负载提供全球最快的双精度

AMD正式公布了其下一代本能MI100加速器,采用CDNA GPU,是世界上最快的HPC GPU。Instmi100旨在为AI深度学习工作负载提供全球最快的双精度计算功能和疯狂的GPU性能。

1-2060x1197.png AMD-镭龙-本能-mi 100-HPC-GPU-加速器(438 KB,下载数量:9)

上传于2020-11-16 22:23

AMD的Instinct MI100将使用CDNA架构,这与本月晚些时候玩家可以使用的RDNA架构完全不同。CDNA架构是专门为HPC市场设计的,将对应NVIDIA的Ampere A100和类似的加速卡。

3-1480x833.jpg AMD-镭龙-本能-mi 100-HPC-GPU-加速器(56.02 KB,下载数量:4)

上传于2020-11-16 22:26

AMD Instinct MI100采用7nm CDNA GPU,总共可容纳120个计算单元或7680个处理器。GPU的时钟速度配置为TFLOP约1500MHz,在FP64中提供11.5 TFLOP的峰值性能吞吐量,在FP32中提供23.1 TFLOP,在FP16计算工作负载中提供185。加速器的总功耗为300W。

5-1480x833.jpg AMD-镭龙-本能-mi 100-HPC-GPU-加速器(95.16kb,下载数量:12)

上传于2020-11-16 22:26

内存方面,AMD将为其镭龙Instinct MI100 HPC加速器配备HBM2,总共32GB。显卡将支持4和8GPU配置,并通过新的Infinity Fabric X16互联进行通信,其额定带宽为276 GB/s,AMD使用的HBM2的有效带宽为1.23GB/s,而NVIDIA A100使用的HBM2e的有效带宽为1.536 GB/s。

2-1480x833.jpg AMD-镭龙-本能-mi 100-HPC-GPU-加速器(55.96 KB,下载数量:8)

上传于2020-11-16 22:26

4-1480x833.jpg AMD-镭龙-本能-mi 100-HPC-GPU-加速器(52.99KB,下载数量:9)

上传于2020-11-16 22:26

在性能方面,AMD Instinct MI100与NVIDIA Volta V100和NVIDIA Ampere A100 GPU加速器进行了对比。与这些数字相比,Instinct MI100的FP64提升了19.5%,FP32的性能提升了18.5%。但是NVIDIA A100在FP16性能上比Instinct MI100有69%的优势。

AMD-Instinct-MI100-。JPG (118.75 KB,下载次数:12次)

上传于2020-11-16 22:49

实际工作负载性能方面,AMD Instinct MI100在FP64和FP32工作负载下的性价比是2.1倍。这些数字与NVIDIA A100的性能进行了比较。它们的性能比使用Volta的V100 GPU加速器快3倍/1.4倍/2.6倍。与MI60相比,Instinct MI100提高了picong pu 40%的工作量。

AMD-Instinct-MI100-Specifications.jpg(114.44 KB,下载次数:9)

上传于2020-11-16 22:49

据AMD透露,其Instinct MI100 GPU加速器将用于OEM和ODM,并将于2020年底与首批系统集成。

AMD-Instinct-MI100-Architecture.jpg(148.46 KB,下载次数:9)

上传于2020-11-16 22:49

来源

标签:

免责声明:本文由用户上传,如有侵权请联系删除!