Notebookcheck Logo

AMD annonce le GPU Instinct MI100 basé sur CDNA avec 120 CUs pour le HPC, promet jusqu'à 2,1x plus de performance par dollar par rapport au NVIDIA A100

Accélérateur AMD Instinct MI100 HPC. (Source de l'image : AMD)
Accélérateur AMD Instinct MI100 HPC. (Source de l'image : AMD)
AMD a annoncé ce qu'elle appelle le GPU HPC le plus rapide au monde, l'Instinct MI100 basé sur l'architecture CDNA. L'Instinct MI100 offre jusqu'à 11,5 TFLOP de performances de calcul FP64 lorsqu'il est associé à des processeurs EPYC de deuxième génération. Le MI100 est censé offrir de meilleures performances par dollar par rapport au GPU NVIDIA A100, ainsi que la prise en charge de la nouvelle plate-forme logicielle ROCm 4.0.

AMD a annoncé le lancement du Instinct MI100, basé sur la nouvelle architecture CDNA, destiné à l'apprentissage machine (ML) et aux charges de travail du calcul haute performance (HPC). Le MI100 devrait offrir 10 téraflops de performance FP64, allant jusqu'à 11,5 TFLOPS lorsqu'il est couplé avec des processeurs AMD EPYC de deuxième génération.

Au cours de la présentation, AMD a également confirmé que les processeurs EPYC de troisième génération basés sur le code Zen 3 de Milan sont maintenant échantillonnés pour sélectionner les OEM et sont prévus pour un lancement au premier trimestre 2021.

AMD a déclaré qu'elle développait différentes architectures adaptées à des applications spécifiques avec un certain chevauchement. Alors que l'ARNR s'adressera aux jeux, l'ARNCD est davantage axé sur les applications de calcul et de HPC. Le MI100 d'Instinct offre une technologie de base de matrice qui permet des opérations matricielles de précision simples et mixtes telles que FP32, FP16, bFloat16, Int8 et Int4.

Le tissu Infinity de deuxième génération du MI100 est doté de 32 Go de mémoire HBM2 à 1,2 GHz, offrant une bande passante de 1,23 TB/s

Le tableau suivant illustre les spécifications du AMD Instinct MI100

ConceptionPleine hauteur, double fente, 10,5 in. de long
Unités de calcul 120
Processeurs de flux7,680
FP64 TFLOPs (Peak)11.5
FP32 TFLOPs (Peak)23.1
Matrice FP32 TFLOPs (Peak)46.1
Matrice FP16/FP16 TFLOPs (Peak)184.6
Int4/Int8 TOPS (Peak)184.6
bFLOAT16 TFLOPs (Peak)92.3
Mémoire du CEC HBM232 GB
Interface mémoire4 096 bits
Horloge mémoire1.2 GHz
Bande passante de la mémoire1.23 TB/s
Support PCIeGen4
Liaisons de tissus à l'infini/Bande passante3 / 276 GB/s
TDP300 W
RefroidissementRefroidissement passif

Bien que le MI100 soit conçu pour fonctionner avec les processeurs EPYC, AMD a confirmé que le nouveau GPU supporte également les processeurs Intel. Dans l'ensemble, on peut s'attendre à des performances jusqu'à 7x le FP16 du MI100 par rapport aux GPU HPC d'AMD de la génération précédente.

L'Instinct MI100 fournit jusqu'à 64 Go/s de bande passante Infinity Fabric entre le CPU et le GPU sans qu'il soit nécessaire d'utiliser des commutateurs PCIe. Il existe au total trois liaisons Infinity Fabric qui offrent un débit allant jusqu'à 276 Go/s. Essentiellement, une ruche quadruple-GPU du MI100 peut donner jusqu'à 1,1 To/s de bande passante totale. Selon AMD, ces caractéristiques donnent au MI100 des avantages significatifs par rapport au NVIDIA A100 dans les charges FP16/FP32 tout en offrant des performances plus élevées par dollar (voir les diapositives ci-dessous).

Le MI100 d'Instinct prend en charge le nouvel écosystème ROCm 4.0, qu'AMD présente comme une solution complète d'exascale pour les charges de travail ML et HPC. ROCm 4.0 utilise désormais un compilateur open source et supporte OpenMP 5.0 et HIP. En outre, PyTorch et TensorFlow sont maintenant optimisés pour ROCm 4.0.

On peut s'attendre à ce que l'AMD Instinct MI100 soit utilisé à la fin de l'année dans les principaux systèmes OEM et ODM de Dell, Gigabyte, HP et SuperMicro.

AMD Instinct MI100 - Die Shot. (Source de l'image : AMD)
AMD Instinct MI100 - Die Shot. (Source de l'image : AMD)
AMD Instinct MI100 - Gauche. (Source de l'image : AMD)
AMD Instinct MI100 - Gauche. (Source de l'image : AMD)
AMD Instinct MI100 - En bas. (Source de l'image : AMD)
AMD Instinct MI100 - En bas. (Source de l'image : AMD)
AMD Instinct MI100 - Exact. (Source de l'image : AMD)
AMD Instinct MI100 - Exact. (Source de l'image : AMD)
AMD Instinct MI100 - Retour. (Source de l'image : AMD)
AMD Instinct MI100 - Retour. (Source de l'image : AMD)
AMD Instinct MI100 - Top. (Source de l'image : AMD)
AMD Instinct MI100 - Top. (Source de l'image : AMD)

Source(s)

Communiqué de presse AMD

Please share our article, every link counts!
> Revues et rapports de ordinateurs portatifs et smartphones, ordiphones > Archives des nouvelles 2020 11 > AMD annonce le GPU Instinct MI100 basé sur CDNA avec 120 CUs pour le HPC, promet jusqu'à 2,1x plus de performance par dollar par rapport au NVIDIA A100
Vaidyanathan Subramaniam, 2020-11-17 (Update: 2020-11-17)