Partager via


Vue d’ensemble des machines virtuelles de série HX

S’applique à : ✔️ Machines virtuelles Linux ✔️ Machines virtuelles Windows ✔️ Jeux d'échelles flexibles ✔️ Jeux d’échelles uniformes

Un serveur de série HX comprend 2 processeurs EPYC 9V33X à 96 cœurs pour un total de 192 cœurs physiques « Zen4 » avec le cache AMD 3D-V. Le multithreading simultané (SMT) est désactivé sur HX. Ces 192 cœurs sont divisés en 24 sections (12 par socket), chaque section contenant 8 cœurs de processeur avec un accès uniforme à un cache L3 de 96 Mo. Les serveurs HX Azure exécutent également les paramètres du BIOS AMD suivants :

Nodes per Socket (NPS) = 2
L3 as NUMA = Disabled
NUMA domains within VM OS = 4
C-states = Enabled

Par conséquent, le serveur démarre avec 4 domaines NUMA (2 par socket), d’une taille de 48 cœurs chacun. Chaque NUMA a un accès direct à 6 canaux de DRAM physique.

Pour permettre à l’hyperviseur Azure de fonctionner sans interférer avec la machine virtuelle, nous réservons 16 cœurs physiques par serveur.

Topologie des machines virtuelles

Le diagramme suivant montre la topologie du serveur. Nous réservons ces 16 cœurs de l’hôte hyperviseur (jaune) de manière symétrique sur les deux sockets d’UC, en prenant les 2 premiers cœurs des CCD (Core Complex Dies) spécifiques sur chaque domaine NUMA, avec les cœurs restants pour la machine virtuelle de série HX (vert).

Capture d’écran de la topologie de serveur de série HX.

La limite CCD est différente de la limite NUMA. Sur HX, un groupe de six (6) CCD consécutifs est configuré en tant que domaine NUMA, à la fois au niveau du serveur hôte et au sein d’une machine virtuelle invitée. Ainsi, toutes les tailles de machine virtuelle HX exposent 4 domaines NUMA qui apparaissent à un système d’exploitation et une application, comme indiqué ci-dessous, chacun avec un nombre différent de cœurs selon la taille de machine virtuelle HX spécifique.

Capture d’écran de la topologie de machine virtuelle de série HX.

Chaque taille de machine virtuelle HX est similaire dans la disposition physique, les caractéristiques et les performances d’un UC différent de la série AMD EPYC 9004, comme suit :

Taille de machine virtuelle de série HX Domaines NUMA Cœurs par nœud NUMA Similarité avec AMD EPYC
Standard_HX176rs 4 44 EPYC 9V33X à double socket
Standard_HX176-144rs 4 36 EPYC 9V33X à double socket
Standard_HX176-96rs 4 24 EPYC 9V33X à double socket
Standard_HX176-48rs 4 12 EPYC 9V33X à double socket
Standard_HX176-24rs 4 6 EPYC 9V33X à double socket

Notes

Les tailles de machine virtuelle avec cœurs limités réduisent uniquement le nombre de cœurs physiques exposés à la machine virtuelle. Toutes les ressources partagées globales (RAM, bande passante mémoire, cache L3, connectivité GMI et xGMI, InfiniBand, réseau Ethernet Azure, disque SSD local) restent constantes. Cela permet à un client de choisir la taille de machine virtuelle optimale pour un ensemble donné d’exigences en termes de charge de travail ou de licences logicielles.

Le mappage NUMA virtuel de chaque taille de machine virtuelle HX est mappé à la topologie NUMA physique sous-jacente. Il n’y a pas d’abstraction potentiellement trompeuse de la topologie matérielle.

La topologie exacte pour les différentes tailles de machine virtuelle HX apparaît comme suit en utilisant la sortie de lstopo :

lstopo-no-graphics --no-io --no-legend --of txt

Cliquez pour afficher la sortie de lstopo pour Standard_HX176rs

Sortie de lstopo pour la machine virtuelle HX-176

Cliquez pour afficher la sortie de lstopo pour Standard_HX176-144rs

Sortie de lstopo pour la machine virtuelle HX-144

Cliquez pour afficher la sortie de lstopo pour Standard_HX176-96rs

Sortie de lstopo pour la machine virtuelle HX-96

Cliquez pour afficher la sortie de lstopo pour Standard_HX176-48rs

Sortie de lstopo pour la machine virtuelle HX-48

Cliquez pour afficher la sortie de lstopo pour Standard_HX176-24rs

Sortie de lstopo pour la machine virtuelle HX-24

Mise en réseau InfiniBand

Les machines virtuelles HX sont également dotées de cartes réseau NVIDIA Mellanox NDR InfiniBand (ConnectX-7) fonctionnant jusqu’à 400 gigabits/s. La carte réseau est transmise à la machine virtuelle via SR-IOV, ce qui permet au trafic réseau de contourner l’hyperviseur. Par conséquent, les clients chargent des pilotes Mellanox OFED standard sur des machines virtuelles HX de la même manière que sur un environnement matériel nu.

Les machines virtuelles HX prennent en charge le routage adaptatif, le transport connecté dynamique (DCT) (en plus des transports standard RC et UD) et le déchargement matériel des collectifs MPI sur le processeur intégré de l’adaptateur ConnectX-7. Ces fonctionnalités améliorent les performances, la scalabilité et la cohérence des applications, et leur utilisation est recommandée.

Stockage temporaire

Les machines virtuelles HX sont dotées de 3 disques SSD physiques locaux. Un appareil est préformaté pour servir de fichier de page ; il est apparu dans votre machine virtuelle sous forme de disque « SSD » générique.

Deux autres disques SSD de plus grande taille sont fournis en tant qu’appareils NVMe de bloc non formatés via NVMeDirect. Comme l’appareil NVMe de bloc contourne l’hyperviseur, il dispose d’une bande passante plus élevée, d’un nombre IOPS plus élevé et d’une latence inférieure par IOP.

Quand il est associé à une batterie agrégée par bandes, le disque SSD NVMe fournit jusqu’à 12 Go/s de lecture et 7 Go/s d’écriture, et jusqu’à 186 000 IOPS (lectures) et 201 000 IOPS (écritures) pour les profondeurs de file d’attente profondes.

Spécifications matérielles

Spécifications matérielles Machines virtuelles de série HX
Cœurs 176, 144, 96, 48 ou 24 (SMT désactivé)
UC AMD EPYC 9V33X
Fréquence de l’UC (non AVX) Base de 2,4 GHz, boost de pointe de 3,7 GHz
Mémoire 1.4 To (RAM par cœur en fonction de la taille de la machine virtuelle)
Disque local 2 disques NVMe de 1,8 Go (bloc), disque SSD de 480 Go (fichier d’échange)
InfiniBand 400 Gbit/s Mellanox ConnectX-7 NDR InfiniBand
Réseau Ethernet 80 Gbit/s (40 Gbit/s utilisables) SmartNIC Azure 2e gén.

Spécifications logicielles

Spécifications logicielles Machines virtuelles de série HX
Taille de travail MPI max 52 800 cœurs (300 machines virtuelles dans un seul groupe de machines virtuelles identiques avec singlePlacementGroup=true)
Prise en charge MPI HPC-X (2.13 ou version ultérieure), Intel MPI (2021.7.0 ou version ultérieure), OpenMPI (4.1.3 ou version ultérieure), MVAPICH2 (2.3.7 ou version ultérieure), MPICH (4.1 ou version ultérieure)
Frameworks supplémentaires UCX, libfabric, PGAS ou autres runtimes basés sur InfiniBand
Prise en charge de Stockage Azure Disques Standard et Premium (32 disques maximum), Azure NetApp Files, Azure Files, Azure HPC Cache, système de fichiers Azure Managed Lustre
Systèmes d’exploitation pris en charge et validés AlmaLinux 8.6, 8.7, Ubuntu 20.04+
Système d’exploitation recommandé pour de meilleures performances AlmaLinux HPC 8.7, Ubuntu-HPC 20.04+
Prise en charge d’Orchestrator Azure CycleCloud, Azure Batch, AKS ; options de configuration de cluster

Notes

  • Ces machines virtuelles prennent uniquement en charge la 2e génération.
  • La prise en charge officielle au niveau du noyau par AMD commence avec RHEL 8.6 et AlmaLinux 8.6, qui est un dérivé de RHEL.
  • Windows Server 2012 R2 n’est pas pris en charge sur HX et autres machines virtuelles ayant plus de 64 cœurs (virtuels ou physiques). Pour plus d’informations, consultez Systèmes d’exploitation invités Windows pris en charge pour Hyper-V sur Windows Server. Windows Server 2022 est requis pour les tailles de 144 et 176 cœurs. Windows Server 2016 fonctionne également pour les tailles de 24, 48 et 96 cœurs. Windows Server ne fonctionne que pour les tailles de 24 et 48 cœurs.

Important

URN d’image recommandé : almalinux:almalinux-hpc:8_7-hpc-gen2:8.7.2023060101. Pour déployer cette image sur Azure CLI, veillez à inclure les paramètres suivants : --plan 8_7-hpc-gen2 --product almalinux-hpc --publisher almalinux. Pour les tests de mise à l’échelle, utilisez l’URN recommandé avec le nouveau HPC-X tarball.

Notes

  • La prise en charge de NDR est ajoutée dans UCX 1.13 ou version ultérieure. Les anciennes versions d’UCX signaleront l’erreur d’exécution ci-dessus. Erreur UCX : vitesse active non valide [1677010492.951559] [updsb-vm-0:2754 :0] ib_iface.c:1549 UCX ERROR Invalid active_speed on mlx5_ib0:1: 128.
  • Ibstat affiche une faible vitesse (SDR) : les anciennes versions de Mellanox OFED (MOFED) ne prennent pas en charge NDR et peuvent signaler des vitesses IB plus lentes. Utilisez les versions MOFED MOFED 5.6-1.0.3.3 ou ultérieures.

Étapes suivantes