Partager via


Planifier l’accélération GPU dans Windows Server

Cet article présente les fonctionnalités de virtualisation graphique disponibles dans Windows Server.

Quand utiliser l’accélération GPU

En fonction de votre charge de travail, vous pouvez envisager l'accélération GPU. Voici ce que vous devez prendre en compte avant de choisir l’accélération GPU :

  • Charges de travail liées aux applications et au bureau à distance (VDI/DaaS) : Si vous créez un service d'application ou de communication à distance avec Windows Server, tenez compte du catalogue d'applications que vous attendez de vos utilisateurs. Certains types d’applications, comme les applications de CAO/CAM, les simulations, les jeux et les applications de rendu/visualisation, s’appuient fortement sur le rendu 3D pour offrir une interactivité fluide et réactive. La plupart des clients considèrent que les GPU sont nécessaires pour une expérience utilisateur raisonnable avec ces types d’applications.
  • Charges de travail de rendu, d’encodage et de visualisation à distance : ces charges de travail graphiques ont tendance à s’appuyer fortement sur les fonctionnalités spécialisées d’un GPU, comme le rendu 3D efficace et l’encodage/décodage des images, afin d’atteindre les objectifs de rentabilité et de débit. Pour ce type de charge de travail, une seule machine virtuelle (VM) dotée d'un GPU pourrait être en mesure d'égaler le débit de plusieurs VM dotées uniquement d'un processeur.
  • Charges de travail HPC et ML : pour les charges de travail de calcul hautement parallèles, comme l’apprentissage ou l’inférence de modèle Machine Learning et de calcul hautes performances, les GPU peuvent réduire considérablement le temps de production de résultats, d’inférence et d’entraînement. Par ailleurs, elle pourrait offrir un meilleur rapport coût-efficacité qu'une architecture basée sur le processeur à un niveau de performance comparable. De nombreux frameworks de calcul haute performance (HPC) et de machine learning peuvent utiliser l'accélération GPU ; examinez si l'accélération GPU pourrait bénéficier à votre charge de travail spécifique.

Virtualisation de GPU dans Windows Server

Les technologies de virtualisation de GPU activent l’accélération GPU dans un environnement virtualisé, généralement au sein de machines virtuelles. Si votre charge de travail est virtualisée avec Hyper-V, alors vous devez employer la virtualisation graphique afin de fournir une accélération GPU du GPU physique à vos apps ou services virtualisés. Toutefois, si votre charge de travail s’exécute directement sur des hôtes Windows Server physiques, vous n’avez pas besoin de virtualisation graphique ; vos applications et services ont déjà accès aux fonctionnalités et aux API de GPU prises en charge en mode natif dans Windows Server.

Les technologies de virtualisation graphique suivantes sont disponibles pour les machines virtuelles Hyper-V dans Windows Server :

En plus des charges de travail de machine virtuelle, Windows Server prend en charge l’accélération GPU des charges de travail conteneurisées dans des conteneurs Windows. Pour plus d’informations, consultez Accélération GPU dans les conteneurs Windows.

Affectation discrète d’appareil (DDA)

L’attribution d’un DDA (Discrete Device Assignment) vous permet de dédier un ou plusieurs GPU physiques à une machine virtuelle. Dans un déploiement DDA, les charges de travail virtualisées s’exécutent sur le pilote natif et disposent généralement d’un accès complet aux fonctionnalités du GPU. DDA offre le plus haut niveau de compatibilité des applications et de performances potentielles. DDA peut également fournir une accélération GPU aux machines virtuelles Linux, sous réserve de prise en charge.

Un déploiement DDA ne peut accélérer qu’un nombre limité de machines virtuelles, car chaque GPU physique peut fournir une accélération à au plus une machine virtuelle. Si vous développez un service dont l’architecture prend en charge les machines virtuelles partagées, envisagez d’héberger plusieurs charges de travail accélérées par machine virtuelle. Par exemple, si vous développez une solution de services de bureau à distance, vous pouvez améliorer l'échelle des utilisateurs en utilisant les capacités multisessions de Windows Server pour héberger plusieurs bureaux d'utilisateurs sur chaque machine virtuelle. Ces utilisateurs partagent les avantages de l'accélération GPU.

Pour plus d’informations, consultez les articles suivants :

Partitionnement du GPU (GPU-P)

À partir de Windows Server 2025, le partitionnement GPU vous permet de partager un appareil GPU physique avec plusieurs machines virtuelles (VM). Avec le partitionnement du GPU ou la virtualisation du GPU, chaque machine virtuelle obtient une fraction dédiée du processeur graphique (GPU) au lieu de l’ensemble du GPU.

La fonctionnalité de partitionnement de GPU utilise l’interface SR-IOV (Single Root IO Virtualization, virtualisation d’E/S d’une racine unique), qui fournit une limite de sécurité basée sur le matériel avec des performances prévisibles pour chaque machine virtuelle. Chaque machine virtuelle peut accéder uniquement aux ressources GPU qui lui sont dédiées et le partitionnement sécurisé du matériel empêche tout accès non autorisé par d'autres machines virtuelles.

Pour en savoir plus sur le partitionnement GPU, consultez ces articles :

Comparaison entre le DDA et le GPU partitionnement

Tenez compte des différences de fonctionnalités et de prise en charge suivantes entre les technologies de virtualisation graphique lors de la planification de votre déploiement :

Description Attribution d’appareils en mode discret Partitionnement du GPU
Modèle de ressource GPU Dédié uniquement Partitionné
Densité de machines virtuelles Faible (un ou plusieurs GPU sur une machine virtuelle) Élevée (un ou plusieurs GPU pour de nombreuses machines virtuelles)
Compatibilité des applications Toutes les fonctionnalités GPU fournies par le fournisseur (DX 12, OpenGL, CUDA) Toutes les fonctionnalités GPU fournies par le fournisseur (DX 12, OpenGL, CUDA)
AVC444 Disponible via les stratégies de groupe Disponible via les stratégies de groupe
VRAM de GPU Jusqu’à la quantité de RAM vidéo prise en charge par le GPU Jusqu'à VRAM pris en charge par le GPU par partition
Pilote GPU dans l’invité Pilote de fournisseur GPU (NVIDIA, AMD, Intel) Pilote de fournisseur GPU (NVIDIA, AMD, Intel)