Freigeben über


GPU-beschleunigtes ML-Training

Windows ML graphic

Diese Dokumentation behandelt das Einrichten von GPU beschleunigten Ml-Schulungsszenarien (Machine Learning) für die Windows-Subsystem für Linux (WSL) und native Windows-Systeme.

Diese Funktionalität unterstützt sowohl professionelle als auch Anfängerszenarien. Unten finden Sie Zeiger zu schrittweisen Anleitungen zum Einrichten Ihres Systems je nach Ihrem Fachwissen in ML, Ihrem GPU-Anbieter und der Softwarebibliothek, die Sie verwenden möchten.

NVIDIA CUDA in WSL

Wenn Sie ein professioneller Data-Wissenschaftler sind, der täglich eine native Linux-Umgebung für die Entwicklung und das Experimentieren in inneren Schleifen ML verwendet, und Sie über eine NVIDIA GPU verfügen, empfehlen wir die Einrichtung von NVIDIA CUDA in WSL.

TensorFlow mit DirectML

Wenn Sie Schüler, Anfänger oder Professional sind und TensorFlow verwenden und nach einem Framework suchen, das über die Breite von DirectX 12-fähigen GPUs funktioniert, empfehlen wir das Einrichten des Pakets TensorFlow mit DirectML . Dieses Paket beschleunigt Workflows für AMD, Intel und NVIDIA GPUs.

Wenn Sie mit einer nativen Linux-Umgebung vertraut sind, empfehlen wir, TensorFlow mit DirectML in WSL auszuführen.

Wenn Sie mit Windows vertraut sind, empfehlen wir, TensorFlow mit DirectML in nativem Windows-System auszuführen.

PyTorch mit DirectML

Wenn Sie Schüler, Anfänger oder Professional sind, und PyTorch verwenden und nach einem Framework suchen, das über die Breite von DirectX 12-fähigen GPUs funktioniert, empfehlen wir das Einrichten des Pakets PyTorch mit DirectML . Dieses Paket beschleunigt Workflows für AMD, Intel und NVIDIA GPUs.

Wenn Sie mit einer nativen Linux-Umgebung vertraut sind, empfehlen wir, PyTorch mit DirectML in WSL auszuführen.

Wenn Sie mit Windows vertraut sind, empfehlen wir, PyTorch mit DirectML in nativem Windows-System auszuführen.

Nächste Schritte