Entrenamiento de ML acelerado para GPU
En esta documentación se trata la configuración de escenarios de entrenamiento de aprendizaje automático (ML) acelerado por GPU para el Subsistema de Windows para Linux (WSL) y Windows nativo.
Esta funcionalidad admite escenarios para profesionales y principiantes. A continuación encontrará enlaces a guías paso a paso sobre cómo configurar el sistema en función del nivel de experiencia en ML, el proveedor de GPU y la biblioteca de software que quiera usar.
NVIDIA CUDA en WSL
Si es un científico de datos profesional que usa un entorno nativo de Linux día a día para el desarrollo y la experimentación de ML de bucle interno, y tiene una GPU de NVIDIA, se recomienda configurar NVIDIA CUDA en WSL.
TensorFlow con DirectML
Si es estudiante, principiante o profesional que usa TensorFlow y busca un marco que funcione en toda la amplitud de las GPU compatibles con DirectX 12, se recomienda configurar TensorFlow con el paquete DirectML. Este paquete acelera los flujos de trabajo en GPU de AMD, Intel y NVIDIA.
Si está más familiarizado con un entorno nativo de Linux, se recomienda ejecutar TensorFlow con DirectML dentro de WSL.
Si está más familiarizado con Windows, se recomienda ejecutar TensorFlow con DirectML en Windows nativo.
PyTorch con DirectML
Si es estudiante, principiante o profesional que usa PyTorch y busca un marco que funcione en toda la amplitud de las GPU compatibles con DirectX 12, se recomienda configurar PyTorch con el paquete DirectML. Este paquete acelera los flujos de trabajo en GPU de AMD, Intel y NVIDIA.
Si está más familiarizado con un entorno nativo de Linux, se recomienda ejecutar PyTorch con DirectML dentro de WSL.
Si está más familiarizado con Windows, se recomienda ejecutar PyTorch con DirectML en Windows nativo.