Imágenes de Docker precompiladas para la inferencia
Se usan imágenes de contenedor de Docker precompiladas para la inferencia al implementar un modelo con Azure Machine Learning. Las imágenes se precompilan con conocidos marcos de aprendizaje automático y paquetes de Python. También puede ampliar los paquetes para agregar otros paquetes mediante uno de los métodos siguientes:
¿Por qué debo usar imágenes precompiladas?
- Reduce la latencia de implementación del modelo.
- Mejora la tasa de éxito de implementación del modelo
- Evita la compilación de imágenes innecesaria durante la implementación del modelo.
- Incluye solo las dependencias necesarias y el derecho de acceso en la imagen o contenedor.
Lista de imágenes de Docker precompiladas para la inferencia
Importante
La lista proporcionada en la tabla siguiente incluye solo las imágenes de Docker de inferencia que Azure Machine Learning admite actualmente.
- Todas las imágenes de Docker se ejecutan como usuario no raíz.
- Se recomienda usar la etiqueta
latest
para imágenes de Docker. Las imágenes de Docker precompiladas para la inferencia se publican en el registro de contenedor de Microsoft (MCR). Para obtener información sobre cómo consultar la lista de etiquetas disponibles, vea el repositorio de GitHub de MCR. - Si desea usar una etiqueta específica para cualquier imagen de Docker de inferencia, Azure Machine Learning admite etiquetas que van de
latest
a seis meses anteriores alatest
.
Inferencia mínima de imágenes base
Versión del marco | CPU/GPU | Paquetes preinstalados | Ruta de acceso de MCR |
---|---|---|---|
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest |
N/D | GPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest |
N/D | CPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest |
N/D | GPU | N/D | mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest |
Nota:
Azure Machine Learning admite Entornos mantenidos. Puede examinar entornos mantenidos y agregar filtro para Tags: Inferencing
.