Compartir vía


Imágenes de Docker precompiladas para la inferencia

Se usan imágenes de contenedor de Docker precompiladas para la inferencia al implementar un modelo con Azure Machine Learning. Las imágenes se precompilan con conocidos marcos de aprendizaje automático y paquetes de Python. También puede ampliar los paquetes para agregar otros paquetes mediante uno de los métodos siguientes:

¿Por qué debo usar imágenes precompiladas?

  • Reduce la latencia de implementación del modelo.
  • Mejora la tasa de éxito de implementación del modelo
  • Evita la compilación de imágenes innecesaria durante la implementación del modelo.
  • Incluye solo las dependencias necesarias y el derecho de acceso en la imagen o contenedor.

Lista de imágenes de Docker precompiladas para la inferencia

Importante

La lista proporcionada en la tabla siguiente incluye solo las imágenes de Docker de inferencia que Azure Machine Learning admite actualmente.

  • Todas las imágenes de Docker se ejecutan como usuario no raíz.
  • Se recomienda usar la etiqueta latest para imágenes de Docker. Las imágenes de Docker precompiladas para la inferencia se publican en el registro de contenedor de Microsoft (MCR). Para obtener información sobre cómo consultar la lista de etiquetas disponibles, vea el repositorio de GitHub de MCR.
  • Si desea usar una etiqueta específica para cualquier imagen de Docker de inferencia, Azure Machine Learning admite etiquetas que van de latest a seis meses anteriores a latest.

Inferencia mínima de imágenes base

Versión del marco CPU/GPU Paquetes preinstalados Ruta de acceso de MCR
N/D CPU N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cpu-inference:latest
N/D GPU N/D mcr.microsoft.com/azureml/minimal-ubuntu20.04-py38-cuda11.6.2-gpu-inference:latest
N/D CPU N/D mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cpu-inference:latest
N/D GPU N/D mcr.microsoft.com/azureml/minimal-ubuntu22.04-py39-cuda11.8-gpu-inference:latest

Nota:

Azure Machine Learning admite Entornos mantenidos. Puede examinar entornos mantenidos y agregar filtro para Tags: Inferencing.