Explorar estrategias de implementación de modelos
Después de entrenar el modelo, el siguiente paso es la implementación. Para implementar el modelo de forma eficaz, debe usar MLflow.
MLflow le ayuda a administrar todo el proceso, desde registrar parámetros y métricas hasta empaquetar y compartir su modelo.
También debe tener en cuenta cómo desea implementar el modelo. Puede optar por predicciones en tiempo real utilizando Mosaic AI Model Serving o por predicciones por lotes con trabajos de Azure Databricks. Como alternativa, puede integrar con Azure Machine Learning y usar sus funcionalidades integradas para implementar el modelo en un punto de conexión por lotes o en tiempo real.
Sea cual sea el enfoque que elija, la implementación del modelo garantiza que el modelo está listo para producción y puede proporcionar la información que necesita.
Usar MLflow para la administración de modelos
Azure Databricks funciona con MLflow. MLflow es una plataforma de código abierto para administrar todo el ciclo de vida de aprendizaje automático.
Con MLflow, puede realizar un seguimiento de los experimentos, el código de paquete y compartir e implementar modelos. MLflow garantiza que los modelos se administran de forma coherente desde el desarrollo hasta la producción.
El servidor de seguimiento de MLflow le permite registrar parámetros, métricas y artefactos. Las funcionalidades de seguimiento de MLflow proporcionan un registro completo del rendimiento del modelo y ayudan con la reproducibilidad.
Sugerencia
Obtenga más información sobre cómo registrar, cargar, registrar e implementar modelos de MLflow.
Implementar modelos con Databricks
La implementación de modelos con Azure Databricks implica usar Mosaic AI Model Serving para crear API de nivel de producción a partir de modelos de Python personalizados.
Los modelos personalizados de Python son los modelos que se entrenan mediante bibliotecas como scikit-learn, XGBoost, PyTorch y transformadores HuggingFace.
Después del entrenamiento, registre el modelo entrenado en el formato MLflow y registre los recursos de MLflow en Unity Catalog o en el registro del área de trabajo.
Una vez registrado, puede crear y consultar puntos de conexión de servicio de modelo, lo que garantiza que los modelos estén listos para realizar predicciones en tiempo real mediante la integración del punto de conexión en las soluciones.
Sugerencia
Obtenga más información sobre cómo implementar y consultar un modelo personalizado.
Generar predicciones por lotes
En los casos de uso en los que las predicciones en tiempo real no son necesarias, la inferencia por lotes puede ser una estrategia de implementación más eficaz. Las predicciones por lotes se suelen usar en escenarios como la generación de informes periódicos o la actualización de almacenes de datos con nueva información.
Azure Databricks puede procesar grandes conjuntos de datos en paralelo mediante Apache Spark, lo que resulta adecuado para las tareas de inferencia por lotes.
Al ejecutar un trabajo de Azure Databricks, el modelo se puede aplicar a grandes volúmenes de datos de forma programada. Puede generar predicciones por lotes o información que se puede almacenar y acceder a ellas según sea necesario.
Sugerencia
Obtenga más información sobre cómo implementar modelos para la inferencia y predicción por lotes.
Integración con Azure Machine Learning
Azure Databricks se integra con Azure Machine Learning, lo que le permite implementar modelos en puntos de conexión en el área de trabajo de Azure Machine Learning.
Tanto Azure Databricks como Azure Machine Learning funcionan con MLflow para administrar modelos. Puede entrenar un modelo en Azure Databricks y guardarlo como modelo de MLflow. A continuación, puede registrar el modelo de MLflow en el área de trabajo de Azure Machine Learning, después de lo cual puede implementar fácilmente el modelo en un punto de conexión por lotes o en tiempo real.
Sugerencia
Obtenga más información sobre los puntos de conexión de Azure Machine Learning para la inferencia en producción.