Découvrir les stratégies de modèle de déploiement
Une fois que vous avez entraîné votre modèle, l’étape suivante est le déploiement. Pour déployer efficacement votre modèle, vous devez utiliser MLflow.
MLflow vous permet de gérer l’ensemble du processus, de la journalisation des paramètres et des métriques à l’empaquetage et au partage de votre modèle.
Vous devez également prendre en compte la façon dont vous souhaitez déployer le modèle. Vous pouvez opter pour des prédictions en temps réel à l’aide de Mosaic AI Model Serving ou pour les prédictions par lots avec des travaux Azure Databricks. Vous pouvez également intégrer Azure Machine Learning et utiliser ses fonctionnalités intégrées pour déployer votre modèle sur un point de terminaison en temps réel ou par lots.
Quelle que soit l’approche choisie, le modèle de déploiement garantit que votre modèle est prêt pour la production et peut fournir les insights dont vous avez besoin.
Utiliser MLflow pour la gestion des modèles
Azure Databricks fonctionne avec MLflow. MLflow est une plateforme open source permettant de gérer l’ensemble du cycle de vie du Machine Learning.
Avec MLflow, vous pouvez suivre les expériences, le code de package, et partager et déployer des modèles. MLflow garantit que vos modèles sont gérés de manière cohérente du développement à la production.
Le serveur de suivi de MLflow vous permet de journaliser les paramètres, les métriques et les artefacts. Les fonctionnalités de suivi de MLflow fournissent un enregistrement complet des performances du modèle et facilitent la reproductibilité.
Conseil
Découvrez comment enregistrer, charger, inscrire et déployer des modèles MLflow.
Déployer des modèles avec Databricks
Le déploiement de modèles avec Azure Databricks implique l’utilisation de Mosaic AI Model Serving pour créer des API de niveau production à partir de modèles Python personnalisés.
Les modèles Python personnalisés sont les modèles que vous entraînez à l’aide de bibliothèques telles que scikit-learn, XGBoost, PyTorch et les transformeurs HuggingFace.
Après l’apprentissage, vous journalisez votre modèle entraîné au format MLflow et inscrivez les ressources MLflow dans le registre de Unity Catalog ou de l’espace de travail.
Une fois inscrit, vous pouvez créer et interroger des points de terminaison, assurant que vos modèles sont prêts pour les prédictions en temps réel en intégrant le point de terminaison dans vos solutions.
Conseil
Découvrez comment déployer et interroger un modèle personnalisé.
Générer des prédictions par lots
Pour les cas d’usage où les prédictions en temps réel ne sont pas nécessaires, l’inférence par lots peut être une stratégie de déploiement plus efficace. Les prédictions par lots sont souvent utilisées dans des scénarios tels que la génération de rapports périodiques ou la mise à jour d’entrepôts de données avec de nouveaux insights.
Azure Databricks peut traiter des jeux de données volumineux en parallèle à l’aide d’Apache Spark, ce qui le rend bien adapté aux tâches d’inférence par lots.
Lorsque vous exécutez un travail Azure Databricks, votre modèle peut être appliqué à de grands volumes de données de manière planifiée. Vous pouvez générer des prédictions par lots ou des insights qui peuvent être stockés et accessibles en fonction des besoins.
Conseil
Découvrez comment déployer des modèles pour l’inférence et la prédiction par lots.
Intégrer Azure Machine Learning
Azure Databricks s’intègre à Azure Machine Learning, ce qui vous permet de déployer des modèles sur des points de terminaison dans l’espace de travail Azure Machine Learning.
Azure Databricks et Azure Machine Learning fonctionnent avec MLflow pour gérer les modèles. Vous pouvez entraîner un modèle dans Azure Databricks et l’enregistrer en tant que modèle MLflow. Vous pouvez ensuite inscrire le modèle MLflow dans l’espace de travail Azure Machine Learning, après quoi vous pouvez facilement déployer le modèle sur un lot ou un point de terminaison en temps réel.
Conseil
En savoir plus sur les points de terminaison Azure Machine Learning pour l’inférence en production.