Utforska strategier för modelldistribution
När du har tränat din modell är nästa steg distribution. Om du vill distribuera din modell effektivt måste du använda MLflow.
MLflow hjälper dig att hantera hela processen, från loggningsparametrar och mått till paketering och delning av din modell.
Du måste också överväga hur du vill distribuera modellen. Du kan välja förutsägelser i realtid med hjälp av Mosaic AI Model Serving eller batchförutsägelser med Azure Databricks-jobb. Du kan också integrera med Azure Machine Learning och använda dess inbyggda funktioner för att distribuera din modell till en realtids- eller batchslutpunkt.
Oavsett vilken metod du väljer säkerställer modelldistributionen att din modell är redo för produktion och kan leverera de insikter du behöver.
Använda MLflow för modellhantering
Azure Databricks fungerar med MLflow. MLflow är en plattform med öppen källkod för att hantera hela maskininlärningslivscykeln.
Med MLflow kan du spåra experiment, paketkod och dela och distribuera modeller. MLflow säkerställer att dina modeller hanteras konsekvent från utveckling till produktion.
Med MLflows spårningsserver kan du logga parametrar, mått och artefakter. MLflows spårningsfunktioner ger en omfattande post av modellprestanda och hjälper till med reproducerbarhet.
Dricks
Läs mer om hur du loggar, läser in, registrerar och distribuerar MLflow-modeller.
Distribuera modeller med Databricks
Att distribuera modeller med Azure Databricks innebär att använda Mosaic AI Model Serving för att skapa API:er i produktionsklass från anpassade Python-modeller.
Anpassade Python-modeller är de modeller som du tränar med hjälp av bibliotek som scikit-learn, XGBoost, PyTorch och HuggingFace-transformatorer.
Efter träningen loggar du din tränade modell i MLflow-format och registrerar MLflow-tillgångarna i Unity-katalogen eller arbetsyteregistret.
När du har registrerat dig kan du skapa och fråga efter modell som betjänar slutpunkter, så att dina modeller är redo för realtidsförutsägelser genom att integrera slutpunkten i dina lösningar.
Dricks
Läs mer om hur du distribuerar och frågar efter en anpassad modell.
Generera batchförutsägelser
För användningsfall där realtidsförutsägelser inte är nödvändiga kan batchinferens vara en effektivare distributionsstrategi. Batchförutsägelser används ofta i scenarier som att generera periodiska rapporter eller uppdatera informationslager med nya insikter.
Azure Databricks kan bearbeta stora datamängder parallellt med Apache Spark, vilket gör det väl lämpat för batchinferensuppgifter.
När du kör ett Azure Databricks-jobb kan din modell tillämpas på stora mängder data på ett schemalagt sätt. Du kan generera batchförutsägelser eller insikter som kan lagras och nås efter behov.
Dricks
Läs mer om hur du distribuerar modeller för batchinferens och förutsägelse.
Integrera med Azure Machine Learning
Azure Databricks integreras med Azure Machine Learning så att du kan distribuera modeller till slutpunkter på Azure Machine Learning-arbetsytan.
Både Azure Databricks och Azure Machine Learning arbetar med MLflow för att hantera modeller. Du kan träna en modell i Azure Databricks och spara den som en MLflow-modell. Du kan sedan registrera MLflow-modellen på Azure Machine Learning-arbetsytan, varefter du enkelt kan distribuera modellen till en batch- eller realtidsslutpunkt.
Dricks
Läs mer om Azure Machine Learning-slutpunkter för slutsatsdragning i produktion.