Eksplorowanie strategii wdrażania modelu
Po wytrenowania modelu następnym krokiem jest wdrożenie. Aby skutecznie wdrożyć model, należy użyć biblioteki MLflow.
Rozwiązanie MLflow ułatwia zarządzanie całym procesem — od parametrów rejestrowania i metryk po pakowanie i udostępnianie modelu.
Należy również rozważyć sposób wdrażania modelu. Możesz zdecydować się na przewidywania w czasie rzeczywistym przy użyciu usługi Mosaic AI Model Serving lub przewidywania wsadowego z zadaniami usługi Azure Databricks. Alternatywnie możesz zintegrować się z usługą Azure Machine Learning i użyć wbudowanych funkcji, aby wdrożyć model w punkcie końcowym w czasie rzeczywistym lub wsadowym.
Niezależnie od wybranego podejścia wdrożenie modelu zapewnia, że model jest gotowy do produkcji i może dostarczać potrzebne szczegółowe informacje.
Używanie biblioteki MLflow do zarządzania modelami
Usługa Azure Databricks współpracuje z rozwiązaniem MLflow. MLflow to platforma typu open source do zarządzania całym cyklem życia uczenia maszynowego.
Za pomocą platformy MLflow można śledzić eksperymenty, kod pakietu oraz udostępniać i wdrażać modele. Rozwiązanie MLflow gwarantuje, że modele są spójnie zarządzane od programowania do środowiska produkcyjnego.
Serwer śledzenia MLflow umożliwia rejestrowanie parametrów, metryk i artefaktów. Możliwości śledzenia MLflow zapewniają kompleksowy rekord wydajności modelu i pomagają w odtwarzaniu.
Napiwek
Dowiedz się więcej na temat rejestrowania, ładowania, rejestrowania i wdrażania modeli MLflow.
Wdrażanie modeli za pomocą usługi Databricks
Wdrażanie modeli za pomocą usługi Azure Databricks obejmuje korzystanie z usługi Mosaic AI Model Serving w celu tworzenia interfejsów API klasy produkcyjnej na podstawie niestandardowych modeli języka Python.
Niestandardowe modele języka Python to modele trenowane przy użyciu bibliotek, takich jak scikit-learn, XGBoost, PyTorch i HuggingFace transformatory.
Po trenowaniu należy zarejestrować wytrenowany model w formacie MLflow i zarejestrować zasoby MLflow w wykazie aparatu Unity lub rejestrze obszarów roboczych.
Po zarejestrowaniu można utworzyć model obsługujący punkty końcowe i wykonywać względem niego zapytania, zapewniając, że modele są gotowe do przewidywania w czasie rzeczywistym, integrując punkt końcowy w rozwiązaniach.
Napiwek
Dowiedz się więcej na temat wdrażania i wykonywania zapytań dotyczących modelu niestandardowego.
Generowanie przewidywań wsadowych
W przypadku przypadków użycia, w których przewidywania w czasie rzeczywistym nie są konieczne, wnioskowanie wsadowe może być bardziej efektywną strategią wdrażania. Przewidywania wsadowe są często używane w scenariuszach, takich jak generowanie okresowych raportów lub aktualizowanie magazynów danych przy użyciu nowych szczegółowych informacji.
Usługa Azure Databricks może przetwarzać duże zestawy danych równolegle przy użyciu platformy Apache Spark, dzięki czemu jest ona odpowiednia dla zadań wnioskowania wsadowego.
Po uruchomieniu zadania usługi Azure Databricks model można zastosować do dużych ilości danych w zaplanowany sposób. W razie potrzeby można wygenerować przewidywania wsadowe lub szczegółowe informacje, które mogą być przechowywane i uzyskiwane do ich dostępu.
Napiwek
Dowiedz się więcej na temat wdrażania modeli na potrzeby wnioskowania i przewidywania wsadowego.
Integracja z usługą Azure Machine Learning
Usługa Azure Databricks integruje się z usługą Azure Machine Learning, umożliwiając wdrażanie modeli w punktach końcowych w obszarze roboczym usługi Azure Machine Learning.
Zarówno usługa Azure Databricks, jak i usługa Azure Machine Learning współpracują z rozwiązaniem MLflow w celu zarządzania modelami. Model można wytrenować w usłudze Azure Databricks i zapisać go jako model MLflow. Następnie możesz zarejestrować model MLflow w obszarze roboczym usługi Azure Machine Learning, po którym można łatwo wdrożyć model w punkcie końcowym wsadowym lub w czasie rzeczywistym.
Napiwek
Dowiedz się więcej o punktach końcowych usługi Azure Machine Learning na potrzeby wnioskowania w środowisku produkcyjnym.