Explore estratégias de implantação de modelos
Depois de treinar seu modelo, a próxima etapa é a implantação. Para implantar seu modelo de forma eficaz, você precisa usar o MLflow.
O MLflow ajuda você a gerenciar todo o processo, desde o registro de parâmetros e métricas até o empacotamento e o compartilhamento do seu modelo.
Você também precisa considerar como deseja implantar o modelo. Você pode optar por previsões em tempo real usando o Mosaic AI Model Serving ou por previsões em lote com trabalhos do Azure Databricks. Como alternativa, você pode integrar com o Azure Machine Learning e usar seus recursos internos para implantar seu modelo em um ponto de extremidade em tempo real ou em lote.
Seja qual for a abordagem escolhida, a implantação do modelo garante que seu modelo esteja pronto para produção e possa fornecer as informações de que você precisa.
Usar MLflow para gerenciamento de modelos
O Azure Databricks funciona com MLflow. O MLflow é uma plataforma de código aberto para gerenciar todo o ciclo de vida do aprendizado de máquina.
Com o MLflow, você pode rastrear experimentos, empacotar código e compartilhar e implantar modelos. O MLflow garante que seus modelos sejam gerenciados de forma consistente, desde o desenvolvimento até a produção.
O servidor de rastreamento do MLflow permite registrar parâmetros, métricas e artefatos. Os recursos de rastreamento do MLflow fornecem um registro abrangente do desempenho do modelo e ajudam na reprodutibilidade.
Gorjeta
Saiba mais sobre como registrar , carregar, registrar e implantar modelos MLflow.
Implante modelos com Databricks
A implantação de modelos com o Azure Databricks envolve o uso do Mosaic AI Model Serving para criar APIs de nível de produção a partir de modelos Python personalizados.
Modelos Python personalizados são os modelos que você treina usando bibliotecas como os transformadores scikit-learn, XGBoost, PyTorch e HuggingFace.
Após o treinamento, você registra seu modelo treinado no formato MLflow e registra os ativos MLflow no Unity Catalog ou no registro do espaço de trabalho.
Uma vez registrado, você pode criar e consultar o modelo servindo endpoints, garantindo que seus modelos estejam prontos para previsões em tempo real, integrando o endpoint em suas soluções.
Gorjeta
Saiba mais sobre como implantar e consultar um modelo personalizado.
Gerar previsões em lote
Para casos de uso em que previsões em tempo real não são necessárias, a inferência em lote pode ser uma estratégia de implantação mais eficaz. As previsões em lote são frequentemente usadas em cenários como a geração de relatórios periódicos ou a atualização de data warehouses com novos insights.
O Azure Databricks pode processar grandes conjuntos de dados em paralelo usando o Apache Spark, tornando-o adequado para tarefas de inferência em lote.
Quando você executa um trabalho do Azure Databricks, seu modelo pode ser aplicado a grandes volumes de dados de maneira agendada. Você pode gerar previsões em lote ou insights que podem ser armazenados e acessados conforme necessário.
Gorjeta
Saiba mais sobre como implantar modelos para inferência e previsão em lote.
Integrar no Azure Machine Learning
O Azure Databricks integra-se com o Azure Machine Learning, permitindo que você implante modelos em pontos de extremidade no espaço de trabalho do Azure Machine Learning.
O Azure Databricks e o Azure Machine Learning funcionam com o MLflow para gerenciar modelos. Você pode treinar um modelo no Azure Databricks e salvá-lo como um modelo MLflow. Em seguida, você pode registrar o modelo MLflow no espaço de trabalho do Azure Machine Learning, após o qual você pode implantar facilmente o modelo em um lote ou ponto de extremidade em tempo real.
Gorjeta
Saiba mais sobre os pontos de extremidade do Azure Machine Learning para inferência em produção.