Explorar estratégias de implantação de modelos
Após você treinar seu modelo, a próxima etapa é a implantação. Para implantar seu modelo com eficácia, você precisa usar o MLflow.
O MLflow ajuda você a gerenciar todo o processo, desde o registro em log de parâmetros e métricas até o empacotamento e compartilhamento do seu modelo.
Você também precisa pensar em como quer implantar o modelo. Você pode optar por previsões em tempo real usando o Mosaic AI Model Serving ou por previsões em lote com os trabalhos do Azure Databricks. Alternativamente, você pode integrá-lo ao Azure Machine Learning e usar os recursos integrados para implantar seu modelo em um ponto de extremidade em tempo real ou em lote.
Seja qual for a abordagem que você escolher, a implantação de modelo irá garantir que seu modelo esteja pronto para produção e possa fornecer os insights de que você precisa.
Usar o MLflow para o gerenciamento de modelos
O Azure Databricks funciona com o MLflow. O MLflow é uma plataforma de código aberto para gerenciar todo o ciclo de vida de aprendizado de máquina.
Com o MLflow, você pode acompanhar experimentos, empacotar código e compartilhar e implantar modelos. O MLflow garante que seus modelos sejam gerenciados com consistência do desenvolvimento à produção.
O servidor de acompanhamento do MLflow permite que você registre parâmetros, métricas e artefatos em log. Os recursos de acompanhamento do MLflow fornecem um registro abrangente do desempenho do modelo e ajudam na reprodutibilidade.
Dica
Saiba mais sobre como registrar em log, carregar, catalogar e implantar modelos do MLflow.
Implantar modelos com o Databricks
A implantação de modelos com o Azure Databricks envolve o uso do Mosaic AI Model Serving para criar APIs em nível de produção a partir de modelos personalizados do Python.
Modelos personalizados do Python são os modelos que você treina usando bibliotecas como scikit-learn, XGBoost, PyTorch e transformers do HuggingFace.
Após o treinamento, você registra em log seu modelo treinado no formato MLflow e registra os ativos do MLflow no Catálogo do Unity ou no registro do workspace.
Após tê-lo registrado, você pode criar e consultar pontos de extremidade de serviços de modelo, garantindo que seus modelos estejam prontos para previsões em tempo real ao integrar o ponto de extremidade em suas soluções.
Dica
Saiba mais sobre como implantar e consultar um modelo personalizado.
Gerar previsões em lote
Para os casos de uso nos quais previsões em tempo real não são necessárias, a inferência em lote pode ser uma estratégia de implantação mais eficaz. As previsões em lote geralmente são usadas em cenários como gerar relatórios periódicos ou atualizar data warehouses com novos insights.
O Azure Databricks pode processar grandes conjuntos de dados paralelamente usando o Apache Spark, tornando-o adequado para tarefas de inferência em lote.
Quando você executa um trabalho do Azure Databricks, seu modelo pode ser aplicado a grandes volumes de dados por meio de um agendamento. Você pode gerar insights ou previsões em lote que podem ser armazenados e acessados conforme necessário.
Dica
Saiba mais sobre como implantar modelos para previsão e inferência em lote.
Integrar-se ao Azure Machine Learning
O Azure Databricks se integra ao Azure Machine Learning, permitindo que você implante modelos em pontos de extremidade no workspace do Azure Machine Learning.
Tanto o Azure Databricks quanto o Azure Machine Learning trabalham junto com o MLflow para gerenciar modelos. Você pode treinar um modelo no Azure Databricks e salvá-lo como um modelo do MLflow. Em seguida, você pode registrar o modelo do MLflow no workspace do Azure Machine Learning, após o que poderá implantar facilmente o modelo em um lote ou ponto de extremidade em tempo real.
Dica
Saiba mais sobre pontos de extremidade do Azure Machine Learning para inferência na produção.