Déployer un modèle Machine Learning sur Azure Functions à l’aide d’Azure Cache pour Redis
Dans cet article, vous déployez un modèle d’Azure Machine Learning en tant qu’application de fonction dans Azure Functions à l’aide d’une instance Azure Cache pour Redis.
Azure Cache pour Redis est performant et évolutif. Lorsque vous l’associez à un modèle Azure Machine Learning, vous bénéficiez d’une faible latence et d’un débit élevé dans votre application. Parmi les scénarios où un cache est utile : on peut citer l’inférence des données et les résultats de l’inférence du modèle réel. Dans les deux cas, les métadonnées ou les résultats sont stockés en mémoire, ce qui augmente les performances.
Notes
Bien qu’Azure Machine Learning et Azure Functions soient mis à la disposition générale, la possibilité d’empaqueter un modèle Machine Learning Service vers Functions est disponible en préversion.
Prérequis
- Abonnement Azure : créez-en un gratuitement.
- Un espace de travail Azure Machine Learning. Pour plus d’informations, consultez l’article Créer un espace de travail.
- Azure CLI.
- Un modèle Machine Learning entraîné inscrit dans votre espace de travail. Si vous n’avez pas de modèle, utilisez le tutoriel de classification d’image : entraîner un modèle pour entraîner et inscrire un modèle.
Important
Les extraits de code de cet article partent du principe que vous avez défini les variables suivantes :
ws
- Votre espace de travail Azure Machine Learning.model
- Modèle inscrit qui sera déployé.inference_config
- Configuration d’inférence pour le modèle.
Pour plus d’informations sur la définition de ces variables, consultez Déployer des modèles avec Azure Machine Learning.
Créer une instance Cache Redis Azure
Vous pourrez déployer un modèle Machine Learning pour Azure Functions avec n’importe quelle instance de cache De base, Standard ou Premium. Pour créer une instance de cache, procédez comme suit.
Accédez à la page d’accueil du portail Azure ou ouvrez le menu latéral, puis sélectionnez Créer une ressource.
Dans la page Nouvelle, sélectionnez Bases de données, puis Azure Cache pour Redis.
Dans la page Nouveau cache Redis, configurez les paramètres du nouveau cache.
Paramètre Valeur suggérée Description Nom DNS Entrez un nom globalement unique. Le nom du cache doit être une chaîne contenant entre 1 et 63 caractères. La chaîne peut contenir uniquement des chiffres, des lettres ou des traits d’union. Le nom doit commencer et se terminer par un chiffre ou une lettre, et ne peut pas contenir de traits d’union consécutifs. Le nom d’hôte de votre instance de cache sera <nom DNS>.redis.cache.windows.net. Abonnement Dans la liste déroulante, sélectionnez votre abonnement. Abonnement sous lequel créer cette nouvelle instance d’Azure Cache pour Redis. Groupe de ressources Dans la liste déroulante, sélectionnez un groupe de ressources ou choisissez Créer nouveau, puis entrez un nouveau nom de groupe de ressources. Nom du groupe de ressources dans lequel créer votre cache et d’autres ressources. En plaçant toutes les ressources de votre application dans un seul groupe de ressources, vous pouvez facilement les gérer ou les supprimer ensemble. Lieu Dans la liste déroulante, sélectionnez un emplacement. Choisissez une Région proche d’autres services qui utiliseront votre cache. Niveau tarifaire Sélectionnez un Niveau tarifaire. Le niveau tarifaire détermine la taille, les performances et les fonctionnalités disponibles pour le cache. Pour plus d’informations, consultez Présentation du cache Azure pour Redis. Sélectionnez l’onglet Réseau ou sélectionnez le bouton Réseau au bas de la page.
Sous l’onglet Réseau, sélectionnez votre méthode de connectivité.
Sélectionnez le bouton Suivant : Avancé ou sélectionnez le bouton Suivant : Avancé en bas de la page.
Sous l’onglet Avancé d’une instance de cache de base ou standard, sélectionnez Activer/désactiver si vous souhaitez activer un port non-TLS.
Sous l’onglet Avancé d’une instance de cache premium, configurez les paramètres pour le port non-TLS, le clustering et la persistance des données.
Sélectionnez l’onglet Suivant : Avancé ou sélectionnez le bouton Suivant : Étiquettes au bas de la page.
Si vous le voulez, sous l’onglet Étiquettes, entrez le nom et la valeur si vous souhaitez catégoriser la ressource.
Sélectionnez Revoir + créer. Vous êtes redirigé vers l’onglet Vérifier + créer où Azure valide votre configuration.
Une fois que le message vert Validation réussie s’affiche, sélectionnez Créer.
La création du cache prend un certain temps. Vous pouvez surveiller la progression dans la page Vue d’ensemble du Azure Cache pour Redis. Lorsque État indique En cours d’exécution, le cache est prêt pour utilisation.
Préparer le déploiement
Avant le déploiement, vous devez définir ce qui est nécessaire pour exécuter le modèle en tant que service web. La liste suivante décrit les éléments principaux nécessaires pour un déploiement :
Script d’entrée. Ce script accepte les requêtes, évalue la requête à l’aide du modèle et renvoie les résultats.
Important
Le script d’entrée est spécifique à votre modèle. Il doit comprendre le format des données de la requête entrante, le format des données attendues par votre modèle et le format des données renvoyées aux clients.
Si le format des données de la requête n'est pas utilisable par votre modèle, le script peut les convertir à un format acceptable. Il peut également transformer la réponse avant de la retourner au client.
Par défaut, lors de l’empaquetage des fonctions, l’entrée est traitée comme du texte. Si vous souhaitez consommer les octets bruts de l’entrée (par exemple pour les déclencheurs de blob), vous devez utiliser AMLRequest pour accepter les données brutes.
Pour la fonction d’exécution, assurez-vous qu’elle se connecte à un point de terminaison Redis.
import json
import numpy as np
import os
import redis
from sklearn.externals import joblib
def init():
global model
global azrediscache
azrediscache = redis.StrictRedis(host='<host_url>', port=6380, password="<access_key>", ssl=True)
model_path = os.path.join(os.getenv('AZUREML_MODEL_DIR'), 'sklearn_mnist_model.pkl')
model = joblib.load(model_path)
@input_schema('data', NumpyParameterType(input_sample))
@output_schema(NumpyParameterType(output_sample))
def run(data):
try:
input = azrediscache.get(data)
result = model.predict(input)
data = np.array(json.loads(data))
result = model.predict(data)
# You can return any data type, as long as it is JSON serializable.
return result.tolist()
except Exception as e:
error = str(e)
return error
Pour plus d’informations sur le script d’entrée, consultez Définir le code de scoring.
- Dépendances, comme les scripts d’assistance ou les packages Python/Conda nécessaires à l’exécution du script d’entrée ou du modèle
Ces entités sont encapsulées dans une configuration d'inférence. La configuration d’inférence référence le script d’entrée et d’autres dépendances.
Important
Lors de la création d’une configuration d’inférence à utiliser avec Azure Functions, vous devez utiliser un objet Environnement. Notez que, si vous définissez un environnement personnalisé, vous devez ajouter azureml-defaults avec une version > ou égale à 1.0.45 comme dépendance pip. Ce package contient les fonctionnalités nécessaires pour héberger le modèle en tant que service web. L’exemple suivant illustre la création d’un objet d’environnement et son utilisation avec une configuration d’inférence :
from azureml.core.environment import Environment
from azureml.core.conda_dependencies import CondaDependencies
# Create an environment and add conda dependencies to it
myenv = Environment(name="myenv")
# Enable Docker based environment
myenv.docker.enabled = True
# Build conda dependencies
myenv.python.conda_dependencies = CondaDependencies.create(conda_packages=['scikit-learn'],
pip_packages=['azureml-defaults', 'redis'])
inference_config = InferenceConfig(entry_script="score.py", environment=myenv)
Pour plus d’informations sur les environnements , consultez Créer et gérer des environnements pour la formation et le déploiement.
Pour plus d’informations sur la configuration de l’inférence, consultez Déployer des modèles avec Azure Machine Learning.
Important
Lors du déploiement sur Azure Functions, il n’est pas nécessaire de créer une configuration de déploiement.
Installer le package de préversion du kit SDK pour la prise en charge de Functions
Pour générer des packages pour Azure Functions, vous devez installer le package de la préversion du SDK.
pip install azureml-contrib-functions
Création de l’image
Pour créer l’image Docker qui est déployée sur Azure Functions, utilisez azureml.contrib.functions.package ou la fonction de package spécifique pour le déclencheur que vous souhaitez utiliser. L’extrait de code suivant montre comment créer un nouveau package avec un déclencheur HTTP à partir de la configuration du modèle et de l’inférence :
Notes
L’extrait de code suppose que model
contient un modèle inscrit et que inference_config
contient la configuration de l’environnement d’inférence. Pour plus d’informations, consultez Déployer des modèles avec Azure Machine Learning.
from azureml.contrib.functions import package
from azureml.contrib.functions import HTTP_TRIGGER
model_package = package(ws, [model], inference_config, functions_enabled=True, trigger=HTTP_TRIGGER)
model_package.wait_for_creation(show_output=True)
# Display the package location/ACR path
print(model_package.location)
Si la condition est show_output=True
, la sortie du processus de génération Docker s’affiche. Une fois le processus terminé, l’image a été créée dans le registre Azure Container Registry pour votre espace de travail. Une fois que l’image a été créée, son emplacement dans Azure Container Registry s’affiche. L’emplacement est retourné au format <acrinstance>.azurecr.io/package@sha256:<imagename>
.
Notes
L’empaquetage de Functions prend actuellement en charge les déclencheurs HTTP, les déclencheurs d’objets blob et les déclencheurs Service Bus. Pour plus d’informations sur les déclencheurs, consultez Liaisons Azure Functions.
Important
Enregistrez les informations concernant l’emplacement, car vous en aurez besoin lors du déploiement de l’image.
Déployer une image en tant qu’application web
Utilisez la commande suivante pour obtenir les informations d’identification de connexion de l’instance d’Azure Container Registry qui contient l’image. Remplacez
<myacr>
par la valeur retournée précédemment parpackage.location
:az acr credential show --name <myacr>
La sortie de cette commande ressemble au document JSON suivant :
{ "passwords": [ { "name": "password", "value": "abcdefghijklmmopqrstuv1234567890" }, { "name": "password2", "value": "1234567890abcdefghijklmmopqrstuv" } ], "username": "charlie.roy" }
Enregistrez le nom d’utilisateur (username), ainsi que l’un des mots de passe (passwords).
Si vous ne disposez pas déjà d’un groupe de ressources ou d’un plan App Service pour déployer le service, ces commandes montrent comment créer ces deux éléments :
az group create --name myresourcegroup --location "West Europe" az appservice plan create --name myplanname --resource-group myresourcegroup --sku B1 --is-linux
Cet exemple utilise le niveau tarifaire Linux De base (
--sku B1
).Important
Les images créées par Azure Machine Learning utilisent Linux. Vous devez donc utiliser le paramètre
--is-linux
.Créez le compte de stockage à utiliser pour le stockage de tâches web et récupérez sa chaîne de connexion. Remplacez
<webjobStorage>
par le nom que vous souhaitez utiliser.az storage account create --name <webjobStorage> --location westeurope --resource-group myresourcegroup --sku Standard_LRS
az storage account show-connection-string --resource-group myresourcegroup --name <webJobStorage> --query connectionString --output tsv
Pour créer une application de fonction, utilisez la commande suivante. Remplacez
<app-name>
par le nom que vous souhaitez utiliser. Remplacez<acrinstance>
et<imagename>
par les valeurs dupackage.location
retourné précédemment. Remplacez<webjobStorage>
par le nom du compte de stockage de l’étape précédente :az functionapp create --resource-group myresourcegroup --plan myplanname --name <app-name> --deployment-container-image-name <acrinstance>.azurecr.io/package:<imagename> --storage-account <webjobStorage>
Important
À ce stade, l’application de fonction a été créée. Toutefois, étant donné que vous n’avez pas de chaîne de connexion pour le déclencheur HTTP et que vous n’avez pas fourni les informations d’identification à l’instance Azure Container Registry qui contient l’image, l’application de fonction n’est pas active. Dans l’étape qui suit, vous allez fournir la chaîne de connexion et les informations d’authentification pour le registre de conteneurs.
Pour fournir à l’application de fonction les informations d’identification nécessaires pour accéder au registre de conteneurs, utilisez la commande suivante. Remplacez
<app-name>
par le nom de la fonction. Remplacez<acrinstance>
et<imagetag>
par les valeurs de l’appel de l’interface de commande AZ CLI à l’étape précédente. Remplacez<username>
et<password>
par les informations de connexion ACR récupérées précédemment :az functionapp config container set --name <app-name> --resource-group myresourcegroup --docker-custom-image-name <acrinstance>.azurecr.io/package:<imagetag> --docker-registry-server-url https://<acrinstance>.azurecr.io --docker-registry-server-user <username> --docker-registry-server-password <password>
Cette commande retourne des informations semblables à celles du document JSON suivant :
[ { "name": "WEBSITES_ENABLE_APP_SERVICE_STORAGE", "slotSetting": false, "value": "false" }, { "name": "DOCKER_REGISTRY_SERVER_URL", "slotSetting": false, "value": "[server-name].azurecr.io" }, { "name": "DOCKER_REGISTRY_SERVER_USERNAME", "slotSetting": false, "value": "[username]" }, { "name": "DOCKER_REGISTRY_SERVER_PASSWORD", "slotSetting": false, "value": null }, { "name": "DOCKER_CUSTOM_IMAGE_NAME", "value": "DOCKER|[server-name].azurecr.io/package:20190827195524" } ]
À ce stade, l’application de fonction commence à charger l’image.
Important
Le chargement de l’image peut prendre plusieurs minutes. Vous pouvez surveiller la progression à l’aide du portail Azure.
Tester le déclencheur HTTP Azure Functions
Nous allons maintenant exécuter et tester notre déclencheur HTTP Azure Functions.
- Accédez à votre application de fonction dans le portail Azure.
- Sous Développeur, sélectionnez Code + test.
- Sur le côté droit, sélectionnez l’onglet Entrée.
- Sélectionnez le bouton Exécuter pour tester le déclencheur HTTP Azure Functions.
Vous avez maintenant déployé un modèle d’Azure Machine Learning en tant qu’application de fonction à l’aide d’une instance Azure Cache pour Redis. Pour en savoir plus sur Azure Cache pour Redis, cliquez sur les liens de la section ci-dessous.
Nettoyer les ressources
Si vous envisagez d’exécuter le didacticiel suivant, vous pouvez conserver les ressources créées dans le cadre de ce démarrage rapide afin de les réutiliser.
Sinon, si vous en avez fini avec le démarrage rapide, vous pouvez supprimer les ressources Azure que vous y avez créées afin d’éviter des frais.
Important
La suppression d’un groupe de ressources est irréversible. Quand vous supprimez un groupe de ressources, toutes les ressources qu’il contient sont supprimées définitivement. Veillez à ne pas supprimer accidentellement des ressources ou un groupe de ressources incorrects. Si vous avez créé les ressources pour l'hébergement de cet exemple dans un groupe de ressources existant contenant des ressources que vous souhaitez conserver, vous pouvez supprimer chaque ressource individuellement sur la gauche, au lieu de supprimer l'intégralité du groupe de ressources.
Pour supprimer un groupe de ressources
Connectez-vous au Portail Azure, puis sélectionnez Groupes de ressources.
Dans la zone Filtrer par nom..., saisissez le nom de votre groupe de ressources. Sur votre groupe de ressources, dans la liste des résultats, sélectionnez ..., puis Supprimer le groupe de ressources.
Vous êtes invité à confirmer la suppression du groupe de ressources. Saisissez le nom de votre groupe de ressources pour confirmer, puis sélectionnez Supprimer.
Après quelques instants, le groupe de ressources et toutes ses ressources sont supprimés.
Étapes suivantes
- En savoir plus sur Azure Cache pour Redis
- Découvrez comment configurer votre application de fonction dans la documentation sur Functions.
- Référence sur l’API
- Créer une application Python qui utilise Azure Cache pour Redis