Ajouter des modèles à l’inférence de modèle Azure AI et les configurer
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.
Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.
Prérequis
Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :
Un abonnement Azure. Si vous utilisez des modèles GitHub, vous pouvez mettre à niveau votre expérience et créer un abonnement Azure dans le processus. Lisez Passer des modèles GitHub à l’inférence de modèle Azure AI si vous êtes dans ce cas.
Une ressource Azure AI services.
Un projet IA connecté à votre ressource Azure AI Services avec la fonctionnalité Déployer des modèles sur le service d’inférence de modèle Azure AI activé.
- Vous pouvez suivre les étapes décrites dans Configurer un service d’inférence de modèle Azure AI dans mon projet dans Azure AI Foundry.
Ajouter un modèle
Vous pouvez ajouter des modèles au point de terminaison de l’inférence du modèle Azure AI en procédant comme suit :
Accédez à la section Catalogue de modèles dans le Portail Azure AI Foundry.
Faites défiler jusqu’au modèle qui vous intéresse et sélectionnez-le.
Vous pouvez consulter les détails du modèle sur la carte de modèle.
Sélectionnez Déployer.
Pour les fournisseurs de modèles qui demandent des conditions contractuelles supplémentaires, vous êtes invité à les accepter. C’est le cas des modèles Mistral par exemple. Acceptez les conditions de ces cas en sélectionnant S’abonner et déployer.
Vous pouvez configurer les paramètres de déploiement à ce moment. Par défaut, le déploiement reçoit le nom du modèle que vous déployez. Le nom du déploiement est utilisé dans le paramètre
model
pour que la requête soit acheminée vers ce modèle de déploiement particulier. Cela vous permet également de configurer des noms spécifiques pour vos modèles quand vous attachez des configurations spécifiques. Par exemple,o1-preview-safe
pour un modèle avec un filtre de contenu de sécurité du contenu strict.Conseil
Chaque modèle peut prendre en charge différents types de déploiements, qui offrent différentes garanties de débit ou de résidence des données. Pour plus d’informations, consultez les types de déploiement.
Nous sélectionnons automatiquement une connexion Azure AI Services en fonction de votre projet. Utilisez l’option Personnaliser pour modifier la connexion en fonction de vos besoins. Si vous effectuez un déploiement sous le type de déploiement Standard, les modèles doivent être disponibles dans la région de la ressource Azure AI Services.
Conseil
Si la ressource souhaitée n’est pas répertoriée, vous devrez peut-être créer une connexion à celle-ci. Consultez Configurer un service d’inférence de modèle Azure AI dans mon projet dans Azure AI Foundry.
Sélectionnez Déployer.
Une fois le déploiement terminé, le nouveau modèle est répertorié sur la page et est prêt à être utilisé.
Gérer les modèles
Vous pouvez gérer les modèles de déploiements existants dans la ressource à l’aide du portail Azure AI Foundry.
Accédez à la section Modèles + Points de terminaison dans le Portail Azure AI Foundry.
Faites défiler jusqu’à la connexion à votre ressource Azure AI Services. Les modèles de déploiement sont regroupés et affichés par connexion.
Vous voyez une liste de modèles disponibles sous chaque connexion. Sélectionnez le modèle de déploiement qui vous intéresse.
Modifier ou Supprimer le déploiement si nécessaire.
Testez le déploiement dans le terrain de jeu
Vous pouvez interagir avec le nouveau modèle dans le portail Azure AI Foundry à l’aide du terrain de jeu :
Remarque
Le terrain de jeu est disponible uniquement lors de l’utilisation de projets IA dans Azure AI Foundry. Créez un projet IA pour obtenir un accès total à toutes les fonctionnalités d’Azure AI Foundry.
Accédez à la section Terrains de jeux dans le Portail Azure AI Foundry.
Selon le type de modèle que vous avez déployé, sélectionnez le terrain de jeu dont vous avez besoin. Dans ce cas, nous sélectionnons Terrain de jeu de conversation.
Dans la liste déroulante Déploiement, sous Configuration, sélectionnez le nom du modèle de déploiement que vous avez créé.
Tapez votre requête et consultez les sorties.
En outre, vous pouvez utiliser Afficher le code pour afficher des détails sur la façon d’accéder au modèle de déploiement par programmation.
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.
Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.
Prérequis
Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :
Un abonnement Azure. Si vous utilisez des modèles GitHub, vous pouvez mettre à niveau votre expérience et créer un abonnement Azure dans le processus. Lisez Passer des modèles GitHub à l’inférence de modèle Azure AI si vous êtes dans ce cas.
Une ressource Azure AI services.
Installer Azure CLI et l’extension
cognitiveservices
pour Azure AI Services :az extension add -n cognitiveservices
Certaines des commandes de ce tutoriel utilisent l’outil
jq
, qui peut ne pas être installé dans votre système. Pour connaître les instructions d’installation, consultez Téléchargerjq
.Identifiez les informations suivantes :
Votre ID d’abonnement Azure.
Le nom de votre ressource Azure AI Services.
Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.
Ajouter des modèles
Pour ajouter un modèle, vous devez d’abord identifier le modèle que vous souhaitez déployer. Vous pouvez interroger les modèles disponibles comme suit :
Connectez-vous à votre abonnement Azure :
az login
Si vous avez plusieurs abonnements, sélectionnez celui dans lequel se trouve votre ressource :
az account set --subscription $subscriptionId>
Définissez les variables d’environnement suivantes avec le nom de la ressource Azure AI Services que vous envisagez d’utiliser et le groupe de ressources.
accountName="<ai-services-resource-name>" resourceGroupName="<resource-group>"
Si vous n’avez pas encore de compte Azure AI Services, vous pouvez en créer un comme suit :
az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName
Voyons d’abord quels modèles sont disponibles et sous quelle référence SKU. La commande suivante répertorie toutes les définitions de modèle disponibles :
az cognitiveservices account list-models \ -n $accountName \ -g $resourceGroupName \ | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'
Les sorties se présentent comme suit :
{ "name": "Phi-3.5-vision-instruct", "format": "Microsoft", "version": "2", "sku": "GlobalStandard", "capacity": 1 }
Identifiez le modèle que vous souhaitez déployer. Vous avez besoin des propriétés
name
,format
,version
etsku
. Une capacité peut également être nécessaire selon le type de déploiement.Conseil
Remarquez que les modèles ne sont pas tous disponibles dans toutes les références SKU.
Ajoutez le modèle de déploiement à la ressource. L'exemple suivant ajoute
Phi-3.5-vision-instruct
:az cognitiveservices account deployment create \ -n $accountName \ -g $resourceGroupName \ --deployment-name Phi-3.5-vision-instruct \ --model-name Phi-3.5-vision-instruct \ --model-version 2 \ --model-format Microsoft \ --sku-capacity 1 \ --sku-name GlobalStandard
Le modèle est prêt à être consommé.
Vous pouvez déployer le même modèle plusieurs fois si nécessaire, mais sous un nom de déploiement différent. Cette fonctionnalité peut être utile si vous souhaitez tester différentes configurations d’un modèle donné, notamment la sécurité du contenu.
Gérer les déploiements
Vous pouvez afficher tous les déploiements disponibles à l’aide de la CLI :
Exécutez la commande suivante pour afficher tous les déploiements actifs :
az cognitiveservices account deployment list -n $accountName -g $resourceGroupName
Vous pouvez afficher les détails d’un déploiement donné :
az cognitiveservices account deployment show \ --deployment-name "Phi-3.5-vision-instruct" \ -n $accountName \ -g $resourceGroupName
Vous pouvez supprimer un déploiement donné comme suit :
az cognitiveservices account deployment delete \ --deployment-name "Phi-3.5-vision-instruct" \ -n $accountName \ -g $resourceGroupName
Utiliser le modèle
Les modèles déployés dans l’inférence de modèle Azure AI peuvent être consommés à l’aide du point de terminaison d’inférence du modèle Azure AI de la ressource. Lors de la création de votre requête, indiquez le paramètre model
et insérez le nom du modèle de déploiement que vous avez créé. Vous pouvez obtenir par programmation l’URI du point de terminaison d’inférence à l’aide du code suivant :
Point de terminaison d'inférence
az cognitiveservices account show -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'
Pour effectuer des demandes au point de terminaison d’inférence du modèle Azure AI, ajoutez l’itinéraire models
, par exemple https://<resource>.services.ai.azure.com/models
. Vous pouvez voir la référence de l’API du point de terminaison sur la page de référence de l’API d’inférence du modèle Azure AI.
Clés d’inférence
az cognitiveservices account keys list -n $accountName -g $resourceGroupName
Important
Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.
Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.
Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.
Prérequis
Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :
Un abonnement Azure. Si vous utilisez des modèles GitHub, vous pouvez mettre à niveau votre expérience et créer un abonnement Azure dans le processus. Lisez Passer des modèles GitHub à l’inférence de modèle Azure AI si vous êtes dans ce cas.
Une ressource Azure AI services.
Installez Azure CLI.
Identifiez les informations suivantes :
Votre ID d’abonnement Azure.
Le nom de votre ressource Azure AI Services.
Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.
Nom du modèle, fournisseur, version et référence SKU que vous souhaitez déployer. Vous pouvez utiliser le portail Azure AI Foundry ou Azure CLI pour l’identifier. Dans cet exemple, nous déployons le modèle suivant :
-
Nom du modèle :
Phi-3.5-vision-instruct
-
Fournisseur :
Microsoft
-
Version :
2
- Type de déploiement : Standard global
-
Nom du modèle :
À propos de ce didacticiel
L'exemple présenté dans cet article est basé sur les échantillons de code contenus dans le référentiel Azure-Samples/azureai-model-inference-bicep. Pour exécuter les commandes localement sans avoir à copier ou coller le contenu des fichiers, utilisez les commandes suivantes pour cloner le référentiel et vous rendre dans le dossier correspondant à votre langage de codage :
git clone https://github.com/Azure-Samples/azureai-model-inference-bicep
Les fichiers de cet exemple se situent dans :
cd azureai-model-inference-bicep/infra
Ajouter le modèle
Utilisez le modèle
ai-services-deployment-template.bicep
pour décrire les modèles de déploiement :ai-services-deployment-template.bicep
@description('Name of the Azure AI services account') param accountName string @description('Name of the model to deploy') param modelName string @description('Version of the model to deploy') param modelVersion string @allowed([ 'AI21 Labs' 'Cohere' 'Core42' 'DeepSeek' 'Meta' 'Microsoft' 'Mistral AI' 'OpenAI' ]) @description('Model provider') param modelPublisherFormat string @allowed([ 'GlobalStandard' 'Standard' 'GlobalProvisioned' 'Provisioned' ]) @description('Model deployment SKU name') param skuName string = 'GlobalStandard' @description('Content filter policy name') param contentFilterPolicyName string = 'Microsoft.DefaultV2' @description('Model deployment capacity') param capacity int = 1 resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = { name: '${accountName}/${modelName}' sku: { name: skuName capacity: capacity } properties: { model: { format: modelPublisherFormat name: modelName version: modelVersion } raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName } }
Exécutez le déploiement :
RESOURCE_GROUP="<resource-group-name>" ACCOUNT_NAME="<azure-ai-model-inference-name>" MODEL_NAME="Phi-3.5-vision-instruct" PROVIDER="Microsoft" VERSION=2 az deployment group create \ --resource-group $RESOURCE_GROUP \ --template-file ai-services-deployment-template.bicep \ --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDER
Utiliser le modèle
Les modèles déployés dans l’inférence de modèle Azure AI peuvent être consommés à l’aide du point de terminaison d’inférence du modèle Azure AI de la ressource. Lors de la création de votre requête, indiquez le paramètre model
et insérez le nom du modèle de déploiement que vous avez créé.