Partage via


Ajouter des modèles à l’inférence de modèle Azure AI et les configurer

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

Ajouter un modèle

Vous pouvez ajouter des modèles au point de terminaison de l’inférence du modèle Azure AI en procédant comme suit :

  1. Accédez à la section Catalogue de modèles dans le Portail Azure AI Foundry.

  2. Faites défiler jusqu’au modèle qui vous intéresse et sélectionnez-le.

    Animation montrant comment rechercher des modèles dans le catalogue de modèles et en sélectionner un pour afficher ses détails.

  3. Vous pouvez consulter les détails du modèle sur la carte de modèle.

  4. Sélectionnez Déployer.

  5. Pour les fournisseurs de modèles qui demandent des conditions contractuelles supplémentaires, vous êtes invité à les accepter. C’est le cas des modèles Mistral par exemple. Acceptez les conditions de ces cas en sélectionnant S’abonner et déployer.

    Capture d’écran montrant comment accepter les conditions générales d’un modèle Mistral-Large.

  6. Vous pouvez configurer les paramètres de déploiement à ce moment. Par défaut, le déploiement reçoit le nom du modèle que vous déployez. Le nom du déploiement est utilisé dans le paramètre model pour que la requête soit acheminée vers ce modèle de déploiement particulier. Cela vous permet également de configurer des noms spécifiques pour vos modèles quand vous attachez des configurations spécifiques. Par exemple, o1-preview-safe pour un modèle avec un filtre de contenu de sécurité du contenu strict.

    Conseil

    Chaque modèle peut prendre en charge différents types de déploiements, qui offrent différentes garanties de débit ou de résidence des données. Pour plus d’informations, consultez les types de déploiement.

  7. Nous sélectionnons automatiquement une connexion Azure AI Services en fonction de votre projet. Utilisez l’option Personnaliser pour modifier la connexion en fonction de vos besoins. Si vous effectuez un déploiement sous le type de déploiement Standard, les modèles doivent être disponibles dans la région de la ressource Azure AI Services.

    Capture d’écran montrant comment personnaliser le déploiement si nécessaire.

    Conseil

    Si la ressource souhaitée n’est pas répertoriée, vous devrez peut-être créer une connexion à celle-ci. Consultez Configurer un service d’inférence de modèle Azure AI dans mon projet dans Azure AI Foundry.

  8. Sélectionnez Déployer.

  9. Une fois le déploiement terminé, le nouveau modèle est répertorié sur la page et est prêt à être utilisé.

Gérer les modèles

Vous pouvez gérer les modèles de déploiements existants dans la ressource à l’aide du portail Azure AI Foundry.

  1. Accédez à la section Modèles + Points de terminaison dans le Portail Azure AI Foundry.

  2. Faites défiler jusqu’à la connexion à votre ressource Azure AI Services. Les modèles de déploiement sont regroupés et affichés par connexion.

    Capture d’écran montrant la liste des modèles disponibles sous une connexion donnée.

  3. Vous voyez une liste de modèles disponibles sous chaque connexion. Sélectionnez le modèle de déploiement qui vous intéresse.

  4. Modifier ou Supprimer le déploiement si nécessaire.

Testez le déploiement dans le terrain de jeu

Vous pouvez interagir avec le nouveau modèle dans le portail Azure AI Foundry à l’aide du terrain de jeu :

Remarque

Le terrain de jeu est disponible uniquement lors de l’utilisation de projets IA dans Azure AI Foundry. Créez un projet IA pour obtenir un accès total à toutes les fonctionnalités d’Azure AI Foundry.

  1. Accédez à la section Terrains de jeux dans le Portail Azure AI Foundry.

  2. Selon le type de modèle que vous avez déployé, sélectionnez le terrain de jeu dont vous avez besoin. Dans ce cas, nous sélectionnons Terrain de jeu de conversation.

  3. Dans la liste déroulante Déploiement, sous Configuration, sélectionnez le nom du modèle de déploiement que vous avez créé.

    Capture d’écran montrant comment sélectionner un modèle de déploiement pour l’utiliser dans le terrain de jeu.

  4. Tapez votre requête et consultez les sorties.

  5. En outre, vous pouvez utiliser Afficher le code pour afficher des détails sur la façon d’accéder au modèle de déploiement par programmation.

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Installer Azure CLI et l’extension cognitiveservices pour Azure AI Services :

    az extension add -n cognitiveservices
    
  • Certaines des commandes de ce tutoriel utilisent l’outil jq, qui peut ne pas être installé dans votre système. Pour connaître les instructions d’installation, consultez Télécharger jq.

  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Le nom de votre ressource Azure AI Services.

    • Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.

Ajouter des modèles

Pour ajouter un modèle, vous devez d’abord identifier le modèle que vous souhaitez déployer. Vous pouvez interroger les modèles disponibles comme suit :

  1. Connectez-vous à votre abonnement Azure :

    az login
    
  2. Si vous avez plusieurs abonnements, sélectionnez celui dans lequel se trouve votre ressource :

    az account set --subscription $subscriptionId>
    
  3. Définissez les variables d’environnement suivantes avec le nom de la ressource Azure AI Services que vous envisagez d’utiliser et le groupe de ressources.

    accountName="<ai-services-resource-name>"
    resourceGroupName="<resource-group>"
    
  4. Si vous n’avez pas encore de compte Azure AI Services, vous pouvez en créer un comme suit :

    az cognitiveservices account create -n $accountName -g $resourceGroupName --custom-domain $accountName
    
  5. Voyons d’abord quels modèles sont disponibles et sous quelle référence SKU. La commande suivante répertorie toutes les définitions de modèle disponibles :

    az cognitiveservices account list-models \
        -n $accountName \
        -g $resourceGroupName \
    | jq '.[] | { name: .name, format: .format, version: .version, sku: .skus[0].name, capacity: .skus[0].capacity.default }'
    
  6. Les sorties se présentent comme suit :

    {
      "name": "Phi-3.5-vision-instruct",
      "format": "Microsoft",
      "version": "2",
      "sku": "GlobalStandard",
      "capacity": 1
    }
    
  7. Identifiez le modèle que vous souhaitez déployer. Vous avez besoin des propriétés name, format, version et sku. Une capacité peut également être nécessaire selon le type de déploiement.

    Conseil

    Remarquez que les modèles ne sont pas tous disponibles dans toutes les références SKU.

  8. Ajoutez le modèle de déploiement à la ressource. L'exemple suivant ajoute Phi-3.5-vision-instruct :

    az cognitiveservices account deployment create \
        -n $accountName \
        -g $resourceGroupName \
        --deployment-name Phi-3.5-vision-instruct \
        --model-name Phi-3.5-vision-instruct \
        --model-version 2 \
        --model-format Microsoft \
        --sku-capacity 1 \
        --sku-name GlobalStandard
    
  9. Le modèle est prêt à être consommé.

Vous pouvez déployer le même modèle plusieurs fois si nécessaire, mais sous un nom de déploiement différent. Cette fonctionnalité peut être utile si vous souhaitez tester différentes configurations d’un modèle donné, notamment la sécurité du contenu.

Gérer les déploiements

Vous pouvez afficher tous les déploiements disponibles à l’aide de la CLI :

  1. Exécutez la commande suivante pour afficher tous les déploiements actifs :

    az cognitiveservices account deployment list -n $accountName -g $resourceGroupName
    
  2. Vous pouvez afficher les détails d’un déploiement donné :

    az cognitiveservices account deployment show \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    
  3. Vous pouvez supprimer un déploiement donné comme suit :

        az cognitiveservices account deployment delete \
        --deployment-name "Phi-3.5-vision-instruct" \
        -n $accountName \
        -g $resourceGroupName
    

Utiliser le modèle

Les modèles déployés dans l’inférence de modèle Azure AI peuvent être consommés à l’aide du point de terminaison d’inférence du modèle Azure AI de la ressource. Lors de la création de votre requête, indiquez le paramètre model et insérez le nom du modèle de déploiement que vous avez créé. Vous pouvez obtenir par programmation l’URI du point de terminaison d’inférence à l’aide du code suivant :

Point de terminaison d'inférence

az cognitiveservices account show  -n $accountName -g $resourceGroupName | jq '.properties.endpoints["Azure AI Model Inference API"]'

Pour effectuer des demandes au point de terminaison d’inférence du modèle Azure AI, ajoutez l’itinéraire models, par exemple https://<resource>.services.ai.azure.com/models. Vous pouvez voir la référence de l’API du point de terminaison sur la page de référence de l’API d’inférence du modèle Azure AI.

Clés d’inférence

az cognitiveservices account keys list  -n $accountName -g $resourceGroupName

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez déterminer quels sont les modèles disponibles pour une inférence dans le point de terminaison de l’inférence et les configurer. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Dans cet article, vous découvrez comment ajouter un nouveau modèle à l’inférence de modèle Azure AI dans Azure AI Foundry.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Installez Azure CLI.

  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Le nom de votre ressource Azure AI Services.

    • Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.

    • Nom du modèle, fournisseur, version et référence SKU que vous souhaitez déployer. Vous pouvez utiliser le portail Azure AI Foundry ou Azure CLI pour l’identifier. Dans cet exemple, nous déployons le modèle suivant :

      • Nom du modèle : Phi-3.5-vision-instruct
      • Fournisseur : Microsoft
      • Version :2
      • Type de déploiement : Standard global

À propos de ce didacticiel

L'exemple présenté dans cet article est basé sur les échantillons de code contenus dans le référentiel Azure-Samples/azureai-model-inference-bicep. Pour exécuter les commandes localement sans avoir à copier ou coller le contenu des fichiers, utilisez les commandes suivantes pour cloner le référentiel et vous rendre dans le dossier correspondant à votre langage de codage :

git clone https://github.com/Azure-Samples/azureai-model-inference-bicep

Les fichiers de cet exemple se situent dans :

cd azureai-model-inference-bicep/infra

Ajouter le modèle

  1. Utilisez le modèle ai-services-deployment-template.bicep pour décrire les modèles de déploiement :

    ai-services-deployment-template.bicep

    @description('Name of the Azure AI services account')
    param accountName string
    
    @description('Name of the model to deploy')
    param modelName string
    
    @description('Version of the model to deploy')
    param modelVersion string
    
    @allowed([
      'AI21 Labs'
      'Cohere'
      'Core42'
      'DeepSeek'
      'Meta'
      'Microsoft'
      'Mistral AI'
      'OpenAI'
    ])
    @description('Model provider')
    param modelPublisherFormat string
    
    @allowed([
        'GlobalStandard'
        'Standard'
        'GlobalProvisioned'
        'Provisioned'
    ])
    @description('Model deployment SKU name')
    param skuName string = 'GlobalStandard'
    
    @description('Content filter policy name')
    param contentFilterPolicyName string = 'Microsoft.DefaultV2'
    
    @description('Model deployment capacity')
    param capacity int = 1
    
    resource modelDeployment 'Microsoft.CognitiveServices/accounts/deployments@2024-04-01-preview' = {
      name: '${accountName}/${modelName}'
      sku: {
        name: skuName
        capacity: capacity
      }
      properties: {
        model: {
          format: modelPublisherFormat
          name: modelName
          version: modelVersion
        }
        raiPolicyName: contentFilterPolicyName == null ? 'Microsoft.Nill' : contentFilterPolicyName
      }
    }
    
  2. Exécutez le déploiement :

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    MODEL_NAME="Phi-3.5-vision-instruct"
    PROVIDER="Microsoft"
    VERSION=2
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-deployment-template.bicep \
        --parameters accountName=$ACCOUNT_NAME modelName=$MODEL_NAME modelVersion=$VERSION modelPublisherFormat=$PROVIDER
    

Utiliser le modèle

Les modèles déployés dans l’inférence de modèle Azure AI peuvent être consommés à l’aide du point de terminaison d’inférence du modèle Azure AI de la ressource. Lors de la création de votre requête, indiquez le paramètre model et insérez le nom du modèle de déploiement que vous avez créé.

Étapes suivantes