Partager via


Configurer une connexion pour utiliser l’inférence de modèle Azure AI dans votre projet d’IA

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez utiliser l’inférence de modèle Azure AI dans vos projets dans Azure AI Foundry pour créer/atteindre des applications et interagir/gérer les modèles disponibles. Pour utiliser le service d’inférence de modèle Azure AI dans votre projet, vous devez créer une connexion à la ressource Azure AI Services.

L’article suivant explique comment créer une connexion à la ressource Azure AI Services pour utiliser le point de terminaison d’inférence.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

Ajouter une connexion

Vous pouvez créer une connexion à une ressource Azure AI Services en procédant comme suit :

  1. Accédez au Portail Azure AI Foundry.

  2. Dans le coin inférieur gauche de l’écran, sélectionnez Centre de gestion.

  3. Dans la section Connexions, sélectionnez Nouvelle connexion.

  4. Sélectionnez Azure AI services.

  5. Dans le navigateur, recherchez une ressource Azure AI Services existante dans votre abonnement.

  6. Sélectionnez Ajouter une connexion.

  7. La nouvelle connexion est ajoutée à votre Hub.

  8. Revenez à la page d’arrivée du projet pour continuer et sélectionnez maintenant la connexion nouvellement créée. Actualisez la page si elle ne s’affiche pas immédiatement.

    Capture d’écran de la page d’arrivée du projet, mettant en évidence l’emplacement de la ressource connectée et le point de terminaison d’inférence associé.

Voir les modèles de déploiement dans la ressource connectée

Vous pouvez voir les modèles de déploiement disponibles dans la ressource connectée en procédant comme suit :

  1. Accédez au Portail Azure AI Foundry.

  2. Dans la barre de navigation de gauche, sélectionnez Modèles + points de terminaison.

  3. La page affiche les modèles de déploiement disponibles, regroupés par nom de connexion. Recherchez la connexion que vous venez de créer, qui doit être de type Azure AI Services.

    Capture d’écran montrant la liste des modèles disponibles sous une connexion donnée.

  4. Sélectionnez le modèle de déploiement que vous souhaitez inspecter.

  5. La page de détails affiche des informations sur le déploiement spécifique. Si vous souhaitez tester le modèle, vous pouvez utiliser l’option Ouvrir dans le terrain de jeu.

  6. Le terrain de jeu Azure AI Foundry s’affiche, dans lequel vous pouvez interagir avec le modèle donné.

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez utiliser l’inférence de modèle Azure AI dans vos projets dans Azure AI Foundry pour créer/atteindre des applications et interagir/gérer les modèles disponibles. Pour utiliser le service d’inférence de modèle Azure AI dans votre projet, vous devez créer une connexion à la ressource Azure AI Services.

L’article suivant explique comment créer une connexion à la ressource Azure AI Services pour utiliser le point de terminaison d’inférence.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Installer l’interface de ligne de commande Azure et l’extension ml pour Azure AI Foundry :

    az extension add -n ml
    
  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Le nom de votre ressource Azure AI Services.

    • Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.

Ajouter une connexion

Pour ajouter un modèle, vous devez d’abord identifier le modèle que vous souhaitez déployer. Vous pouvez interroger les modèles disponibles comme suit :

  1. Connectez-vous à votre abonnement Azure :

    az login
    
  2. Configurer l’interface CLI pour qu’elle pointe vers le projet :

    az account set --subscription <subscription>
    az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
    
  3. Créer une définition de connexion :

    connection.yml

    name: <connection-name>
    type: aiservices
    endpoint: https://<ai-services-resourcename>.services.ai.azure.com
    api_key: <resource-api-key>
    
  4. Créez la connexion :

    az ml connection create -f connection.yml
    
  5. À ce stade, la connexion est disponible pour la consommation.

Important

Les éléments marqués (préversion) dans cet article sont actuellement en préversion publique. Cette préversion est fournie sans contrat de niveau de service, nous la déconseillons dans des charges de travail de production. Certaines fonctionnalités peuvent être limitées ou non prises en charge. Pour plus d’informations, consultez Conditions d’Utilisation Supplémentaires relatives aux Évaluations Microsoft Azure.

Vous pouvez utiliser l’inférence de modèle Azure AI dans vos projets dans Azure AI Foundry pour créer/atteindre des applications et interagir/gérer les modèles disponibles. Pour utiliser le service d’inférence de modèle Azure AI dans votre projet, vous devez créer une connexion à la ressource Azure AI Services.

L’article suivant explique comment créer une connexion à la ressource Azure AI Services pour utiliser le point de terminaison d’inférence.

Prérequis

Pour effectuer ce qui est décrit dans cet article, vous avez besoin des éléments suivants :

  • Projet Azure AI avec un Hub IA.

  • Installez Azure CLI.

  • Identifiez les informations suivantes :

    • Votre ID d’abonnement Azure.

    • Le nom de votre ressource Azure AI Services.

    • L’ID de votre ressource Azure AI Services.

    • Nom du Hub Azure AI dans lequel le projet est déployé.

    • Le groupe de ressources dans lequel la ressource Azure AI Services est déployée.

Ajouter une connexion

  1. Utilisez le modèle ai-services-connection-template.bicep pour décrire la connexion :

    ai-services-connection-template.bicep

    @description('Name of the hub where the connection will be created')
    param hubName string
    
    @description('Name of the connection')
    param name string
    
    @description('Category of the connection')
    param category string = 'AIServices'
    
    @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None'])
    param authType string = 'AAD'
    
    @description('The endpoint URI of the connected service')
    param endpointUri string
    
    @description('The resource ID of the connected service')
    param resourceId string = ''
    
    @secure()
    param key string = ''
    
    
    resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = {
      name: '${hubName}/${name}'
      properties: {
        category: category
        target: endpointUri
        authType: authType
        isSharedToAll: true
        credentials: authType == 'ApiKey' ? {
          key: key
        } : null
        metadata: {
          ApiType: 'Azure'
          ResourceId: resourceId
        }
      }
    }
    
  2. Exécutez le déploiement :

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com"
    RESOURCE_ID="<resource-id>"
    HUB_NAME="<hub-name>"
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-connection-template.bicep \
        --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID
    

Étapes suivantes