Partager via


Utiliser des points de terminaison d’API serverless à partir d’un autre projet ou hub Azure AI Studio

Dans cet article, vous apprendrez à configurer un point de terminaison d’API serverless existant dans un autre projet ou hub que celui utilisé pour créer le déploiement.

Important

Les modèles qui sont en préversion comportent la mention préversion sur leur carte de modèle dans le catalogue de modèles.

Certains modèles du catalogue de modèles peuvent être déployés en tant qu’API serverless. Ce type de déploiement permet de consommer des modèles en tant qu’API sans les héberger sur votre abonnement, tout en conservant la sécurité et la conformité de l’entreprise dont les organisations ont besoin. Cette option de déploiement ne nécessite pas de quota à partir de votre abonnement.

Il se peut que vous ayez besoin d’utiliser un point de terminaison d’API serverless existant dans un autre projet ou hub que celui utilisé pour créer le déploiement dans ce genre de situations :

  • Vous souhaitez centraliser vos déploiements dans un projet ou hub donné et les consommer à partir de différents projets ou hubs de votre organisation.
  • Vous devez déployer un modèle dans un hub dans une région Azure particulière où le déploiement serverless pour ce modèle est disponible. Toutefois, vous devez l’utiliser à partir d’une autre région, où le déploiement serverless n’est pas disponible pour les modèles particuliers.

Prérequis

Créer une connexion de point de terminaison d’API

Pour créer une connexion, effectuez les étapes suivantes :

  1. Connectez-vous au projet ou au hub où le point de terminaison est déployé :

    Accédez à Azure AI Studio puis au projet où le point de terminaison auquel vous souhaitez vous connecter est déployé.

  2. Obtenez l’URL et les informations d’identification du point de terminaison pour le point de terminaison auquel vous souhaitez vous connecter. Dans cet exemple, vous obtenez les détails d’un nom de point de terminaison meta-llama3-8b-qwerty.

    1. Dans la barre latérale gauche de votre projet dans AI Studio, accédez à Composants>Déploiements pour afficher la liste des déploiements dans le projet.

    2. Sélectionnez le déploiement auquel vous souhaitez vous connecter.

    3. Copiez les valeurs pour l’URI cible et la clé.

  3. À présent, connectez-vous au projet ou au hub où vous souhaitez créer la connexion :

    Accédez au projet dans lequel la connexion doit être créée.

  4. Créer la connexion dans le projet :

    1. Dans la barre latérale gauche de votre projet dans AI Studio, sélectionnez Paramètres.

    2. Dans la section Ressources connectées, sélectionnez Nouvelle connexion.

    3. Sélectionnez Modèle serverless.

    4. Pour l’URI cible, collez la valeur que vous avez copiée précédemment.

    5. Pour laclé, collez la valeur que vous avez copiée précédemment.

    6. Donnez un nom à la connexion, dans ce cas meta-llama3-8b-connection.

    7. Sélectionnez Ajouter une connexion.

  5. À ce stade, la connexion est disponible pour la consommation.

  6. Pour vérifier que la connexion fonctionne :

    1. Dans la barre latérale gauche de votre projet dans AI Studio, accédez à Outils>Flux d’invite.

    2. Sélectionnez Créer pour créer un nouveau flux.

    3. Sélectionnez Créer dans la zone flux de conversation.

    4. Donnez un nom à votre Flux d’invite, puis sélectionnez Créer.

    5. Sélectionnez le nœud de conversation dans le graphique pour accéder à la section conversation.

    6. Pour vous connecter, ouvrez la liste déroulante pour sélectionner la connexion que vous venez de créer, dans ce cas meta-llama3-8b-connection.

    7. Sélectionnez Démarrer la session de calcul dans la barre de navigation supérieure pour démarrer un runtime automatique de flux d’invite.

    8. Sélectionnez l’option conversation. Vous pouvez maintenant envoyer des messages et recevoir des réponses.