Exercice : créer votre point de terminaison

Effectué

Dans cet exercice, vous créez une ressource Azure OpenAI et fournissez les informations sur le déploiement au noyau Semantic Kernel. Le noyau Semantic Kernel se connecte au point de terminaison et vous permet d’exécuter des invites au modèle de langage volumineux (LLM) directement à partir de votre code. C’est parti !

  1. Accédez à https://portal.azure.com.

  2. Dans la barre de recherche, entrez « Azure OpenAI », puis sélectionnez le service Azure OpenAI.

  3. Créez une ressource Azure OpenAI en utilisant les paramètres par défaut.

    Remarque

    Si vous disposez déjà d’une ressource Azure OpenAI, vous pouvez ignorer cette étape.

  4. Après la création de la ressource créée, sélectionnez Accéder à la ressource.

  5. Dans la page Vue d’ensemble, sélectionnez Accéder à Azure OpenAI Studio.

Capture d’écran de la page de déploiements Azure OpenAI.

  1. Sélectionnez Créer un déploiement, puis Déployer un modèle.

  2. Sous Sélectionner un modèle, sélectionnez gpt-35-turbo-16k.

    Utiliser la version de modèle par défaut

  3. Entrez un nom pour votre déploiement.

  4. Une fois le déploiement terminé, revenez à votre ressource Azure OpenAI.

  5. Sous Gestion des ressources, accédez à Clés et points de terminaison.

    Vous allez utiliser les données ici dans les exercices suivants pour générer votre noyau. N’oubliez pas de veiller à ce vos clés restent privées et sécurisées.

Important

Veillez à ne pas supprimer cette ressource tant que vous n’avez pas terminé ce parcours d’apprentissage. Vous en aurez besoin pour faire les exercices.