Mise à niveau des Modèles GitHub vers le service d’inférence de modèle Azure AI
Si vous souhaitez développer une application d’IA générative, vous pouvez utiliser des Modèles GitHub pour rechercher et expérimenter gratuitement des modèles IA. L’utilisation de l’API gratuite et le terrain de jeu sont limités en débit par les requêtes par minute, les requêtes par jour, les jetons par requête et les requêtes simultanées. En cas de limitation du débit, vous devrez attendre la réinitialisation de la limite de débit atteinte avant de pouvoir effectuer d’autres requêtes.
Une fois prêt pour passer votre application en production, vous pouvez mettre à jour votre expérience en déployant une ressource Azure AI Services dans un abonnement Azure et commencer à utiliser le service d’inférence de modèle Azure AI. Vous n’avez pas besoin de modifier quoi que ce soit d’autre dans votre code.
L’article suivant explique comment démarrer à partir des Modèles GitHub dans Modèles Azure AI pour Azure AI services.
Prérequis
Pour terminer ce tutoriel, vous avez besoin de ce qui suit :
Un compte GitHub avec accès aux Modèles GitHub.
Un abonnement Azure. Si vous n’en avez pas, il vous sera demandé d’en créer un ou de mettre à jour votre compte Azure vers un compte avec paiement au fur et à mesure lorsque vous êtes prêt à déployer votre modèle vers la production.
Mise à niveau vers Azure AI Services
Les limites de débit pour le terrain de jeu et l’utilisation gratuite de l’API sont destinées à vous aider à expérimenter des modèles et à développer votre application IA. Une fois que vous êtes prêt à passer votre application en production, utilisez une clé et un point de terminaison à partir d’un compte Azure payant. Vous n’avez pas besoin de modifier quoi que ce soit d’autre dans votre code.
Pour obtenir la clé et le point de terminaison :
Dans le terrain de jeu de votre modèle, sélectionnez Obtenir la clé API.
Sélectionnez Obtenir la clé de production.
Si vous n’avez pas de compte Azure, sélectionnez Créer mon compte et suivez les étapes pour en créer un.
Si vous avez un compte Azure, sélectionnez Se reconnecter.
Si votre compte existant est gratuit, vous devez d’abord mettre à niveau vers un plan avec paiement au fur et à mesure. Après votre mise à niveau, revenez au terrain de jeu, puis sélectionnez Obtenir la clé API à nouveau, puis connectez-vous à l’aide de votre compte mis à niveau.
Une fois connecté à votre compte Azure, vous êtes dirigé vers Azure AI Foundry.
En haut de la page, sélectionnez Accéder à votre ressource IA GitHub pour accéder à Azure AI Foundry / GitHub](https://ai.azure.com/github). Le chargement des détails de votre modèle initial dans le portail AI Foundry peut prendre une ou deux minutes.
La page est chargée avec les détails de votre modèle. Sélectionnez le bouton Créer un déploiement pour déployer le modèle sur votre compte.
Une fois déployé, le point de terminaison et la clé API de votre modèle s’affichent dans la Vue d’ensemble. Utilisez ces valeurs dans votre code pour utiliser le modèle dans votre environnement de production.
À ce stade, le modèle sélectionné est prêt à l’emploi.
Conseil
Utilisez le paramètre model="<deployment-name>
pour acheminer votre requête vers ce déploiement. Les déploiements fonctionnent en tant qu’alias d’un modèle donné sous certaines configurations. Consultez la page sur le concept de Routage pour découvrir comment Azure AI Services achemine des déploiements.
Mise à niveau de votre code pour utiliser le nouveau point de terminaison
Une fois votre ressource Azure AI Services configurée, vous pouvez commencer à l’utiliser à partir de votre code. Vous avez besoin de la clé et de l’URL de point de terminaison pour celle-ci. Vous les trouverez dans la section Vue d’ensemble :
Vous pouvez utiliser l’un des Kits de développement logiciel (SDK) pris en charge pour obtenir des prédictions à partir du point de terminaison. Les Kits de développement logiciel (SDK) suivants sont officiellement pris en charge :
- Kit de développement logiciel (SDK) OpenAI
- SDK Azure OpenAI
- Kit de développement logiciel (SDK) Inférence Azure AI
Consultez la section Kits de développement logiciel (SDK) et langages pris en charge pour découvrir plus de détails et des exemples. L’exemple suivant montre comment utiliser le Kit de développement logiciel (SDK) d’inférence de modèle Azure AI avec le modèle nouvellement déployé :
Installez le package azure-ai-inference
à l’aide de votre gestionnaire de package, par exemple pip :
pip install azure-ai-inference>=1.0.0b5
Avertissement
La ressource Azure AI Services nécessite la version azure-ai-inference>=1.0.0b5
de Python.
Vous pouvez ensuite utiliser le package pour consommer le modèle. L’exemple suivant montre comment créer un client pour consommer les complétions de conversation :
import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential
client = ChatCompletionsClient(
endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
)
Découvrez nos exemples, et lisez la documentation de référence API pour vous lancer.
Générez votre première saisie semi-automatique de conversation :
from azure.ai.inference.models import SystemMessage, UserMessage
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
],
model="mistral-large"
)
print(response.choices[0].message.content)
Explorer d’autres fonctionnalités
L’inférence de modèle Azure AI prend en charge d’autres fonctionnalités non disponibles dans Modèles GitHub, notamment :
- Explorer le catalogue de modèles pour voir d’autres modèles non disponibles dans Modèles GitHub.
- Configurer le filtrage de contenu.
- Configurer la limitation de débit (pour des modèles spécifiques).
- Explorer d’autres références SKU de déploiement (pour des modèles spécifiques).
- Configurer une mise en réseau privée.
Rencontrez-vous des problèmes ?
Consultez la section FAQ pour découvrir davantage d’aide en ligne.
Étapes suivantes
- Ajoutez d’autres modèles à votre point de terminaison.
- Explorez le catalogue de modèles dans le portail Azure AI Foundry.