Qu’est-ce que l’inférence de modèle Azure AI ?
L’inférence de modèle Azure AI donne accès aux modèles les plus puissants disponibles dans le catalogue de modèles Azure AI. Les modèles proviennent des principaux fournisseurs de modèles du secteur, notamment OpenAI, Microsoft, Meta, Mistral, Cohere, G42 et AI21 Labs. Ces modèles peuvent être intégrés à des solutions logicielles pour assurer un large éventail de tâches, notamment la génération de contenu, le résumé, la compréhension des images, la recherche sémantique et la génération de code.
L’inférence de modèle Azure AI permet de consommer les modèles sous forme d’API sans les héberger sur votre infrastructure. Les modèles sont hébergés dans une infrastructure managée par Microsoft qui permet un accès basé sur l’API au modèle du fournisseur de modèles. L’accès basé sur l’API peut réduire drastiquement le coût d’accès à un modèle et simplifie l’expérience d’approvisionnement.
L’inférence de modèle Azure AI fait partie intégrante d’Azure AI Services, et les utilisateurs peuvent accéder au service par l’intermédiaire d’API REST, de kits SDK dans plusieurs langages comme Python, C#, JavaScript et Java. Vous pouvez également utiliser l’inférence du modèle Azure AI depuis Azure AI Foundry en configurant une connexion.
Modèles
Vous pouvez accéder aux principaux fournisseurs de modèles du secteur, notamment OpenAI, Microsoft, Meta, Mistral, Cohere, G42 et AI21 Labs. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles. La liste suivante répertorie tous les modèles disponibles :
Conseil
Veuillez consulter l’article Modèles pour obtenir un aperçu détaillé des modèles, des fonctionnalités et d’autres aspects.
Fournisseur | Modèles |
---|---|
AI21 Labs | – AI21-Jamba-1.5-Mini – AI21-Jamba-1.5-Large |
Azure OpenAI | - o1 - gpt-4o - o1-preview - o1-mini - gpt-4o-mini - text-embedding-3-large - text-embedding-3-small |
Cohere | - Cohere-embed-v3-english - Cohere-embed-v3-multilingual - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-command-r-plus - Cohere-command-r |
Core42 | - jais-30b-chat |
Méta | - Llama-3.3-70B-Instruct - Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct - Meta-Llama-3.1-405B-Instruct - Meta-Llama-3-8B-Instruct - Meta-Llama-3.1-70B-Instruct - Meta-Llama-3.1-8B-Instruct - Meta-Llama-3-70B-Instruct |
Microsoft | - Phi-3-mini-128k-instruct - Phi-3-mini-4k-instruct - Phi-3-small-8k-instruct - Phi-3-medium-128k-instruct - Phi-3-medium-4k-instruct - Phi-3.5-vision-instruct - Phi-3.5-MoE-instruct - Phi-3-small-128k-instruct - Phi-3.5-mini-instruct - Phi-4 |
Mistral AI | - Ministral-3B - Mistral-large - Mistral-small - Mistral-Nemo - Mistral-large-2407 - Mistral-Large-2411 - Codestral-2501 |
Données NTT | - Tsuzumi-7b |
Tarification
Pour les modèles proposés par d’autres fournisseurs que Microsoft (par exemple, les modèles Meta AI et Mistral), vous êtes facturé via la Place de marché Microsoft Azure. Pour ces modèles, vous devez vous abonner à l’offre de modèle particulière conformément aux conditions d’utilisation de la place de marché commerciale Microsoft. Les utilisateurs acceptent les termes du contrat de licence régissant l’utilisation des modèles. Les informations de tarification pour la consommation sont fournies pendant le déploiement.
Pour les modèles Microsoft (par exemple, les modèles Phi-3 et Azure OpenAI), vous êtes facturé via les compteurs Azure en tant que services de consommation internes. Comme décrit dans les conditions générales du produit, vous achetez des services de consommation internes à l’aide de compteurs Azure, mais ils ne sont pas soumis aux conditions générales des services Azure.
Conseil
Découvrez comment surveiller et gérer les coûts dans l’inférence de modèle Azure AI.
Intelligence artificielle responsable
Chez Microsoft, nous avons engagé une démarche d’amélioration de l’intelligence artificielle (l’IA) basée sur des principes qui placent les utilisateurs au centre de nos préoccupations. Les modèles générateurs tels que ceux disponibles dans les modèles Azure AI présentent des avantages potentiels significatifs, mais sans une conception minutieuse et une prévention réfléchie, ces modèles peuvent aussi générer du contenu incorrect voire nuisible.
Microsoft prévient contre les abus et les dommages involontaires en prenant les mesures suivantes :
- Incorporation des principes de Microsoft pour une utilisation responsable de l’IA
- Adoption d’un code de conduite pour l’utilisation du service
- Création de filtres de contenu à l’intention des clients
- Mise à disposition d’informations et conseils pour une IA responsable, dont les clients doivent tenir compte lorsqu’ils utilisent Azure OpenAI.
Mise en route
L’inférence de modèle Azure AI est une nouvelle offre de fonctionnalités dans les ressources Azure AI Services. Vous pouvez commencer à l’utiliser comme n’importe quel autre produit Azure en créant et configurant votre ressource pour l’inférence de modèle Azure AI ou bien une instance du service dans votre abonnement Azure. Vous pouvez créer autant de ressources que nécessaire et les configurer indépendamment si vos différentes équipes ont des exigences différentes.
Une fois que vous avez créé une ressource Azure AI Services, vous devez déployer un modèle avant de commencer à effectuer des appels d’API. Par défaut, elle ne dispose d’aucun modèle. Vous pouvez donc décider avec quels modèles commencer. Veuillez consulter le didacticiel Créer votre premier modèle de déploiement dans l’inférence de modèle Azure AI.