Partager via


Qu’est-ce que le service d’inférence de modèle Azure AI ?

Le service d’inférence de modèle Azure AI permet d’accéder aux modèles les plus puissants disponibles dans le catalogue de modèles Azure AI. Développés par les principaux fournisseurs de modèles du secteur comme OpenAI, Microsoft, Meta, Mistral, Cohere, G42 et AI21 Labs, ces modèles peuvent être intégrés à des solutions logicielles pour fournir un large éventail de tâches, notamment la génération de contenu, la création de résumés, la compréhension d’images, la recherche sémantique et la génération de code.

Le service d’inférence de modèle Azure AI permet de consommer des modèles en tant qu’API sans les héberger sur votre infrastructure. Les modèles sont hébergés dans une infrastructure managée par Microsoft qui permet un accès basé sur l’API au modèle du fournisseur de modèles. L’accès basé sur l’API peut réduire drastiquement le coût d’accès à un modèle et simplifie l’expérience d’approvisionnement.

Modèles

Vous pouvez accéder aux principaux fournisseurs de modèles du secteur, notamment OpenAI, Microsoft, Meta, Mistral, Cohere, G42 et AI21 Labs. Les fournisseurs de modèles définissent les termes du contrat de licence et définissent le prix d’utilisation de leurs modèles. La liste suivante répertorie tous les modèles disponibles :

Fournisseur de modèles Modèles
Laboratoires AI21 – AI21-Jamba-1.5-Mini
– AI21-Jamba-1.5-Large
Azure OpenAI – o1-preview (demande d’accès)
– o1-mini (demande d’accès)
– gpt-4o-mini
– gpt-4o
– text-embedding-3-small
– text-embedding-3-large
Cohere – Cohere-command-r-plus-08-2024
– Cohere-command-r-08-2024
– Cohere-embed-v3-multilingual
– Cohere-embed-v3-english
– Cohere-command-r-plus
– Cohere-command-r
Meta AI – Meta-Llama-3-8B-Instruct
– Meta-Llama-3-70B-Instruct
– Meta-Llama-3.1-8B-Instruct
– Meta-Llama-3.1-70B-Instruct
– Meta-Llama-3.1-405B-Instruct
– Llama-3.2-11B-Vision-Instruct
– Llama-3.2-90B-Vision-Instruct
Mistral AI – Mistral-Small
– Mistral-Nemo
– Mistral-large
– Mistral-large-2407
Microsoft – Phi-3-mini-4k-instruct
– Phi-3-medium-4k-instruct
– Phi-3-mini-128k-instruct
– Phi-3-medium-128k-instruct
– Phi-3-small-8k-instruct
– Phi-3-small-128k-instruct
– Phi-3.5-vision-instruct
– Phi-3.5-mini-instruct
– Phi-3.5-MoE-instruct

Vous pouvez sélectionner et configurer les modèles disponibles pour l’inférence dans la ressource créée. Lorsqu’un modèle donné est configuré, vous pouvez ensuite générer des prédictions à partir de celui-ci en indiquant son nom de modèle ou son nom de déploiement dans vos demandes. Aucune autre modification n’est requise dans votre code pour l’utiliser.

Pour savoir comment ajouter des modèles à la ressource d’inférence de modèle Azure AI et les utiliser, lisez Ajouter des modèles aux modèles Azure AI dans l’inférence de modèle Azure AI et les configurer.

Tarification

Les modèles proposés par des fournisseurs autres que Microsoft (par exemple, les modèles Meta AI et Mistral) sont facturés via la Place de marché Azure. Pour ces modèles, vous devez vous abonner à l’offre de modèle particulière conformément aux conditions d’utilisation de la place de marché commerciale Microsoft. Les utilisateurs acceptent les termes du contrat de licence régissant l’utilisation des modèles. Les informations de tarification pour la consommation sont fournies pendant le déploiement.

Les modèles proposés par Microsoft (par exemple, les modèles Phi-3 et Azure OpenAI) n’ont pas cette exigence et sont facturés via des compteurs Azure en tant que services de consommation internes. Comme décrit dans les conditions générales du produit, vous achetez des services de consommation internes à l’aide de compteurs Azure, mais ils ne sont pas soumis aux conditions générales des services Azure.

Étapes suivantes