Édition

Partage via


Questions fréquentes sur l’inférence de modèle Azure AI

Si vous ne trouvez pas de réponses à vos questions dans ce document, et si vous avez toujours besoin d’aide, consultez le guide des options du support Azure AI Services.

Général

Quelle est la différence entre le service Azure OpenAI et l’inférence de modèle Azure AI ?

Azure OpenAI Service permet aux clients d’accéder aux modèles de langage avancés d’OpenAI. L’inférence de modèle Azure AI étend cette fonctionnalité en permettant aux clients d’accéder à tous les modèles phares d’Azure AI sous les mêmes service, point de terminaison et informations d’identification. Elle inclut Azure OpenAI, Cohere, Mistral AI, Meta Llama, AI21 Labs, etc. Les clients peuvent basculer en toute transparence entre les modèles sans modifier leur code.

Azure OpenAI Service et l’inférence de modèle Azure AI font partie de la famille Azure AI services et s’appuient sur la même promesse de sécurité et d’entreprise d’Azure.

Bien que l’inférence de modèle Azure AI se concentre sur l’inférence, Azure OpenAI Service peut être utilisé avec des API plus avancées telles que le traitement par lots, le réglage précis, les assistants et les fichiers.

Quelle est la différence entre OpenAI et Azure OpenAI ?

Les modèles Azure AI et Azure OpenAI Service permettent aux clients d’accéder aux modèles de langage avancés d’OpenAI avec la promesse de sécurité et d’entreprise d’Azure. Azure OpenAI codéveloppe les API avec OpenAI, ce qui garantit la compatibilité et une transition en douceur de l'une à l'autre.

Les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles qu’OpenAI. Il offre une mise en réseau privé, une disponibilité régionale et un filtrage de contenu d’IA responsable.

En savoir plus sur le service Azure OpenAI.

Quelle est la différence entre Azure AI services et Azure AI Foundry ?

Azure AI services est une suite de services IA qui fournissent des API prédéfinies pour les scénarios d’IA courants. Azure AI Services fait partie de la plateforme Azure AI Foundry. Azure AI services peut être utilisé dans le portail Azure AI Foundry pour améliorer vos modèles avec des fonctionnalités d’IA prédéfinies.

Modèles

Pourquoi tous les modèles du catalogue de modèles Azure AI ne sont-ils pas pris en charge dans Azure AI services ?

L’inférence de modèle Azure AI dans Azure AI services prend en charge tous les modèles du catalogue Azure AI ayant une facturation à l’utilisation. Pour plus d’informations, consultez l’article Modèles.

Le catalogue de modèles Azure AI contient une liste plus large de modèles, mais ces modèles nécessitent un quota de calcul à partir de votre abonnement. Ils doivent également disposer d’un projet ou d’un hub IA où héberger le déploiement. Pour plus d’informations, consultez les options de déploiement dans Azure AI Foundry.

SDK et langages de programmation

Quels sont les kits de développement logiciel (SDK) et les langages de programmation pris en charge par l’inférence de modèle Azure AI ?

Vous pouvez utiliser le kit de développement logiciel (SDK) d’inférence Azure avec n’importe quel modèle pris en charge par l’inférence de modèle Azure AI dans Azure AI services, la classe AzureOpenAI du kit de développement logiciel (SDK) OpenAI ou le kit de développement logiciel (SDK) Azure OpenAI.

Le kit de développement logiciel (SDK) Cohere, le kit de développement logiciel (SDK) Mistral et les kits de développement logiciel (SDK) spécifiques au fournisseur de modèles ne sont pas pris en charge lorsqu’ils sont connectés à Azure AI services.

Pour plus d’informations, consultez les SDK et les langages de programmation pris en charge.

L’inférence de modèle Azure AI fonctionne-t-elle avec la dernière bibliothèque Python publiée par OpenAI (version >= 1.0) ?

Azure AI services prend en charge la dernière version de la bibliothèque Python OpenAI (version >= 1.0).

J’effectue une requête pour un modèle qui prend en charge l’inférence de modèle Azure AI, mais j’obtiens une erreur 404. Que dois-je faire ?

Vérifiez que vous avez créé un déploiement pour le modèle donné et que le nom du déploiement correspond exactement à la valeur que vous transmettez au paramètre model. Bien que le routage ne respecte pas la casse, vérifiez qu’il n’y a pas d’espaces ou de caractères spéciaux de ponctuation, car ce sont des erreurs courantes.

J’utilise le package « azure-ai-inference » pour Python et j’obtiens une erreur 401 quand j’essaie de m’authentifier à l’aide de clés. Que dois-je faire ?

La ressource Azure AI Services nécessite la version azure-ai-inference>=1.0.0b5 de Python. Vérifiez que vous utilisez cette version.

J’utilise le SDK OpenAI et j’ai indiqué le point de terminaison d’inférence Azure OpenAI comme URL de base (https://<resource-name>.openai.azure.com). Toutefois, j’obtiens une erreur 404. Que dois-je faire ?

Vérifiez que vous utilisez le point de terminaison approprié pour le service Azure OpenAI et le bon ensemble d’informations d’identification. Vérifiez également que vous utilisez la classe AzureOpenAI du SDK OpenAI, car le mécanisme d’authentification et les URL utilisés sont différents.

L’inférence de modèle Azure AI prend-elle en charge les en-têtes d’API personnalisés ? Nous ajoutons des en-têtes personnalisés à nos demandes d’API et nous obtenons des erreurs HTTP 431.

Nos API actuelles autorisent jusqu’à 10 en-têtes personnalisés qui sont passés via le pipeline et retournés. Nous avons remarqué que certains clients dépassent désormais ce nombre d’en-têtes, ce qui provoque des erreurs HTTP 431. Il n’existe aucune solution à cette erreur si ce n’est de réduire le volume des en-têtes. Dans les futures versions des API, nous ne passons plus d’en-têtes personnalisés. Nous vous recommandons de ne pas dépendre d’en-têtes personnalisés dans les futures architectures système.

Tarification et facturation

Comment l’inférence de modèle Azure AI est-elle facturée ?

Vous êtes facturé pour les entrées et sorties vers les API, généralement en jetons. Il n’existe aucun coût associé à la ressource elle-même ou aux déploiements.

Le prix du jeton varie selon chaque modèle et vous êtes facturé par 1000 jetons. Vous pouvez voir les détails de tarification avant de déployer un modèle donné. Pour plus d’informations sur la facturation, consultez Gestion des coûts.

Où puis-je voir les détails de la facture ?

La facturation et les coûts sont affichés dans Azure Cost Management + Billing. Vous pouvez voir les détails d’utilisation sur le Portail Azure.

La facturation n’est pas affichée dans le portail Azure AI Foundry.

Comment puis-je placer une limite de dépense à ma facture ?

Vous pouvez configurer une limite de dépense dans le portail Azure sous Azure Cost Management + Billing. Cette limite vous empêche de dépenser plus que la limite que vous avez définie. Une fois la limite de dépense atteinte, l’abonnement est désactivé et vous ne pouvez plus utiliser le point de terminaison jusqu’à la prochaine période de facturation.

Données et confidentialité

Utilisez-vous les données de mon entreprise pour former l’un des modèles ?

L’inférence de modèle Azure AI n’utilise pas de données client pour recycler les modèles et les données client ne sont jamais partagées avec des fournisseurs de modèles.

Engagement vis-à-vis des droits d’auteur des clients

Comment obtenir une couverture dans le cadre de l’Engagement vis-à-vis des droits d’auteur des clients ?

L’engagement vis-à-vis des droits d’auteur des clients est une clause à inclure dans les conditions générales des produits Microsoft du 1er décembre 2023 qui décrit l’obligation de Microsoft de défendre les clients contre certaines revendications de propriété intellectuelle tierce relatives au contenu de sortie. Si le sujet de la revendication est un contenu de sortie généré à partir d’Azure OpenAI Service (ou tout autre produit couvert qui permet aux clients de configurer les systèmes de sécurité), le client doit avoir mis en œuvre toutes les mesures d’atténuations requises par la documentation Azure OpenAI Service de l’offre ayant fourni le contenu de sortie pour recevoir une couverture. Les atténuations requises sont documentées ici et mises à jour en continu. Pour les nouveaux services, fonctionnalités, modèles ou cas d’usage, les nouvelles conditions de l’Engagement vis-à-vis des droits d’auteur des clients seront publiées et prendront effet pendant ou après le lancement dudit service, fonctionnalité, modèle ou cas d’usage. Sinon, les clients auront six mois à compter de la date de publication pour mettre en œuvre de nouvelles atténuations afin de conserver une couverture dans le cadre de l’Engagement vis-à-vis des droits d’auteur des clients. Si un client fait une réclamation, le client doit démontrer la conformité aux conditions concernées. Ces mesures d’atténuations sont obligatoires pour les produits couverts qui permettent aux clients de configurer les systèmes de sécurité, notamment Azure OpenAI Service. Elles n’impactent pas la couverture des clients qui utilisent d’autres produits couverts.