Si vous ne trouvez pas de réponses à vos questions dans ce document, et si vous avez toujours besoin d’aide, consultez le guide des options du support Azure AI Services. Azure OpenAI fait partie d’Azure AI services.
Données et confidentialité
Utilisez-vous les données de mon entreprise pour entraîner l’un des modèles ?
Azure OpenAI n’utilise pas les données client pour réentraîner les modèles. Pour plus d’informations, consultez le guide sur la sécurité, la confidentialité et les données Azure OpenAI.
Général
Azure OpenAI prend-il en charge les en-têtes d’API personnalisés ? Nous ajoutons des en-têtes personnalisés supplémentaires à nos demandes d’API et nous obtenons des erreurs HTTP 431.
Nos API actuelles autorisent jusqu’à 10 en-têtes personnalisés qui sont passés via le pipeline et retournés. Nous avons remarqué que certains clients dépassent désormais ce nombre d’en-têtes, ce qui provoque des erreurs HTTP 431. Il n’existe aucune solution à cette erreur si ce n’est de réduire le volume des en-têtes. Dans les futures versions des API, nous ne passerons plus d’en-têtes personnalisés. Nous recommandons aux clients de ne pas dépendre des en-têtes personnalisés dans les futures architectures système.
Azure OpenAI fonctionne-t-il avec la dernière bibliothèque Python publiée par OpenAI (version>=1.0) ?
Azure OpenAI est pris en charge par la dernière version de la bibliothèque Python OpenAI (version>=1.0). Toutefois, il est important de noter que la migration de votre base de code à l’aide de openai migrate
n’est pas prise en charge et ne fonctionnera pas avec le code qui cible Azure OpenAI.
Je n’arrive pas à trouver la préversion de GPT-4 Turbo, où est-elle ?
La préversion GPT-4 Turbo est le modèle gpt-4
(1106-preview). Pour déployer ce modèle, sous Déploiements, sélectionnez modèle gpt-4. Pour la version du modèle, sélectionnez 1106-preview. Pour vérifier les régions disponibles, reportez-vous à la page des modèles.
Est-ce que Azure OpenAI prend en charge GPT-4 ?
Azure OpenAI prend en charge les derniers modèles GPT-4. Il prend en charge GPT-4 et GPT-4-32K.
Comment les capacités Azure OpenAI se comparent-t-elle à OpenAI ?
Azure OpenAI Service offre aux clients une IA de langage avancée avec les modèles OpenAI GPT-3, Codex et DALL-E avec la promesse de sécurité et d’entreprise d’Azure. Azure OpenAI codéveloppe les API avec OpenAI, ce qui garantit la compatibilité et une transition en douceur de l'une à l'autre.
Avec Azure OpenAI, les clients bénéficient des fonctionnalités de sécurité de Microsoft Azure tout en exécutant les mêmes modèles qu’OpenAI.
Azure OpenAI prend il en charge les réseaux virtuels et les points de terminaison privés ?
Oui, dans le cadre d’Azure AI Services, Azure OpenAI prend en charge les points de terminaison privés et les réseaux virtuels. Pour découvrir plus d’informations, consultez les Conseils sur les réseaux virtuels Azure AI Services.
Les modèles GPT-4 prennent-ils actuellement en charge l’entrée d’image ?
Non. GPT-4 est conçu par OpenAI pour être multimodal, mais seules l’entrée et la sortie de texte sont actuellement prises en charge.
Comment faire pour soumettre de nouveaux cas d’usage ?
Auparavant, le processus d’ajout de nouveaux cas d’usage obligeait les utilisateurs à se réinscrire au service. À présent, nous publions un nouveau processus qui vous permet d’ajouter rapidement de nouveaux cas d’usage à votre utilisation du service. Ce processus suit le processus d’accès limité établi dans Azure AI Services. Les clients existants peuvent accepter ici tous les nouveaux cas d’usage. Notez que cela est obligatoire chaque fois que vous voulez utiliser le service pour un nouveau cas d’usage que vous n’avez pas demandé à l’origine.
J’essaie d’utiliser des incorporations et j’ai reçu l’erreur « InvalidRequestError : Trop d’entrées. Le nombre maximal d’entrées est de 16. » Comment la corriger ?
Cette erreur se produit généralement quand vous essayez d’envoyer un lot de texte à incorporer dans une requête d’API unique en tant que tableau. Actuellement, Azure OpenAI prend uniquement en charge les tableaux d’incorporations avec plusieurs entrées pour le text-embedding-ada-002
modèle version 2. Cette version de modèle prend en charge un tableau comprenant jusqu’à 16 entrées par demande d’API. Le tableau peut comporter jusqu’à 8 191 jetons en cas d’utilisation du modèle text-embedding-ada-002 (version 2).
Où puis-je découvrir les meilleures façons d’utiliser Azure OpenAI pour obtenir les réponses souhaitées du service ?
Consultez notre Introduction à l’ingénierie d’invite. Il ne faut pas oublier que même si ces modèles sont extrêmement puissants, leur comportement est également très dépendant de l’invite envoyée par l’utilisateur. La construction de l’invite est dès lors une compétence importante à développer. Une fois l’introduction terminée, consultez notre article sur les messages système.
Mon compte invité a accès à une ressource Azure OpenAI, mais je ne parviens pas à accéder à cette ressource dans le portail Azure AI Foundry. Comment activer l’accès ?
Ce comportement est attendu lors de l’utilisation de l’expérience de connexion par défaut pour Azure AI Foundry.
Pour accéder à Azure AI Foundry à partir d’un compte invité auquel l’accès à une ressource Azure OpenAI a été accordé :
- Ouvrez une session de navigateur privée, puis accédez à https://ai.azure.com.
- Au lieu d’entrer immédiatement les informations d’identification de votre compte invité, sélectionnez
Sign-in options
- Sélectionnez maintenant Se connecter à une organisation
- Entrez le nom de domaine de l’organisation qui a accordé à votre compte invité l’accès à la ressource Azure OpenAI.
- Connectez-vous maintenant avec les informations d’identification de votre compte invité.
Vous devriez maintenant être en mesure d’accéder à la ressource via le portail Azure AI Foundry.
Si vous êtes connecté au portail Azure à partir du volet Vue d’ensemble de la ressource Azure OpenAI, vous pouvez également sélectionner Accéder à Azure AI Foundry pour vous connecter automatiquement avec le contexte organisationnel approprié.
Quand je demande à GPT-4 quel modèle il exécute, il m’indique qu’il exécute GPT-3. Pourquoi cela se produit-il ?
Les modèles Azure OpenAI (y compris GPT-4) incapable d’identifier correctement le modèle en cours d’exécution est le comportement attendu.
Pourquoi cela se produit-il ?
En fin de compte, le modèle effectue la prédiction de jeton suivante en réponse à votre question. Le modèle n’a pas de possibilité native d’interroger le modèle de version en cours d’exécution pour répondre à votre question. Pour répondre à cette question, vous pouvez toujours accéder à Azure AI Foundry>Gestion>Déploiements> et consulter la colonne Nom du modèle pour confirmer le modèle actuellement associé à un nom de déploiement donné.
Les questions « Quel modèle utilisez-vous ? » ou « Quel est le dernier modèle d'OpenAI ? » génèrent des résultats de qualité similaire à ceux obtenus en demandant au modèle le temps qu'il fera aujourd'hui. Le résultat peut être correct, mais purement par hasard. À lui seul, le modèle n’a pas d’informations réelles autres que ce qui faisait partie de son entraînement/ses données d’entraînement. Dans le cas de GPT-4, à compter d’août 2023, les données d’entraînement sous-jacentes ne remontent qu’à septembre 2021. GPT-4 n’a pas été publié jusqu’en mars 2023. Par conséquent, si OpenAI a publié une nouvelle version avec des données d’apprentissage mises à jour, ou une nouvelle version qui est affinée pour répondre à ces questions spécifiques, il est prévu que le comportement de GPT-4 pour répondre à GPT-3 est la dernière version du modèle d’OpenAI.
Si vous souhaitez aider un modèle GPT à répondre avec précision à la question « quel modèle exécutez-vous ? », vous devez fournir ces informations au modèle par le biais de techniques telles que l’ingénierie d’invite du message système du modèle, la Génération augmentée de récupération (RAG), qui est la technique utilisée par Azure OpenAI sur vos données où des informations à jour sont injectées dans le message système au moment de la requête, ou par le biais d’un réglage précis où vous pouvez affiner des versions spécifiques du modèle pour répondre à cette question d’une certaine manière en fonction de la version du modèle.
Pour en savoir plus sur la façon dont les modèles GPT sont entraînés et fonctionnent, nous vous recommandons de regarder la conférence d’Andrej Karpathy de Build 2023 sur l’état du GPT.
J’ai demandé au modèle de m’indiquer sa limite de connaissances et il m’a donné une réponse différente de ce qui se trouve sur la page du modèle Azure OpenAI. Pourquoi cela se produit-il ?
Ce comportement est normal. Les modèles ne sont pas en mesure de répondre à des questions sur eux-mêmes. Si vous souhaitez savoir quand la limite des connaissances pour les données d’apprentissage du modèle est atteinte, consultez la page des modèles.
J’ai posé au modèle une question sur quelque chose qui s’est passé récemment avant le découpage des connaissances et il a donné une réponse incorrecte. Pourquoi cela se produit-il ?
Ce comportement est normal. Premièrement, rien ne garantit que chaque événement récent faisait partie des données de formation du modèle. Et même quand des informations faisaient partie des données d’apprentissage, sans utiliser de techniques supplémentaires telles que la récupération augmentée de génération augmentée (RAG) pour aider à mettre en place les réponses du modèle, il y a toujours une chance que des réponses infondées se produisent. Les deux fonctionnalités d’Azure OpenAI, Utiliser vos données et Bing Chat utilisent des modèles Azure OpenAI combinés à la génération augmentée de récupération pour aider à améliorer les réponses des modèles.
La fréquence à laquelle une information donnée apparaît dans les données d’apprentissage peut également avoir un impact sur la probabilité que le modèle réponde d’une certaine manière.
Demander au dernier modèle de préversion GPT-4 Turbo ce qui a changé dernièrement, comme « Qui est le premier ministre de la Nouvelle-Zélande ? », est susceptible d’entraîner la réponse fabriquée Jacinda Ardern
. Toutefois, en demandant au modèle « Quand Jacinda Ardern
a-t-il cessé d’être premier ministre ? » Tend à produire une réponse précise qui illustre la connaissance des données d’apprentissage allant au moins janvier 2023.
Ainsi, bien qu’il soit possible de sonder le modèle avec des questions pour deviner le découpage des connaissances des données d’apprentissage, la page du modèle est le meilleur endroit pour vérifier le découpage des connaissances d’un modèle.
Où puis-je accéder aux informations de tarification pour les modèles hérités qui ne sont plus disponibles pour les nouveaux déploiements ?
Les informations de tarification héritées sont disponibles via un fichier PDF téléchargeable. Pour tous les autres modèles, consultez la page de tarification officielle.
Comment faire pour corriger l’erreur InternalServerError – 500 – Échec d’achèvement de la création, car le modèle a généré une sortie Unicode non valide ?
Vous pouvez diminuer l’apparition de ces erreurs en réduisant la température de vos invites pour se situer à moins de 1 et en veillant à utiliser un client avec une logique de nouvelle tentative. Une nouvelle tentative de la requête aboutit souvent à une réponse correcte.
Nous avons remarqué des frais associés aux appels d’API ne s’étant pas terminé avec le code d’état 400. Pourquoi les appels d’API génèrent-ils des frais ?
Si le service effectue le traitement, vous serez facturé même si le code d’état n’est pas réussi (pas l’erreur 200). Une erreur 400 en raison d’un filtre de contenu ou d’une limite d’entrée, ou une erreur 408 en raison d’un délai d’expiration en sont des exemples courants. Des frais sont à prévoir également quand un status 200
est reçu avec un finish_reason
de content_filter
. Dans le cas présent, le prompt n’a posé aucun problème. Toutefois, une violation des règles de filtrage de contenu a été détectée au niveau de la complétion générée par le modèle, ce qui a entraîné le filtrage de la complétion.
Si le service n’effectue pas de traitement, vous ne serez pas facturé. Par exemple, une erreur 401 en raison de l’authentification ou d’une erreur 429 en raison d’un dépassement de la limite de débit.
Obtenir l’accès à Azure OpenAI Service
Comment faire pour accéder à Azure OpenAI ?
Un formulaire d’inscription à accès limité n’est pas nécessaire pour accéder à la plupart des modèles Azure OpenAI. En savoir plus sur la page d’accès limité Azure OpenAI.
En savoir plus et où poser des questions
Où puis-je en savoir plus sur les dernières mises à jour d’Azure OpenAI ?
Pour connaître les mises à jour mensuelles, consultez notre page des nouveautés.
Où puis-je trouver une formation pour commencer mon apprentissage et développer mes compétences autour d’Azure OpenAI ?
Consultez notre Introduction à la formation Azure OpenAI.
Où puis-je publier des questions et voir les réponses à d’autres questions courantes ?
- Nous vous recommandons de publier des questions sur Microsoft Q&A.
- Vous pouvez également publier des questions sur Stack Overflow.
Où puis-je trouver le support technique Azure OpenAI ?
Azure OpenAI fait partie d’Azure AI services. Vous pouvez découvrir toutes les options du support Azure AI Services dans le guide des options d’aide et de support.
Modèles et ajustements
Quels modèles sont disponibles ?
Consultez le guide de disponibilité des modèles Azure OpenAI.
Où puis-je connaître la disponibilité d’un modèle par rapport à une région ?
Consultez le guide de disponibilité des modèles Azure OpenAI pour connaître la disponibilité de la région.
Quelles sont les contrats SLA (Contrats de niveau de service) dans Azure OpenAI ?
Nous offrons un contrat SLA de disponibilité pour toutes les ressources et un contrat SLA de latence pour les déploiements gérés approvisionnés. Pour plus d’informations sur le contrat SLA pour Azure OpenAI Service, consultez la page Contrats de niveau de service (SLA) pour les services en ligne.
Comment faire pour activer l’ajustement ? L’option Créer un modèle personnalisé est grisée dans le portail Azure AI Foundry.
Si vous souhaitez obtenir un ajustement correct, vous devez avoir le rôle Contributeur OpenAI Cognitive Services attribué. Même une personne disposant d’autorisations d’administrateur de service de haut niveau aura toujours besoin que ce compte soit défini explicitement pour accéder à l’ajustement. Pour plus d’informations, consultez les conseils relatifs au contrôle d’accès en fonction du rôle.
Quelle différence y a-t-il entre un modèle de base et un modèle ajusté ?
Un modèle de base est un modèle qui n’a pas été personnalisé ou ajusté pour un cas d’usage spécifique. Les modèles ajustés sont des versions personnalisées de modèles de base, dans lesquels les pondérations d’un modèle sont entraînées sur un ensemble unique d’invites. Les modèles ajustés vous permettent d’obtenir de meilleurs résultats sur un plus grand nombre de tâches, sans avoir à fournir d’exemples détaillés pour l’apprentissage en contexte dans le cadre de votre invite d’achèvement. Pour en savoir plus, consultez notre guide d’ajustement.
Quel nombre maximal de modèles ajustés est-ce que je peux créer ?
100
Pourquoi mon déploiement de modèle ajusté a-t-il été supprimé ?
Si un modèle personnalisé (affiné) est déployé durant plus de 15 jours pendant lesquels aucun appel d’achèvement ou d’achèvement de conversation n’est effectué, le déploiement est automatiquement supprimé (et aucuns autres frais d’hébergement ne sont facturés pour ce déploiement). Le modèle personnalisé sous-jacent reste disponible et peut être redéployé à tout moment. Pour plus d’informations, consultez l’article de procédure correspondant.
Comment déployer un modèle avec l’API REST ?
Il existe actuellement deux API REST différentes qui permettent le déploiement de modèles. Pour les dernières fonctionnalités de déploiement de modèles, telles que la spécification d’une version de modèle pendant le déploiement pour des modèles tels que text-embedding-ada-002 version 2, utilisez l’appel d’API REST de création ou de mise à jour de déploiments.
Puis-je utiliser le quota pour augmenter la limite maximale de jetons d’un modèle ?
Non, l’allocation de quota de jetons par minute (TPM) n’est pas liée à la limite maximale de jetons d’entrée d’un modèle. Les limites de jeton d’entrée de modèle sont définies dans la table des modèles et ne sont pas impactées par les changements de TPM.
GPT-4 Turbo avec Vision
Puis-je affiner les fonctionnalités d’image dans GPT-4 ?
Non, nous ne prenons pas en charge le réglage précis des fonctionnalités d’image de GPT-4 pour l’instant.
Puis-je utiliser GPT-4 pour générer des images ?
Non, vous pouvez utiliser dall-e-3
pour générer des images et gpt-4-vision-preview
pour comprendre les images.
Quel type de fichiers puis-je charger ?
Nous prenons actuellement en charge les formats PNG (.png), JPEG (.jpeg et .jpg), WEBP (.webp) et GIF non animé (.gif).
Existe-t-il une limite à la taille de l’image que je peux charger ?
Oui. Nous limitons les chargements d’images à 20 Mo par image.
Puis-je supprimer une image que j’ai chargée ?
Non, nous supprimons l’image pour vous automatiquement une fois qu’elle a été traitée par le modèle.
Comment fonctionnent les limites de débit pour GPT-4 Turbo avec Vision ?
Nous traitons les images au niveau du jeton. Ainsi, chaque image que nous traitons compte pour vos jetons par minute (TPM). Consultez la section Jetons d’image de la vue d’ensemble pour plus d’informations sur la formule utilisée pour déterminer le nombre de jetons par image.
GPT-4 Turbo peut-il comprendre les métadonnées d’image ?
Non, le modèle ne reçoit pas de métadonnées d’image.
Que se passe-t-il si mon image n’est pas claire ?
Si une image est ambiguë ou peu claire, le modèle fera de son mieux pour l’interpréter. Toutefois, les résultats peuvent être moins précis. Une bonne règle à suivre est que si un humain moyen ne peut pas voir les informations dans une image à une résolution utilisée en mode basse/haute résolution, le modèle ne le pourra pas non plus.
Quelles sont les limitations connues de GPT-4 Turbo avec Vision ?
Consultez la section Limitations du guide des concepts du modèle GPT-4 Turbo avec Vision.
Je continue d’obtenir des réponses tronquées lorsque j’utilise des modèles GPT-4 Turbo vision. Pourquoi cela se produit-il ?
Par défaut, GPT-4 vision-preview
et GPT-4 turbo-2024-04-09
ont une valeur max_tokens
de 16. Selon votre requête, cette valeur est souvent trop faible et peut entraîner des réponses tronquées. Pour résoudre ce problème, transmettez une valeur max_tokens
plus grande dans le cadre des demandes d’API de saisie semi-automatique de conversation. La valeur par défaut de GPT-4o est de 4096 max_tokens.
Assistants
Stockez-vous les données utilisées dans l’API des Assistants ?
Oui. Contrairement à l’API de complétion de conversation, l’API des Assistants Azure OpenAI est une API avec état, ce qui signifie qu’elle conserve les données. Il existe deux types de données stockées dans l’API des Assistants :
- Entités avec état : threads, messages et exécutions créés durant l’utilisation des Assistants.
- Fichiers : chargés durant la configuration des Assistants ou dans le cadre d’un message.
Où ces données sont-elles stockées ?
Les données sont stockées dans un compte de stockage sécurisé, géré par Microsoft, et séparé de manière logique.
Combien de temps ces données sont-elles stockées ?
Toutes les données utilisées sont conservées dans ce système, sauf si vous les supprimez explicitement. Utilisez la fonction delete avec l’ID du thread à supprimer. Le fait d’effacer l’exécution dans le terrain de jeu des Assistants n’entraîne pas la suppression des threads. Toutefois, la suppression de ces threads à l’aide de la fonction delete permet de ne plus les lister dans la page des threads.
Puis-je apporter mon propre magasin de données pour l’utiliser avec les Assistants ?
Non. Pour le moment, les Assistants prennent en charge uniquement les fichiers locaux chargés dans le stockage géré par les Assistants. Vous ne pouvez pas utiliser votre compte de stockage privé avec les Assistants.
Les Assistants prennent-ils en charge le chiffrement de clé managée par le client (CMK) ?
Aujourd’hui, nous prenons en charge CMK pour threads et fichiers dans assistants. Consultez la page Nouveautés pour les régions disponibles pour cette fonctionnalité.
Mes données sont-elles utilisées par Microsoft pour l’apprentissage des modèles ?
Non. Les données ne sont pas utilisées par Microsoft pour l’apprentissage des modèles. Pour plus d’informations, consultez la documentation relative à l’IA responsable.
Où les données sont-elles stockées géographiquement ?
Les points de terminaison des Assistants Azure OpenAI sont régionaux, et les données sont stockées dans la même région que le point de terminaison. Pour plus d’informations, consultez la documentation relative à la résidence des données Azure.
Comment suis-je facturé pour les Assistants ?
- Coût d’inférence (entrée et sortie) du modèle de base que vous utilisez pour chaque Assistant (par exemple gpt-4-0125). Si vous avez créé plusieurs Assistants, vous êtes facturé pour le modèle de base attaché à chaque Assistant.
- Si vous avez activé l’outil Interpréteur de code. Par exemple, si votre Assistant appelle simultanément l’Interpréteur de code dans deux threads différents, cela crée deux sessions de l’Interpréteur de code, chacune étant facturée. Chaque session est active par défaut pendant une heure, ce qui signifie que vous ne payez ces frais qu’une seule fois si votre utilisateur continue de donner des instructions à l’Interpréteur de code dans le même thread pendant une heure au maximum.
- La recherche de fichiers est facturée en fonction du stockage vectoriel utilisé.
Pour plus d’informations, consultez la page relative aux prix appliqués.
Existe-t-il des tarifs ou des quotas supplémentaires pour l’utilisation des Assistants ?
Non. Tous les quotas s’appliquent à l’utilisation de modèles avec des Assistants.
L’API des Assistants prend-elle en charge les modèles non Azure OpenAI ?
L’API des Assistants prend uniquement en charge les modèles Azure OpenAI.
L’API des Assistants est-elle en disponibilité générale ?
L’API des Assistants est en préversion publique. Restez informé sur nos dernières mises à jour de produits en visitant régulièrement notre page Nouveautés.
Quels sont les exemples ou autres ressources que je peux utiliser pour en savoir plus sur les Assistants ?
Pour plus d’informations sur la prise en main et l’utilisation des Assistants, consultez les articles figurant dans Concepts, Démarrages rapides et Procédures. Vous pouvez également consulter des exemples de code relatifs aux Assistants Azure OpenAI sur GitHub.
Application web
Comment puis-je personnaliser mon application web publiée ?
Vous pouvez personnaliser votre application web publiée sur le portail Azure. Le code source de l’application web publiée est disponible sur GitHub, où vous trouverez des informations sur la modification du front-end de l’application, ainsi que des instructions pour créer et déployer l’application.
Mon application web sera-t-elle remplacée lorsque je la redéploierai depuis le portail Azure AI Foundry ?
Votre code d’application ne sera pas remplacé lorsque vous mettez à jour votre application. L’application sera mise à jour pour utiliser la ressource Azure OpenAI, l’index Azure AI Recherche (si vous utilisez Azure OpenAI sur vos données) et les paramètres de modèle sélectionnés dans le portail Azure AI Foundry sans que l’apparence ni les fonctionnalités ne soient modifiées.
Utilisation de vos données
Qu’est-ce qu’Azure OpenAI sur vos données ?
Azure OpenAI sur vos données est une fonctionnalité d’Azure OpenAI Service qui aide les organisations à générer des insights, du contenu et des recherches personnalisés à partir de leurs sources de données désignées. Elle s’appuie sur les capacités des modèles OpenAI dans Azure OpenAI pour fournir des réponses plus précises et plus pertinentes aux requêtes des utilisateurs en langage naturel. Azure OpenAI sur vos données peut être intégré aux applications et workflows existants du client, offre des insights sur les indicateurs de performance clés et peut interagir avec les utilisateurs de façon fluide.
Comment accéder à Azure OpenAI sur vos données ?
Tous les clients Azure OpenAI peuvent utiliser Azure OpenAI sur vos données via le portail Azure AI Foundry et l’API Rest.
Quelles sources de données Azure OpenAI sur vos données prend-il en charge ?
Azure OpenAI sur vos données prend en charge l’ingestion à partir d’Azure AI Recherche, du service Stockage Blob Azure et du chargement de fichiers locaux. Pour en savoir plus sur Azure OpenAI sur vos données, consultez l’article conceptuel et le guide de démarrage rapide.
Quel est le coût d’utilisation d’Azure OpenAI sur vos données ?
Lorsque vous utilisez Azure OpenAI sur vos données, l’utilisation d’Azure AI Recherche, de Stockage Blob Azure, d’Azure Web App Service, de la recherche sémantique et de modèles OpenAI vous est facturée. L’utilisation de la fonctionnalité « vos données » dans le portail Azure AI Foundry n’entraîne pas de frais supplémentaires.
Comment personnaliser ou automatiser le processus de création d’index ?
Vous pouvez préparer l’index par vous-même en utilisant un script fourni sur GitHub. L’utilisation de ce script permet de créer un index Recherche Azure AI, qui organise toutes les informations nécessaires pour une utilisation optimale de vos données, en divisant vos documents en blocs faciles à gérer. Pour plus d’informations sur son exécution, consultez le fichier README avec le code de préparation des données.
Comment puis-je mettre à jour mon index ?
Vous pouvez planifier une actualisation automatique d’index, ou charger des données supplémentaires dans votre conteneur d’objets blob Azure et les utiliser comme source de données lorsque vous créez un index. Le nouvel index comprend toutes les données présentes dans votre conteneur.
Quels types de fichiers Azure OpenAI sur vos données prend-il en charge ?
Pour plus d’informations sur les types de fichiers pris en charge, consultez Utilisation de vos données.
L’IA responsable est-elle prise en charge par Azure OpenAI sur vos données ?
Oui, Azure OpenAI sur vos données fait partie d’Azure OpenAI Service et fonctionne avec les modèles disponibles dans Azure OpenAI. Les fonctionnalités de filtrage de contenu et de surveillance des abus d’Azure OpenAI sont toujours applicables. Pour plus d’informations, consultez la vue d’ensemble des pratiques d’IA responsable pour les modèles Azure OpenAI et la note de transparence pour Azure OpenAI afin d’obtenir une aide supplémentaire concernant l’utilisation responsable d’Azure OpenAI sur vos données.
Le message système est-il soumis à une limite de jetons ?
Oui, le message système est limité à 400 jetons. Si le message système représente plus de 400 jetons, ceux qui vont au-delà des 400 premiers jetons sont ignorés. Cette limitation s’applique uniquement à la fonctionnalité vos données d’Azure OpenAI.
Azure OpenAI sur vos données prend-il en charge l’appel de fonction ?
Azure OpenAI sur vos données ne prend actuellement pas en charge l’appel de fonction.
La langue de requête et la langue de la source de données doivent-elles être identiques ?
Vous devez envoyer les requêtes dans la langue de vos données. Vos données peuvent être dans l’une des langues prises en charge par Azure AI Recherche.
Si la recherche sémantique est activée pour ma ressource Recherche Azure AI, est-elle automatiquement appliquée à Azure OpenAI sur vos données dans le portail Azure OpenAI Foundry ?
Lorsque vous sélectionnez « Azure AI Recherche » comme source de données, vous pouvez choisir d’appliquer la recherche sémantique. Si vous sélectionnez « Conteneur d’objets blob Azure » ou « Charger des fichiers » comme source de données, vous pouvez créer l’index comme d’habitude. Vous devez ensuite réingérer les données à l’aide de l’option « Recherche Azure AI » pour sélectionner le même index et appliquer la recherche sémantique. Vous êtes ainsi prêt à discuter de vos données avec la recherche sémantique appliquée.
Comment faire pour ajouter des incorporations vectorielles pendant l’indexation de mes données ?
Quand vous sélectionnez « Conteneur d’objets blob Azure », « Azure AI Recherche » ou « Charger des fichiers » comme source de données, vous pouvez également sélectionner un déploiement de modèle d’incorporation Ada à utiliser pour ingérer vos données. Cela crée un index Azure AI Recherche avec des incorporations vectorielles.
Pourquoi la création d’index échoue-t-elle après l’ajout d’un modèle d’incorporation ?
La création d’index peut échouer quand vous ajoutez des incorporations à votre index si la limite de débit sur votre déploiement de modèle d’incorporation Ada est trop basse ou si vous avez un très grand ensemble de documents. Vous pouvez utiliser ce script fourni sur GitHub pour créer manuellement l’index avec des incorporations.
Engagement vis-à-vis des droits d’auteur des clients
Comment obtenir une couverture dans le cadre de l’Engagement vis-à-vis des droits d’auteur des clients ?
L’Engagement vis-à-vis des droits d’auteur des clients est une clause qui va être incluse dans les conditions générales des produits Microsoft du 1er décembre 2023 et qui décrit l’obligation de Microsoft de défendre les clients contre certaines revendications de propriété intellectuelle tierce relatives au contenu de sortie. Si l’objet de la revendication est le contenu de sortie généré par Azure OpenAI Service (ou tout autre produit couvert qui permet aux clients de configurer les systèmes de sécurité), le client doit avoir mis en œuvre toutes les atténuations requises par la documentation Azure OpenAI Service de l’offre ayant fourni le contenu de sortie pour pouvoir bénéficier d’une couverture. Les atténuations requises sont documentées ici et mises à jour en continu. Pour les nouveaux services, fonctionnalités, modèles ou cas d’usage, les nouvelles conditions de l’Engagement vis-à-vis des droits d’auteur des clients seront publiées et prendront effet pendant ou après le lancement dudit service, fonctionnalité, modèle ou cas d’usage. Sinon, les clients auront six mois à compter de la date de publication pour mettre en œuvre de nouvelles atténuations afin de conserver une couverture dans le cadre de l’Engagement vis-à-vis des droits d’auteur des clients. Si un client fait une réclamation, le client doit démontrer la conformité aux conditions concernées. Ces atténuations sont requises pour les produits couverts qui permettent aux clients de configurer les systèmes de sécurité, notamment Azure OpenAI Service. Elles n’ont pas d’impact sur la couverture des clients qui utilisent d’autres produits couverts.