Quelles sont les nouveautés de Azure OpenAI Service ?
Cet article fournit un résumé des dernières versions et des mises à jour majeures de documentation pour Azure OpenAI.
Décembre 2024
Modèle de raisonnement o1 publié pour un accès limité
Le modèle o1
le plus récent est maintenant disponible pour l’accès aux API et le déploiement de modèles. L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft. Les clients qui ont précédemment demandé et obtenu l’accès à o1-preview
, n’ont pas besoin de le redemander, car ils sont automatiquement dans la liste d’attente pour le modèle le plus récent.
Demander l’accès : application de modèle d’accès limité
Pour en savoir plus sur les modèles avancés de la série o1
, consultez Prise en main des modèles de raisonnement de la série o1.
Disponibilité dans les régions
Modèle | Région |
---|---|
o1 (Version : 2024-12-17) |
USA Est 2 (Standard global) Suède Centre (Standard global) |
Optimisation des préférences (préversion)
L’optimisation des préférences directes (DPO, Direct Preference Optimization) est une nouvelle technique d’alignement pour les grands modèles de langage, conçue pour ajuster les pondérations des modèles en fonction de préférences humaines. Contrairement à l’apprentissage par renforcement à partir de rétroaction humaine (RLHF, Reinforcement Learning from Human Feedback), l’optimisation des préférences directes (DPO) ne nécessite pas l’ajustement d’un modèle de récompense et utilise des données plus simples (des préférences binaires) pour l’entraînement. Cette méthode est plus légère et plus rapide en calcul, ce qui le rend aussi efficace au niveau de l’alignement tout en étant plus efficient. L’optimisation des préférences directes est particulièrement utile dans les scénarios où des éléments subjectifs, comme le ton, le style ou des préférences de contenu spécifiques, sont importants. Nous sommes heureux d’annoncer la préversion publique de l’optimisation des préférences directes dans Azure OpenAI Service, à compter du modèle gpt-4o-2024-08-06
.
Pour connaître la disponibilité régionale du modèle d’optimisation, consultez la page des modèles.
Complétions stockées et distillation
Les complétions stockées vous permettent de capturer l’historique des conversations à partir des sessions de complétion de conversation pour les utiliser comme jeux de données pour les évaluations et l’optimisation.
GPT-4o 2024-11-20
gpt-4o-2024-11-20
est maintenant disponible pour le déploiement standard global dans :
- USA Est
- USA Est 2
- Centre-Nord des États-Unis
- États-Unis - partie centrale méridionale
- USA Ouest
- USA Ouest 3
- Suède Centre
NOUVEAU – Type de déploiement approvisionné de zone de données
Les déploiements approvisionnés de zone de données sont disponibles dans la même ressource Azure OpenAI que tous les autres types de déploiement Azure OpenAI, mais ils vous permettent de profiter de l’infrastructure globale Azure pour router dynamiquement le trafic vers le centre de données au sein de la zone de données définie par Microsoft avec la meilleure disponibilité pour chaque requête. Les déploiements approvisionnés de zone de données fournissent une capacité de traitement de modèle réservée pour un débit élevé et prévisible en utilisant une infrastructure Azure avec des zones de données spécifiées par Microsoft. Les déploiements approvisionnés de zone de données sont pris en charge sur les modèles gpt-4o-2024-08-06
, gpt-4o-2024-05-13
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
Novembre 2024
Disponibilité générale de l’optimisation de Vision
L’optimisation de Vision avec GPT-4o (2024-08-06) est maintenant en disponibilité générale.
L’optimisation de Vision vous permet d’ajouter des images à vos données d’entraînement JSONL. Tout comme vous pouvez envoyer une ou plusieurs entrées d’image à des complétions de conversation, vous pouvez inclure ces mêmes types de messages dans vos données d’entraînement. Les images peuvent être fournies en tant qu’URL ou en tant qu’images encodées en base64.
Pour connaître la disponibilité régionale du modèle d’optimisation, consultez la page des modèles.
Nouvelle surveillance des abus d’IA
Nous introduisons de nouvelles formes de surveillance des abus qui tirent parti des machines virtuelles locales pour améliorer l’efficacité de la détection de l’utilisation potentiellement abusive du service Azure OpenAI et pour permettre la surveillance des abus sans avoir besoin d’examiner les invites et les achèvements humains. En savoir plus, consultez surveillance des abus.
Les invites et les achèvements signalés par la classification de contenu et/ou identifiés pour faire partie d’un modèle d’utilisation potentiellement abusif sont soumis à un processus d’examen supplémentaire pour vous aider à confirmer l’analyse du système et à informer les décisions d’action. Nos systèmes de surveillance des abus ont été développés pour permettre l’examen par LLM par défaut et par les humains si nécessaire et approprié.
Octobre 2024
Nouveau type de déploiement Standard de zone de données
Les déploiements Standard de zone de données sont disponibles dans la même ressource Azure OpenAI que tous les autres types de déploiement Azure OpenAI, mais vous permettent de profiter de l’infrastructure globale Azure pour acheminer dynamiquement le trafic vers le centre de données au sein de la zone de données définie par Microsoft avec la meilleure disponibilité pour chaque requête. Standard de zone de données fournit des quotas par défaut plus élevés que nos types de déploiement basés sur la zone géographique Azure. Les déploiements Standard de zone de données sont pris en charge sur les modèles gpt-4o-2024-08-06
, gpt-4o-2024-05-13
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
Disponibilité générale du traitement par lots global
Le traitement par lots global d’Azure OpenAI est maintenant en disponibilité générale.
L’API Azure OpenAI Batch est conçue pour gérer efficacement les tâches de traitement à grande échelle et à volume élevé. Traitez les groupes asynchrones de requêtes avec un quota distinct, avec un délai d’exécution cible de 24 heures, à un coût 50 % inférieur au type Standard global. Avec le traitement par lots, plutôt que d’envoyer une seule requête à la fois, vous envoyez un grand nombre de requêtes dans un seul fichier. Les requêtes de traitement par lots global ont un quota de jetons empilés distinct qui évite toute interruption de vos charges de travail en ligne.
Les principaux cas d’utilisation sont les suivants :
Traitement de données à grande échelle : analysez rapidement des jeux de données étendus en parallèle.
Génération de contenu : créez des volumes de texte importants, notamment des descriptions de produits ou des articles.
Révision et résumé de documents : automatisez la révision et le résumé de documents longs.
Automatisation du service clientèle : gérez simultanément de nombreuses requêtes pour obtenir des réponses plus rapides.
Extraction et analyse des données : extrayez et analysez des informations provenant de vastes quantités de données non structurées.
Tâches de traitement du langage naturel (NLP) : effectuez par exemple des tâches d’analyse des sentiments ou de traduction sur de grands jeux de données.
Marketing et personnalisation : générer du contenu et des suggestions personnalisés à grande échelle.
Pour plus d’informations, consultez Prise en main des déploiements par lots globaux.
Accès limité aux modèles o1-preview et o1-mini
Les modèles o1-preview
et o1-mini
sont désormais disponibles pour l’accès aux API et le déploiement de modèles. L’inscription est requise et l’accès est accordé en fonction des critères d’éligibilité de Microsoft.
Demander l’accès : application de modèle d’accès limité
Les clients qui ont déjà été approuvés et qui ont accès au modèle via le terrain de jeu d’accès anticipé n’ont pas besoin de s’inscrire à nouveau, ils recevront automatiquement l’accès à l’API. Une fois l’accès accordé, vous devez créer un déploiement pour chaque modèle.
Prise en charge des API :
La prise en charge des modèles de série o1 a été ajoutée dans la version 2024-09-01-preview
de l’API.
Le paramètre max_tokens
a été déconseillé et remplacé par le nouveau paramètre max_completion_tokens
. Les modèles de série o1 fonctionnent uniquement avec le paramètre max_completion_tokens
.
Disponibilité dans les régions :
Les modèles sont disponibles pour le déploiement standard et global dans la région USA Est 2 et Suède Centre pour les clients approuvés.
Préversion publique de la nouvelle API en temps réel GPT-4o pour les messages et l’audio
L’API GPT-4o d’Azure OpenAI pour l’audio fait partie de la famille de modèles GPT-4o qui prend en charge les interactions conversationnelles à latence faible « entrée vocale, sortie vocale ». L’API Audio realtime
GPT-4o est conçue pour gérer les interactions conversationnelles en temps réel et à latence faible, ce qui en fait un excellent choix pour les cas d’usage impliquant des interactions directes entre un utilisateur et un modèle, comme des agents d’un service clientèle, des assistants vocaux et des traducteurs en temps réel.
Le modèle gpt-4o-realtime-preview
est disponible pour les déploiements globaux dans les régions USA Est 2 et Suède Centre.
Pour plus d’informations, consultez la documentation audio en temps réel GPT-4o.
Mises à jour de prise en charge du traitement par lots global
Le traitement par lots global prend désormais en charge GPT-4o (2024-08-06). Pour plus d’informations, consultez le guide de prise en main du traitement par lots global.
Septembre 2024
Mises à jour de l’expérience utilisateur Azure OpenAI Studio
Le 19 septembre, lorsque vous accéderez à Azure OpenAI Studio, vous ne verrez plus le portail AI Foundry hérité par défaut. Si nécessaire, vous pourrez toujours revenir à l’expérience précédente en utilisant le Commutateur à bascule vers l’ancien look dans la barre supérieure de l’interface utilisateur pour les deux prochaines semaines. Si vous revenez au portail hérité AI Foundry, aidez-nous en nous expliquant pourquoi dans le formulaire Contactez-nous. Nous suivons attentivement ces commentaires pour améliorer la nouvelle expérience.
Déploiements approvisionnés GPT-4o 2024-08-06
GPT-4o 2024-08-06 est désormais disponible pour les déploiements approvisionnés dans USA Est, USA Est 2, USA Centre Nord et Suède Centre. Il est également disponible pour les déploiements approvisionnés globaux.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
NOUVEAU type de déploiement approvisionné global
Les déploiements mondiaux sont disponibles dans les mêmes ressources Azure OpenAI que les types de déploiements non mondiaux, mais ils vous permettent de tirer parti de l’infrastructure mondiale d’Azure pour router dynamiquement le trafic vers le centre de données avec la meilleure disponibilité pour chaque requête. Les déploiements approvisionnés globaux fournissent une capacité de traitement de modèle réservée pour le débit élevé et prévisible en utilisant une infrastructure globale Azure. Les déploiements approvisionnés globaux sont pris en charge sur les modèles gpt-4o-2024-08-06
et gpt-4o-mini-2024-07-18
.
Pour plus d'informations, consultez le guide des types de déploiement.
NOUVEAUX modèles o1-preview et o1-mini disponibles pour un accès limité
Les modèles azure OpenAI o1-preview
et o1-mini
sont conçus pour traiter les tâches de raisonnement et de résolution des problèmes avec un focus et une capacité accrus. Ces modèles passent plus de temps à traiter et à comprendre la requête de l’utilisateur(-trice), ce qui les rend exceptionnellement forts dans des domaines tels que la science, le codage et les mathématiques par rapport aux itérations précédentes.
Principales capacités de la série o1
- Génération de code complexe : capable de générer des algorithmes et de gérer des tâches de codage avancées pour prendre en charge les développeurs.
- Résolution avancée des problèmes : idéal pour les sessions complètes de brainstorming et pour relever les défis multidimensionnels.
- Comparaison de documents complexes : idéal pour l’analyse des contrats, des fichiers de cas ou des documents juridiques afin d’identifier les différences subtiles.
- Instructions suivantes et gestion des flux de travail : particulièrement efficace pour la gestion des flux de travail nécessitant des contextes plus courts.
Variantes de modèle
o1-preview
:o1-preview
est plus capable des modèles de sérieo1
.o1-mini
:o1-mini
est le plus rapide et moins cher des modèles de sérieo1
.
Version de modèle : 2024-09-12
Demander l’accès : application de modèle d’accès limité
Limites
Les modèles de série o1
sont actuellement en préversion et n’incluent pas certaines fonctionnalités disponibles dans d’autres modèles, telles que la compréhension des images et les sorties structurées disponibles dans le dernier modèle GPT-4o. Pour de nombreuses tâches, les modèles GPT-4o généralement disponibles peuvent encore être plus adaptés.
Sécurité
OpenAI a incorporé des mesures de sécurité supplémentaires dans les modèles o1
, y compris de nouvelles techniques pour aider les modèles à refuser des requêtes dangereuses. Ces avancées font de la série o1
l’un des modèles les plus robustes du marché.
Disponibilité
Les modèles o1-preview
et o1-mini
sont disponibles dans la région USA Est 2 pour un accès limité via un terrain de jeu du portail AI Foundry à accès anticipé. Le traitement des données pour les modèles o1
peut se produire dans une région différente de celle où ils sont disponibles pour une utilisation.
Pour essayer les modèles o1-preview
et o1-mini
dans le terrain de jeux d’accès anticipé, inscription est requise et l’accès sera accordé en fonction des critères d’admissibilité de Microsoft.
Demander l’accès : application de modèle d’accès limité
Une fois l’accès accordé, vous devez :
- Accédez à https://ai.azure.com/resources et sélectionnez une ressource dans la région
eastus2
. Si vous n’avez pas de ressource Azure OpenAI dans cette région, vous devez créer une ressource. - Une fois la ressource Azure OpenAI
eastus2
sélectionnée, dans le volet supérieur gauche sous Terrains de jeu sélectionnez terrain de jeu à accès anticipé (préversion).
Août 2024
GPT-4o 2024-08-06 sorties structurées
- Disponible pour les déploiements standard et mondiaux dans toutes les régions américaines et la Suède Centre.
- Ce modèle ajoute la prise en charge des sorties structurées.
Déploiements approvisionnés GPT-4o mini
GPT-4o mini est désormais disponible pour les déploiements approvisionnés dans Canada Est, USA Est, USA Est 2,USA Centre Nord et Suède Centre.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
Fine-tuning de GPT-4o (Préversion publique)
Le fine-tuning de GPT-4o est désormais disponible pour Azure OpenAI en préversion publique dans les régions Suède Centre et USA Centre Nord.
Pour plus d’informations, consultez notre billet de blog.
Publication d’une nouvelle préversion de l’API
La version 2024-07-01-preview
de l’API est la version la plus récente de l’API de création et d’inférence de plan de données. Elle remplace la version 2024-05-01-preview
de l’API et ajoute la prise en charge des éléments suivants :
- Ajout de la prise en charge de l’API Batch
- Paramètres de la stratégie de segmentation du magasin de vecteurs
max_num_results
que l’outil de recherche de fichiers doit produire en sortie.
Pour plus d’informations, consultez notre documentation de référence.
Disponibilité régionale de GPT-4o mini
- GPT-4o mini est disponible pour le déploiement standard et mondial dans les régions USA Est et Suède Centre.
- GPT-4o mini est disponible pour le déploiement mondial par lots dans les régions USA Est, Suède Centre et USA Ouest.
Guide des évaluations
- Nouveau billet de blog sur la prise en main des évaluations de modèle. Nous vous recommandons d’utiliser ce guide dans le cadre du processus de mise à niveau et de retrait des modèles.
Dernier modèle GPT-4o disponible dans le terrain de jeu d’accès anticipé (préversion)
Le 6 août 2024, OpenAI a annoncé la dernière version de leur modèle phare GPT-4o 2024-08-06
. GPT-4o 2024-08-06
dispose de toutes les fonctionnalités de la version précédente, ainsi que :
- Une possibilité améliorée de prendre en charge des sorties structurées complexes.
- Les jetons de sortie maximal ont été augmentés de 4 096 à 16 384.
Les clients Azure peuvent tester GPT-4o 2024-08-06
dès aujourd’hui dans le nouveau terrain de jeu à accès anticipé d’AI Foundry (préversion).
Contrairement au terrain de jeu d’accès anticipé précédent, le terrain de jeu d’accès anticipé du portail AI Foundry (préversion) ne vous oblige pas à disposer d’une ressource dans une région spécifique.
Remarque
Les invites et les achèvements effectués via le terrain de jeu d’accès anticipé (préversion) peuvent être traités dans n’importe quelle région d’Azure OpenAI et sont actuellement soumis à une limite de 10 requêtes par minute par abonnement Azure. Cette limite peut changer à l’avenir.
La surveillance des abus d’Azure OpenAI Service est activée pour tous les utilisateurs du terrain de jeu à accès anticipé, même si une modification est approuvée; les filtres de contenu par défaut sont activés et ne peuvent pas être modifiés.
Pour tester la 2024-08-06
GPT-4o, connectez-vous au terrain de jeu d’accès anticipé d’Azure AI (préversion) à l’aide de ce lien.
Les déploiements par lots globaux sont désormais disponibles
L’API Azure OpenAI Batch est conçue pour gérer efficacement les tâches de traitement à grande échelle et à volume élevé. Traitez les groupes asynchrones de requêtes avec un quota distinct, avec un délai d’exécution cible de 24 heures, à un coût 50 % inférieur au type Standard global. Avec le traitement par lots, plutôt que d’envoyer une seule requête à la fois, vous envoyez un grand nombre de requêtes dans un seul fichier. Les requêtes de traitement par lots global ont un quota de jetons empilés distinct qui évite toute interruption de vos charges de travail en ligne.
Les principaux cas d’utilisation sont les suivants :
Traitement de données à grande échelle : analysez rapidement des jeux de données étendus en parallèle.
Génération de contenu : créez des volumes de texte importants, notamment des descriptions de produits ou des articles.
Révision et résumé de documents : automatisez la révision et le résumé de documents longs.
Automatisation du service clientèle : gérez simultanément de nombreuses requêtes pour obtenir des réponses plus rapides.
Extraction et analyse des données : extrayez et analysez des informations provenant de vastes quantités de données non structurées.
Tâches de traitement du langage naturel (NLP) : effectuez par exemple des tâches d’analyse des sentiments ou de traduction sur de grands jeux de données.
Marketing et personnalisation : générer du contenu et des suggestions personnalisés à grande échelle.
Pour plus d’informations, consultez Prise en main des déploiements par lots globaux.
Juillet 2024
GPT-4o mini est désormais disponible pour le réglage précis
Le réglage précis de GPT-4o est désormais disponible en préversion publique dans les régions Suède Centre et USA Centre Nord.
L’outil de recherche de fichiers des Assistants est désormais facturé
L’outil de recherche de fichiers pour les Assistants entraîne désormais des frais d’utilisation supplémentaires. Pour plus d’informations, consultez la page des tarifs.
Modèle GPT-4o mini disponible pour le déploiement
GPT-4o mini, le dernier modèle Azure OpenAI, a fait l’objet d’une première annonce le 18 juillet 2024 :
« GPT-4o mini permet aux clients de fournir de superbes applications à moindre coût et à une vitesse fulgurante. GPT-4o mini est beaucoup plus intelligent que GPT-3.5 Turbo, avec un score de 82 % au benchmark MMLU (Measuring Massive Multitask Language Understanding) contre 70 % pour GPT-3.5 Turbo, et permet des économies de plus de 60 %. 1 Le modèle offre une fenêtre de contexte étendue de 128 K et intègre les capacités multilingues améliorées de GPT-4o, apportant une meilleure qualité aux langues du monde entier. »
Le modèle est actuellement disponible pour les déploiements standard et global standard dans la région USA Est.
Pour plus d’informations sur le quota du modèle, consultez la page des quotas et des limites, et pour les dernières informations sur la disponibilité du modèle, reportez-vous à la page des modèles.
Nouvelle stratégie de filtrage de contenu par défaut d’IA responsable
La nouvelle stratégie de filtrage de contenu par défaut, DefaultV2
, fournit les dernières atténuations de sécurité pour la série de modèles GPT (texte), notamment :
- Boucliers de prompt pour les attaques de jailbreak sur les prompts utilisateur (filtre),
- Détection de matériel protégé pour le texte (filtre) sur les achèvements de modèle
- Détection de matériel protégé pour le code (annotation) sur les achèvements de modèle
Bien qu’il n’y ait aucune modification apportée aux filtres de contenu pour les ressources et les déploiements existants (les configurations de filtrage de contenu par défaut ou personnalisées restent inchangées), les nouvelles ressources et les déploiements GPT héritent automatiquement de la nouvelle stratégie de filtrage de contenu, DefaultV2
. Les clients ont la possibilité de basculer entre les paramètres de sécurité par défaut et la création de configurations de filtrage de contenu personnalisées.
Consultez notre Documentation relative à la stratégie de sécurité par défaut pour obtenir plus d’informations.
Nouvelle version de l’API en disponibilité générale
La version 2024-06-01
de l’API est la dernière version de l’API d’inférence de plan de données en disponibilité générale. Elle remplace la version 2024-02-01
de l’API et ajoute la prise en charge des éléments suivants :
encoding_format
incorporations et paramètresdimensions
.logprobs
complétions de conversations et paramètrestop_logprobs
.
Pour plus d’informations, consultez notre documentation de référence sur l’inférence de plan de données.
Extension des régions disponibles pour les déploiements standard globaux de gpt-4o
GPT-4o est désormais disponible pour les déploiements standard globaux dans :
- australiaeast
- brazilsouth
- canadaeast
- eastus
- eastus2
- francecentral git
- germanywestcentral
- japaneast
- KoreaCentral
- northcentralus
- norwayeast
- polognecentre
- southafricanorth
- southcentralus
- southindia
- centre de la suède
- suisse nord
- uksouth
- westeurope
- westus
- westus3
Pour plus d’informations sur le quota standard global, consultez la page sur les quotas et limites.
Juin 2024
Mises à jour de la date de mise hors service
- Date de mise hors service de
gpt-35-turbo
0301 mise à jour au plus tôt au 1er octobre 2024. - Date de mise hors service de
gpt-35-turbo
etgpt-35-turbo-16k
0613 mise à jour au 1er octobre 2024. - Date de mise hors service de
gpt-4
etgpt-4-32k
0314 mise à jour au 1er octobre 2024 et date de mise hors service au 6 juin 2025.
Reportez-vous au guide de mise hors service de notre modèle pour obtenir les informations les plus récentes sur la dépréciation et la mise hors service du modèle.
Facturation basée sur les jetons pour le réglage précis
- La facturation du réglage précis d’Azure OpenAI est désormais basée sur le nombre de jetons dans votre fichier d’apprentissage, au lieu du temps d’apprentissage total écoulé. Cela peut entraîner une réduction significative des coûts pour certaines exécutions d’entraînement et facilite considérablement l’estimation des coûts de réglage précis. Pour en savoir plus, vous pouvez consulter l’annonce officielle.
GPT-4o est disponible dans de nouvelles régions
- GPT-4o est désormais disponible en :
- Suède Centre pour le déploiement régional standard.
- Australie Est, Canada Est, Japon Est, Corée Centre, Suède Centre, Suisse Nord, USA Ouest 3 pour le déploiement approvisionné.
Pour obtenir les dernières informations sur la disponibilité des modèles, consultez la page des modèles.
Prise en charge des clés gérées par le client (CMK) pour les Assistants
Les threads et les fichiers dans les Assistants prennent désormais en charge CMK dans la région suivante :
- USA Ouest 3
Mai 2024
Déploiements approvisionnés GPT-4o
Version gpt-4o
: 2024-05-13
est disponible pour les déploiements standard et approvisionnés. Les déploiements de modèles approvisionnés et standard acceptent les requêtes d’inférence de texte et d’image/vision.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la matrice de modèles pour les déploiements approvisionnés.
Assistants v2 (préversion)
L’actualisation de l’API Assistants est désormais disponible publiquement. Elle contient les mises à jour suivantes :
- Outil de recherche de fichiers et stockage vectoriel
- Prise en charge du nombre maximal de tokens pour la complétion et l'invite pour la gestion de l’utilisation des jetons.
- Paramètre
tool_choice
pour forcer l’Assistant à utiliser un outil spécifié. Vous pouvez maintenant créer des messages avec le rôle d’assistant pour créer des historiques de conversation personnalisés dans Threads. - Prise en charge des paramètres
temperature
,top_p
,response_format
. - Prise en charge du streaming et de l’interrogation. Vous pouvez utiliser les fonctions d’assistance dans notre Kit de développement logiciel (SDK) Python pour créer des exécutions et diffuser en continu des réponses. Nous avons également ajouté des assistants d’interrogation SDK pour partager les mises à jour de l’état de l’objet sans avoir besoin d’interroger.
- Expérimentez avec Logic Apps et l’appel de fonction en utilisant Azure OpenAI Studio. Importez vos API REST implémentées dans Logic Apps en tant que fonctions et le studio appelle automatiquement la fonction (en tant que workflow Logic Apps) selon l’invite de l’utilisateur.
- AutoGen by Microsoft Research fournit une infrastructure de conversation multi-agent pour permettre la création pratique de flux de travail LLM (Large Language Model) sur un large éventail d’applications. Les assistants Azure OpenAI sont désormais intégrés à AutoGen via
GPTAssistantAgent
, un nouvel agent expérimental qui vous permet d’ajouter en toute transparence des Assistants aux flux de travail multi-agents basés sur AutoGen. Cela permet à plusieurs assistants Azure OpenAI qui peuvent être des tâches ou des domaines spécialisés pour collaborer et traiter des tâches complexes. - Prise en charge des modèles
gpt-3.5-turbo-0125
optimisés dans les régions suivantes :- USA Est 2
- Suède Centre
- Soutien régional élargi pour :
- Japon Est
- Sud du Royaume-Uni
- USA Ouest
- USA Ouest 3
- Norvège est
Pour plus d’informations, consultez l’article de blog sur les assistants.
Disponibilité générale (GA) du modèle GPT-4o
GPT-4o (« o » signifie « omni ») est le dernier modèle d’OpenAI lancé le 13 mai 2024.
- GPT-4o intègre du texte et des images dans un modèle unique, ce qui lui permet de gérer simultanément plusieurs types de données. Cette approche multimodale améliore l'exactitude et la réactivité des interactions homme-machine.
- GPT-4o correspond à GPT-4 Turbo en texte et en codage en anglais, tout en offrant des performances supérieures dans les autres langues et dans les tâches de vision, en définissant de nouveaux points de référence pour les fonctionnalités d’IA.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.
Type de déploiement standard global (préversion)
Les déploiements globaux sont disponibles dans les mêmes ressources Azure OpenAI que les offres non globales, mais vous permettent d’exploiter l’infrastructure globale d’Azure pour acheminer dynamiquement le trafic vers le centre de données offrant la meilleure disponibilité pour chaque requête. L’option Mondial Standard fournit le quota par défaut le plus élevé pour les nouveaux modèles et élimine la nécessité d’équilibrer la charge entre plusieurs ressources.
Pour plus d'informations, consultez le guide des types de déploiement.
Mises à jour de réglage précis
- Le réglage fin de GPT-4 est désormais disponible en préversion publique.
- Ajout de la prise en charge des graines, des événements, des statistiques de validation complètes et des points de contrôle dans le cadre de la version de l'API
2024-05-01-preview
.
Filtres de contenu configurables DALL-E et GPT-4 Turbo Vision GA
Créez des filtres de contenu personnalisés pour vos déploiements DALL-E 2 et 3, GPT-4 Turbo avec Vision GA (turbo-2024-04-09
) et GPT-4o. Filtrage du contenu
Filtre asynchrone disponible pour tous les clients Azure OpenAI
L’exécution de filtres de manière asynchrone pour améliorer la latence dans les scénarios de streaming est désormais disponible pour tous les clients Azure OpenAI. Filtrage du contenu
Boucliers d’invite
Prompt Shields protège les applications alimentées par des modèles Azure OpenAI de deux types d’attaques : les attaques directes (jailbreak) et indirectes. Les attaques indirectes (également appelées attaques d’invite indirectes ou attaques par injection d’invite inter-domaines) sont un type d’attaque sur les systèmes alimentés par des modèles d’IA générative qui peuvent se produire lorsqu’une application traite des informations qui n’ont pas été créées directement par le développeur de l’application ou l’utilisateur. Filtrage du contenu
Version de l’API 2024-05-01-preview
- Pour plus d’informations, consultez le cycle de vie de la version de l’API.
Disponibilité générale (GA) du modèle GPT-4 Turbo
La dernière version en disponibilité générale de GPT-4 Turbo est :
gpt-4
Version :turbo-2024-04-09
Il s’agit du remplacement des modèles en préversion suivants :
gpt-4
Version :1106-Preview
gpt-4
Version :0125-Preview
gpt-4
Version :vision-preview
Différences entre les modèles OpenAI et OpenAI GPT-4 Turbo GA
- La version d’OpenAI du dernier modèle
0409
Turbo prend en charge le mode JSON et l’appel de fonction pour toutes les requêtes d’inférence. - La version d’Azure OpenAI du dernier
turbo-2024-04-09
ne prend actuellement pas en charge l’utilisation du mode JSON et l’appel de fonction lors de l’exécution de requêtes d’inférence avec une entrée d’image (vision). Les requêtes d’entrée basées sur du texte (requêtes sansimage_url
et images incluses) prennent par contre en charge le mode JSON et l’appel de fonction.
Différences par rapport à gpt-4 vision-preview
- L’intégration des améliorations de Vision propres à Azure AI à GPT-4 Turbo avec Vision n’est pas prise en charge pour
gpt-4
Version :turbo-2024-04-09
. Cela inclut la reconnaissance optique de caractères (OCR), l’ancrage d’objets, les invites vidéo et la gestion améliorée de vos données avec des images.
Important
Les fonctionnalités en préversion des améliorations de Vision, notamment la reconnaissance optique de caractères (OCR), la mise au sol des objets, les invites vidéo, seront supprimées et ne seront plus disponibles une fois la version gpt-4
: vision-preview
mise à niveau vers turbo-2024-04-09
. Si vous utilisez actuellement l’une de ces fonctionnalités en préversion, cette mise à niveau automatique du modèle sera un changement cassant.
Disponibilité managée approvisionnée de GPT-4 Turbo
gpt-4
Version :turbo-2024-04-09
est disponible pour les déploiements standard et approvisionnés. Actuellement, la version approvisionnée de ce modèle ne prend pas en charge les requêtes d’inférence d’image/vision. Les déploiements approvisionnés de ce modèle acceptent uniquement les entrées de texte. Les déploiements de modèles standard acceptent les requêtes d’inférence de texte et d’image/vision.
Déploiement de la disponibilité générale de GPT-4 Turbo avec Vision
Pour déployer le modèle en disponibilité générale à partir du portail AI Foundry, sélectionnez GPT-4
, puis choisissez la version turbo-2024-04-09
du menu de la liste déroulante. Le quota par défaut pour le modèle gpt-4-turbo-2024-04-09
est le même que le quota actuel pour GPT-4-Turbo. Voir les limites de quota régionales.
Avril 2024
Le fine-tuning est désormais pris en charge dans deux nouvelles régions : USA Est 2 et Suisse Ouest
Le fine-tuning est désormais disponible avec prise en charge des régions suivantes :
USA Est 2
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Suisse Ouest
babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles et du réglage précis dans chaque région.
Exemples de formation d’invite multitour
Le fine-tuning prend désormais en charge des exemples de formation d’invite multitour.
GPT-4 (0125) est disponible pour Azure OpenAI sur vos données
Vous pouvez maintenant utiliser le modèle GPT-4 (0125) dans les régions disponibles avec Azure OpenAI sur vos données.
Mars 2024
Surveillance des risques et de la sécurité dans Azure OpenAI Studio
Azure OpenAI Studio fournit désormais un tableau de bord Risques et sécurité pour chacun de vos déploiements qui utilise une configuration de filtre de contenu. Utilisez-le pour vérifier les résultats de l’activité de filtrage. Vous pouvez ensuite ajuster votre configuration de filtre pour mieux répondre aux besoins de votre entreprise et respecter les principes de l’IA responsable.
Utiliser Surveillance des risques et de la sécurité
Mises à jour d’Azure OpenAI sur vos données
- Vous pouvez maintenant vous connecter à une base de données vectorielle Elasticsearch à utiliser avec Azure OpenAI sur vos données.
- Vous pouvez utiliser le paramètre de taille de bloc pendant l’ingestion des données pour définir le nombre maximal de jetons de n’importe quel segment de données donné dans votre index.
2024-02-01 API en disponibilité générale publiée
Il s’agit de la dernière version de l’API GA et remplace la version GA précédente du 2023-05-15
. Cette version ajoute la prise en charge des dernières fonctionnalités d’Azure OpenAI GA telles que Whisper, DALLE-3, réglage précis, sur vos données, etc.
Les fonctionnalités qui sont en préversion, telles que les Assistants, la synthèse vocale (TTS) et certaines de vos sources de données « de données », nécessitent une version préliminaire de l’API. Pour plus d’informations, consultez notre Guide sur le cycle de vie des versions de l’API.
Disponibilité générale (GA) de Whisper
Le modèle de reconnaissance vocale Whisper est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.
Essayez Whisper en suivant un guide de démarrage rapide.
Disponibilité générale (GA) de DALL-E 3
Le modèle de génération d’images DALL-E 3 est désormais en disponibilité générale pour REST et Python. Les kits de développement logiciel de bibliothèque de client sont actuellement en préversion publique.
Essayez DALL-E 3 en suivant un démarrage rapide.
Nouveau support régional pour DALL-E 3
Vous pouvez désormais accéder à DALL-E 3 avec une ressource Azure OpenAI dans la région Azure East US
ou AustraliaEast
, en plus de SwedenCentral
.
Dépréciations et mises hors service des modèles
Nous avons ajouté une page pour suivre les dépréciations et les mises hors service de modèles dans Azure OpenAI Service. Cette page fournit des informations sur les modèles qui sont actuellement disponibles, déconseillés ou supprimés.
Publication de l’API 2024-03-01-preview
2024-03-01-preview
a toutes les mêmes fonctionnalités que 2024-02-15-preview
et ajoute deux nouveaux paramètres pour les incorporations :
encoding_format
vous permet de spécifier le format pour générer des incorporations dansfloat
, oubase64
. Par défaut, il s’agit defloat
.dimensions
vous permet de définir le nombre d’incorporations de sortie. Ce paramètre est pris en charge uniquement avec les nouveaux modèles d’incorporation de troisième génération :text-embedding-3-large
,text-embedding-3-small
. En règle générale, les incorporations plus volumineuses sont plus coûteuses du point de vue du calcul, de la mémoire et du stockage. La possibilité d'ajuster le nombre de dimensions permet de mieux contrôler le coût global et les performances. Le paramètredimensions
n’est pas pris en charge dans toutes les versions de la bibliothèque Python OpenAI 1.x. Pour tirer parti de ce paramètre, nous vous recommandons de procéder à la mise à niveau vers la dernière version :pip install openai --upgrade
.
Si vous utilisez actuellement une version de l’API en préversion pour tirer parti des dernières fonctionnalités, nous vous recommandons de consulter l’article sur le cycle de vie de la version de l’API pour suivre la durée de prise en charge de votre version actuelle de l’API.
Mise à jour vers les plans de mise à niveau GPT-4-1106-Preview
La mise à niveau du déploiement de gpt-4
1106-Preview vers gpt-4
0125-Preview planifiée pour le 8 mars 2024 n’a plus lieu. Les déploiements des versions gpt-4
1106-Preview et 0125-Preview définis sur « Mise à jour automatique par défaut » et « Mise à niveau en cas d’expiration » commenceront à être mis à niveau après la publication d’une version stable du modèle.
Pour plus d’informations sur le processus de mise à niveau, reportez-vous à la page modèles.
Février 2024
Modèle GPT-3.5-turbo-0125 disponible
Ce modèle présente différentes améliorations, notamment une précision plus élevée pour répondre aux formats demandés et un correctif pour un bogue qui a provoqué un problème d’encodage de texte pour les appels de fonction de langue autre que l’anglais.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
Modèles d’incorporation de troisième génération disponibles
text-embedding-3-large
text-embedding-3-small
Dans les tests, OpenAI signale à la fois les grands et petits modèles d’incorporation de troisième génération qui offrent de meilleures performances de récupération multi-langues moyennes avec le point de référence MIRACL tout en conservant de meilleures performances pour les tâches anglaises avec le point de référence MTEB que le modèle text-embedding-ada-002 de deuxième génération.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
Consolidation de quota GPT-3.5 Turbo
Pour simplifier la migration entre différentes versions des modèles GPT-3.5-Turbo (y compris 16k), nous allons consolider tous les quotas GPT-3.5-Turbo en une seule valeur de quota.
Tous les clients qui ont augmenté le quota approuvé disposeront d’un quota total combiné qui reflète les augmentations précédentes.
Tout client dont l’utilisation totale actuelle entre les versions de modèle est inférieure à la valeur par défaut obtiendra un nouveau quota total combiné par défaut.
Modèle GPT-4-0125-preview disponible
La version de modèle gpt-4
0125-preview
est désormais disponible sur Azure OpenAI Service dans les régions USA Est, USA Centre Nord et USA Centre Sud. Les clients avec des déploiements de gpt-4
version 1106-preview
seront automatiquement mis à niveau vers 0125-preview
au cours des prochaines semaines.
Pour obtenir des informations sur la disponibilité régionale du modèle et les mises à niveau, consultez la page des modèles.
Préversion publique de l’API Assistants
Azure OpenAI prend désormais en charge l’API qui alimente les GPT d’OpenAI. Les Assistants Azure OpenAI (préversion) vous permettent de créer des assistants IA adaptés à vos besoins par le biais d’instructions personnalisées et des outils avancés tels que l’interpréteur de code et les fonctions personnalisées. Pour en savoir plus, consultez :
- Démarrage rapide
- Concepts
- Procédure Python détaillée
- Interpréteur de code
- Appel de fonction
- Disponibilité des modèles et des régions Assistants
- Références sur les Assistants Python et REST
- Exemples d’assistants
Préversion publique des voix de synthèse vocale OpenAI
Azure OpenAI Service prend désormais en charge les API de synthèse vocale avec les voix d’OpenAI. Obtenez la voix générée par l’IA à partir du texte que vous fournissez. Pour plus d’informations, consultez le guide de présentation et essayez le démarrage rapide.
Remarque
Azure AI Speech prend également en charge les voix de synthèse vocale OpenAI. Pour plus d’informations, consultez le guide Voix de synthèse vocale OpenAI via Azure OpenAI Service ou via Azure AI Speech.
Nouvelles fonctionnalités de réglage précis et prise en charge des modèles
Nouvelle prise en charge régionale d’Azure OpenAI sur vos données
Vous pouvez maintenant utiliser Azure OpenAI sur vos données dans la région Azure suivante :
- Afrique du Sud Nord
Disponibilité générale d’Azure OpenAI sur vos données
- Azure OpenAI sur vos données est désormais en disponibilité générale.
Décembre 2023
Azure OpenAI sur vos données
- Prise en charge complète du VPN et des points de terminaison privés pour Azure OpenAI sur vos données, y compris la prise en charge de la sécurité pour : les comptes de stockage, les ressources Azure OpenAI et les ressources du service Recherche Azure AI.
- Nouvel article pour l’utilisation d’une configuration Azure OpenAI sur vos données en protégeant les données avec des réseaux virtuels et des points de terminaison privés.
GPT-4 Turbo avec Vision maintenant disponible
GPT-4 Turbo avec Vision sur le service Azure OpenAI est maintenant en avant-première publique. GPT-4 Turbo avec Vision est un grand modèle multimodal (LMM) développé par OpenAI qui peut analyser des images et fournir des réponses textuelles à des questions les concernant. Il intègre à la fois le traitement du langage naturel et la compréhension visuelle. Avec le mode amélioré, vous pouvez utiliser les fonctionnalités Azure AI Vision pour générer des aperçus supplémentaires à partir des images.
- Explorez les fonctionnalités de GPT-4 Turbo avec Vision dans une expérience sans code en utilisant Azure OpenAI Playground. En savoir plus dans le guide de Démarrage rapide.
- L’amélioration de la vision en utilisant GPT-4 Turbo avec Vision est désormais disponible dans Azure OpenAI Playground et inclut la prise en charge de la reconnaissance optique des caractères, l’ancrage des objets, la prise en charge des images pour « ajouter vos données » et la prise en charge des invites vidéo.
- Effectuez des appels à l’API de conversation directement à l’aide de l’API REST.
- La disponibilité de la région est actuellement limitée à
SwitzerlandNorth
,SwedenCentral
,WestUS
etAustraliaEast
- En savoir plus sur les limitations connues de GPT-4 Turbo avec Vision et d’autres questions fréquentes.
Novembre 2023
Nouvelle prise en charge des sources de données dans Azure OpenAI sur vos données
- Vous pouvez désormais utiliser Azure Cosmos DB for MongoDB vCore ainsi que des URL/adresses web comme sources de données pour ingérer vos données et discuter avec un modèle Azure OpenAI pris en charge.
Publication de GPT-4 Turbo Preview et GPT-3.5-Turbo-1106
Les deux modèles sont la dernière version d’OpenAI avec des instructions améliorées suivantes, le mode JSON, la sortie reproductible et l’appel de fonction parallèle.
Préversion GPT-4 Turbo a une fenêtre contextuelle maximale de 128 000 jetons et peut générer 4 096 jetons de sortie. Il contient les dernières données d’apprentissage avec des connaissances jusqu’en avril 2023. Ce modèle est en préversion et n’est pas recommandé pour une utilisation en production. Tous les déploiements de ce modèle en préversion seront automatiquement mis à jour une fois la version stable disponible.
GPT-3.5-Turbo-1106 a une fenêtre contextuelle maximale de 16 385 jetons et peut générer 4 096 jetons de sortie.
Pour plus d’informations sur la disponibilité régionale du modèle, consultez la page des modèles.
Les modèles ont leur propre allocation de quota unique par région.
DALL-E 3 en préversion publique
DALL-E 3 est le dernier modèle de génération d’images à partir d’OpenAI. Il offre une qualité d’image améliorée, des scènes plus complexes et des performances améliorées lors de l’affichage du texte dans des images. Il est également fourni avec plus d’options de proportions. DALL-E 3 est disponible via OpenAI Studio et via l’API REST. Votre ressource OpenAI doit se trouver dans la région Azure SwedenCentral
.
DALL-E 3 inclut la réécriture d’invite intégrée pour améliorer les images, réduire les biais et augmenter la variation naturelle.
Essayez DALL-E 3 en suivant un démarrage rapide.
IA responsable
Configurabilité étendue des clients : tous les clients Azure OpenAI peuvent désormais configurer tous les niveaux de gravité (faible, moyen, élevé) pour les catégories haine, violence, préjudice sexuel et auto-préjudice, y compris le filtrage uniquement du contenu de gravité élevée. Configurer des filtres de contenu
Informations d’identification de contenu dans tous les modèles DALL-E : les images générées par l’IA à partir de tous les modèles DALL-E incluent désormais des informations d’identification numériques qui divulguent le contenu en tant que généré par l’IA. Les applications qui affichent des ressources d’image peuvent tirer parti du Kit de développement logiciel (SDK) Content Authentic Initiative open source pour afficher les informations d’identification dans leurs images générées par l’IA. informations d’identification de contenu dans Azure OpenAI
Nouveaux modèles RAI
- Détection des risques de jailbreak : les attaques de jailbreak sont des invites utilisateur conçues pour provoquer le modèle d’IA générative dans des comportements qu’elle a été entraînée pour éviter ou pour rompre les règles définies dans le message système. Le modèle de détection des risques de jailbreak est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les invites de l’utilisateur.
- Texte de matériau protégé : le texte de matériau protégé décrit le contenu texte connu (par exemple, les paroles de chanson, les articles, les recettes et le contenu web sélectionné) qui peuvent être générés par de grands modèles linguistiques. Le modèle de texte de matériau protégé est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les achèvements LLM.
- Code matériau protégé : le code matériau protégé décrit le code source qui correspond à un ensemble de code source à partir de référentiels publics, qui peuvent être générés par des modèles de langage volumineux sans citation appropriée des référentiels sources. Le modèle de code matériau protégé est facultatif (désactivé par défaut) et disponible dans un modèle d’annotation et filtre. Il s’exécute sur les achèvements LLM.
Listes de blocage : les clients peuvent désormais personnaliser rapidement le comportement du filtre de contenu pour les invites et les achèvements en créant une liste de blocage personnalisée dans leurs filtres. La liste de blocage personnalisée permet au filtre d’agir sur une liste personnalisée de modèles, comme des termes spécifiques ou des modèles regex. En plus des listes de blocage personnalisées, nous fournissons une liste de blocage de profanité Microsoft (anglais). Utiliser des listes de blocage
Octobre 2023
Nouveaux modèles de réglage précis (préversion)
gpt-35-turbo-0613
est désormais disponible pour réglage précis.babbage-002
etdavinci-002
sont désormais disponible pour réglage précis. Ces modèles remplacent les modèles de base ada, babbage, curie et davinci hérités qui étaient précédemment disponibles pour réglage précis.La disponibilité du réglage précis est limitée à certaines régions. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Les modèles de réglage précis ont des limites de quota différentes que les modèles standard.
Azure OpenAI sur vos données
- Nouveaux paramètres personnalisés pour déterminer le nombre de documents récupérés et la rigueur.
- Le paramètre de rigueur définit le seuil à partir duquel les documents sont classés comme pertinents pour vos requêtes.
- Le paramètre des documents récupérés spécifie le nombre de documents les mieux notés de votre index de données utilisés pour générer des réponses.
- Vous pouvez consulter l’état de l’ingestion/du chargement des données dans Azure OpenAI Studio.
- Prise en charge des points de terminaison privés et des VPN pour les conteneurs d’objets blob.
September 2023
GPT-4
GPT-4 et GPT-4-32k sont désormais accessibles à tous les clients Azure OpenAI Service. Les clients n’ont plus besoin de s’inscrire à la liste d’attente pour utiliser GPT-4 et GPT-4-32k (les conditions d’inscription à l’accès limité continuent de s’appliquer à tous les modèles Azure OpenAI). La disponibilité peut varier selon la région. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
GPT-3.5 Turbo Instruct
Azure OpenAI Service prend désormais en charge le modèle GPT-3.5 Turbo Instruct. Ce modèle a des performances comparables à text-davinci-003
et est disponible pour l'API Completions. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Aperçu public chuchoté
Azure OpenAI Service prend désormais en charge les API de synthèse vocale basées sur le modèle Whisper d'OpenAI. Obtenez du texte généré par l'IA en fonction de l'audio vocal que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide.
Remarque
Azure AI Speech prend également en charge le modèle Whisper d'OpenAI via l'API de transcription par lots. Pour en savoir plus, consultez le guide Créer une transcription par lots. Découvrez Qu'est-ce que le modèle Whisper ? pour en savoir plus sur quand utiliser Azure AI Speech par rapport à Azure OpenAI Service.
Nouvelles régions
- Azure OpenAI est désormais également disponible dans les régions Suède Centre et Suisse Nord. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Augmentation des limites de quota régionales
- Augmente les limites de quota par défaut maximales pour certains modèles et régions. La migration des charges de travail vers ces modèles et régions vous permet de tirer parti de jetons par minute (TPM) plus élevés.
Août 2023
Azure OpenAI sur les mises à jour de vos propres données (préversion)
- Vous pouvez désormais déployer Azure OpenAI sur vos données sur Power Virtual Agents.
- Azure OpenAI sur vos données prend désormais en charge les points de terminaison privés.
- Possibilité de filtrer l’accès aux documents à caractère personnel.
- Actualisez automatiquement votre index selon une planification.
- Options de recherche vectorielle et de recherche sémantique.
- Afficher l’historique de vos conversations dans l’application web déployée
Juillet 2023
Prise en charge de l’appel de fonction
- Azure OpenAI prend désormais en charge l’appel de fonction pour vous permettre d’utiliser des fonctions dans l’API d’achèvement de conversation.
Augmentation de l’incorporation d’un tableau d’entrée
- Azure OpenAI prend désormais en charge les tableaux avec jusqu’à 16 entrées par demande d’API avec text-embedding-ada-002 Version 2.
Nouvelles régions
- Azure OpenAI est désormais également disponible dans les régions Canada Est, USA Est 2, Japon Est et USA Centre Nord. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Juin 2023
Utilisez Azure OpenAI sur vos propres données (préversion)
- Azure OpenAI sur vos données est désormais disponible en préversion. Cet outil vous permet de discuter avec des modèles OpenAI tels que GPT-35-Turbo et GPT-4, ainsi que de recevoir des réponses basées sur vos données.
Nouvelles versions des modèles gpt-35-turbo et gpt-4
- gpt-35-turbo (version 0613)
- gpt-35-turbo-16k (version 0613)
- gpt-4 (version 0613)
- gpt-4-32k (version 0613)
Sud du Royaume-Uni
- Azure OpenAI est désormais disponible dans la région Royaume-Uni Sud. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Filtrage et annotations de contenu (préversion)
- Guide pratique de configuration des filtres de contenu avec Azure OpenAI Service.
- Activez les annotations pour afficher les informations sur la catégorie et la gravité du filtrage du contenu dans le cadre de vos appels d’achèvement et de fin de conversation basés sur GPT.
Quota
- Le quota offre la flexibilité nécessaire pour activement gérer l’allocation des limites de débit entre les déploiements au sein de votre abonnement.
Mai 2023
Prise en charge du kit de développement logiciel (SDK) Java et JavaScript
- NOUVEAUX kits de développement logiciel (SDK) Azure OpenAI en préversion offrant une prise en charge de JavaScript et de Java.
Disponibilité générale (GA) de l’achèvement de conversation Azure OpenAI
- Disponibilité générale prise en charge pour :
- Version
2023-05-15
de l’API d’achèvement de conversation. - Modèles GPT-35-Turbo.
- Série de modèles GPT-4.
- Version
Si vous utilisez actuellement l’API 2023-03-15-preview
, nous vous recommandons une migration vers l’API 2023-05-15
en disponibilité générale. Si vous utilisez actuellement la version 2022-12-01
de l’API, cette API reste en disponibilité générale, mais n’inclut pas les dernières fonctionnalités d’achèvement de conversation.
Important
L’utilisation des versions actuelles des modèles GPT-35-Turbo avec le point de terminaison d’achèvement demeure en préversion.
France Centre
- Azure OpenAI est désormais disponible dans la région France Centre. Consultez la page modèles pour obtenir les dernières informations sur la disponibilité des modèles dans chaque région.
Avril 2023
DALL-E 2 en préversion publique. Azure OpenAI Service prend désormais en charge les API de génération d’images basées sur le modèle DALL-E 2 d’OpenAI. Obtenez des images générées par l’IA en fonction du texte descriptif que vous fournissez. Pour en savoir plus, consultez le guide de démarrage rapide.
Les déploiements inactifs de modèles personnalisés vont désormais être supprimés après 15 jours ; les modèles vont rester disponibles pour le redéploiement. Si un modèle personnalisé (ajusté) est déployé pendant plus de quinze (15) jours pendant lesquels aucun appel d’achèvement ou d’achèvement de conversation n’est effectué, le déploiement est automatiquement supprimé (et aucun autre frais d’hébergement n’est facturé pour ce déploiement). Le modèle personnalisé sous-jacent reste disponible et peut être redéployé à tout moment. Pour plus d’informations, consultez l’article de procédure correspondant.
Mars 2023
Les modèles de la série GPT-4 sont désormais disponibles en préversion dans Azure OpenAI. Pour demander l’accès, les clients Azure OpenAI existants peuvent s'inscrire en remplissant ce formulaire. Ces modèles sont actuellement disponibles dans les régions USA Est et USA Centre Sud.
Nouvelle API conversationnelle pour les modèles GPT-35-Turbo et GPT-4 publiés en préversion le 21/3. Pour en savoir plus, consultez les guides de démarrage rapide mis à jour et l’article de guide pratique.
GPT-35-Turbo en préversion. Pour plus d’informations, consultez l’article de guide pratique.
Augmentation des limites de formation pour le réglage précis : la taille maximale du travail d’apprentissage (jetons dans le fichier de formation) x (nombre d’époques) est de 2 milliards de jetons pour tous les modèles. Nous avons également augmenté le nombre maximal de travaux de formation de 120 à 720 heures.
Ajout de cas d’usage supplémentaires à votre accès existant. Auparavant, le processus d’ajout de nouveaux cas d’usage obligeait les utilisateurs à se réinscrire au service. À présent, nous publions un nouveau processus qui vous permet d’ajouter rapidement de nouveaux cas d’usage à votre utilisation du service. Ce processus suit le processus d’accès limité établi dans Azure AI Services. Les clients existants peuvent accepter ici tous les nouveaux cas d’usage. Notez que cela est obligatoire chaque fois que vous voulez utiliser le service pour un nouveau cas d’usage que vous n’avez pas demandé à l’origine.
Février 2023
Nouvelles fonctionnalités
- Préversion du SDK .NET (inférence) | Exemples
- Mise à jour du SDK Terraform pour prendre en charge les opérations de gestion Azure OpenAI.
- L’insertion de texte à la fin d’une saisie semi-automatique est désormais prise en charge avec le paramètre
suffix
.
Mises à jour
- Le filtrage de contenu est activé par défaut.
Nouveaux articles :
Nouvelle formation :
Janvier 2023
Nouvelles fonctionnalités
Disponibilité générale du service. Azure OpenAI Service est maintenant en disponibilité générale.
Nouveaux modèles : ajout du dernier modèle de texte, text-davinci-003 (USA Est, Europe Ouest), text-ada-embeddings-002 (USA Est, USA Centre Sud, Europe Ouest)
Décembre 2022
Nouvelles fonctionnalités
Les derniers modèles d’OpenAI. Azure OpenAI fournit l’accès à tous les derniers modèles, y compris la série GPT-3.5.
Nouvelle version de l’API (2022-12-01). Cette mise à jour inclut plusieurs améliorations demandées, notamment les informations sur l’utilisation des jetons dans la réponse de l’API, l’amélioration des messages d’erreur pour les fichiers, l’alignement avec OpenAI sur le réglage de la structure des données de création et la prise en charge du paramètre de suffixe pour permettre l’attribution de noms personnalisés de travaux ajustés.
Limites de requête par seconde plus élevées. 50 pour les modèles autres que Davinci. 20 pour les modèles Davinci.
Déploiements ajustés plus rapides. Déployez des modèles Ada et Curie ajustés en moins de 10 minutes.
Limites de formation plus élevées : 40 millions de jetons de formation pour Ada, Babbage et Curie. 10 millions pour Davinci.
Processus de demande de modifications de l’examen par un humain de la journalisation des données faisant l’objet d’abus d’une utilisation inappropriée. Aujourd’hui, le service consigne les données de demande/réponse à des fins de détection des abus et d’utilisation inappropriée pour s’assurer que ces modèles puissants ne sont pas utilisés de manière incorrecte. Toutefois, de nombreux clients ont des exigences strictes en matière de confidentialité et de sécurité des données qui nécessitent un contrôle accru sur leurs données. Pour prendre en charge ces cas d’usage, nous publions un nouveau processus permettant aux clients de modifier les stratégies de filtrage de contenu ou de désactiver la journalisation des abus pour les cas d’usage à faible risque. Ce processus suit le processus d’accès limité établi dans Azure AI Services et les clients OpenAI existants peuvent s’inscrire ici.
Chiffrement avec une clé gérée par le client (CMK). CMK offre aux clients un meilleur contrôle sur la gestion de leurs données dans Azure OpenAI en fournissant leurs propres clés de chiffrement utilisées pour stocker les données de formation et les modèles personnalisés. Les clés gérées par le client (CMK), également appelées BYOK (Bring Your Own Key), offrent plus de flexibilité pour créer, permuter, désactiver et révoquer des contrôles d’accès. Vous pouvez également effectuer un audit sur les clés de chiffrement utilisées pour protéger vos données. En savoir plus dans notre documentation sur le chiffrement au repos.
Prise en charge de Lockbox
Conformité SOC-2
Journalisation et diagnostics via Azure Resource Health, Analyse des coûts; et Paramètres des métriques et des diagnostics.
Améliorations de Studio. Nombreuses améliorations de la facilité d’utilisation du flux de travail Studio, notamment la prise en charge des rôles Azure AD pour contrôler qui dans l’équipe a accès à la création de modèles ajustés et au déploiement.
Changements (cassants)
L’ajustement de la demande d’API de création a été mis à jour pour correspondre au schéma OpenAI.
Versions de l’API en préversion :
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
API version 2022-12-01 :
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
Le filtrage de contenu est temporairement désactivé par défaut. La modération du contenu Azure ne fonctionne pas de la même façon qu’Azure OpenAI. Azure OpenAI exécute des filtres de contenu pendant l’appel de génération pour détecter le contenu nuisible ou abusif et le filtre à partir de la réponse. En savoir plus
Ces modèles seront réactivés au T1 2023 et activés par défaut.
Actions des clients
- Contactez le support Azure si vous souhaitez les activer pour votre abonnement.
- Demandez les modifications du filtrage, si vous souhaitez qu’elles restent désactivées. (Cette option s’applique uniquement aux cas d’usage à faible risque.)
Étapes suivantes
Découvrez-en plus sur les modèles sous-jacents d’Azure OpenAI.