Neuigkeiten in Azure OpenAI Service
Dieser Artikel enthält eine Zusammenfassung der aktuellen Releases und wichtigsten Dokumentationsupdates für Azure OpenAI.
Dezember 2024
o1-Begründungsmodell, das für eingeschränkten Zugriff freigegeben wurde
Das neueste o1
-Modell ist jetzt für API-Zugriff und Modellimplementierung verfügbar. Es ist eine Registrierung erforderlich, und der Zugriff wird basierend auf den Berechtigungskriterien von Microsoft gewährt. Die Kundschaft, die sich bereits für das Modell o1-preview
beworben und einen Zugang erhalten hat, muss sich nicht erneut bewerben, da sie automatisch auf der Warteliste für das neueste Modell steht.
Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff
Weitere Informationen zu den erweiterten o1
-Serienmodellen finden Sie unter Erste Schritte mit o1-Seriengrundmodellen.
Regionale Verfügbarkeit
Modell | Region |
---|---|
o1 (Version: 2024-12-17) |
USA, Ost 2 (globaler Standard) Schweden, Mitte (globaler Standard) |
Feinabstimmung der Einstellungen (Vorschau)
Die direkte Einstellungsoptimierung (Direct Preference Optimization, DPO) ist eine neue Ausrichtungsmethode für große Sprachmodelle, die für die Anpassung der Modellgewichte basierend auf den menschlichen Vorlieben entwickelt wurden. Im Gegensatz zum verstärkenden Lernen durch menschliches Feedback (RLHF) erfordert DPO keine Anpassung eines Belohnungsmodells und verwendet einfachere Daten (binäre Präferenzen) für das Training. Diese Methode ist rechenintensiver und schneller, wodurch sie bei der Ausrichtung ebenso effektiv, aber effizienter ist. DPO ist besonders nützlich in Szenarien, in denen subjektive Elemente wie Ton, Stil oder spezifische inhaltliche Präferenzen wichtig sind. Wir freuen uns, die öffentliche Vorschau von DPO im Azure OpenAI Service bekanntzugeben, beginnend mit dem gpt-4o-2024-08-06
-Modell.
Informationen zur Feinabstimmung der Modellregionsverfügbarkeit finden Sie auf der Modellseite.
Gespeicherte Fertigstellungen und Destillation
Mit gespeicherten Fertigstellungen können Sie den Unterhaltungsverlauf aus Chatabschlusssitzungen erfassen, die als Datasets für Auswertungen und Feinabstimmungen verwendet werden.
GPT-4o 2024-11-20
gpt-4o-2024-11-20
ist jetzt für globale Standardbereitstellungen verfügbar in:
- East US
- USA (Ost) 2
- USA Nord Mitte
- USA Süd Mitte
- USA (Westen)
- USA, Westen 3
- Schweden, Mitte
NEU – in Datenzonen bereitgestellter Bereitstellungstyp
Bereitgestellte Bereitstellungen für Datenzonen sind in derselben Azure OpenAI-Ressource wie alle anderen Azure OpenAI-Bereitstellungstypen verfügbar, ermöglichen es Ihnen jedoch, die globale Azure-Infrastruktur zu nutzen, um den Datenverkehr dynamisch an das Rechenzentrum innerhalb der von Microsoft definierten Datenzone mit der besten Verfügbarkeit für jede Anforderung weiterzuleiten. in Datenzonen bereitgestellte Bereitstellungen bieten reservierte Modellverarbeitungskapazität für hohen und vorhersehbaren Durchsatz mithilfe der globalen Azure-Infrastruktur. In Datenzonen bereitgestellte Bereitstellungen werden für gpt-4o-2024-08-06
, gpt-4o-2024-05-13
und gpt-4o-mini-2024-07-18
-Modelle unterstützt.
Weitere Informationen finden Sie in der Anleitung zu Bereitstellungstypen.
November 2024
Vision-Feinabstimmung (allgemein verfügbar)
Vision-Feinabstimmung mit GPT-4o (2024-08-06) ist jetzt allgemein verfügbar (Generally Available, GA).
Vision-Feinabstimmung ermöglicht Ihnen das Hinzufügen von Bildern zu Ihren JSONL-Trainingsdaten. Genauso wie Sie ein oder mehrere Bilder an Chatvervollständigungen senden können, können Sie dieselben Nachrichtentypen in Ihre Trainingsdaten aufnehmen. Bilder können entweder als URLs oder als base64-codierte Bilder bereitgestellt werden.
Informationen zur Feinabstimmung der Modellregionsverfügbarkeit finden Sie auf der Modellseite.
NEUE KI-Missbrauchsüberwachung
Wir führen neue Formen der Missbrauchsüberwachung ein, die LLMs nutzen, um die Effizienz der Erkennung potenziell missbräuchlicher Nutzung des Azure OpenAI-Diensts zu verbessern und die Missbrauchsüberwachung zu ermöglichen, ohne dass eine menschliche Überprüfung von Aufforderungen und Fertigstellungen erforderlich ist. Weitere Informationen finden Sie unter Missbrauchsüberwachung.
Aufforderungen und Fertigstellungen, die durch die Inhaltsklassifizierung gekennzeichnet sind und/oder als Teil eines potenziell missbräuchlichen Nutzungsmusters identifiziert werden, unterliegen einem zusätzlichen Überprüfungsprozess, um die Analyse des Systems zu bestätigen und Maßnahmen zu informieren. Unsere Missbrauchsüberwachungssysteme wurden erweitert, um die Überprüfung durch LLM standardmäßig und von Menschen bei Bedarf und angemessen zu ermöglichen.
Oktober 2024
NEUER Standardbereitstellungstyp für die Datenzone
Standardbereitstellungen für Datenzonen sind in derselben Azure OpenAI-Ressource wie alle anderen Azure OpenAI-Bereitstellungstypen verfügbar, ermöglichen es Ihnen jedoch, die globale Azure-Infrastruktur zu nutzen, um den Datenverkehr dynamisch an das Rechenzentrum innerhalb der von Microsoft definierten Datenzone mit der besten Verfügbarkeit für jede Anforderung weiterzuleiten. Der Datenzonenstandard bietet höhere Standardkontingente als unsere geografiebasierten Azure-Bereitstellungstypen. Standardbereitstellungen für Datenzonen sind für gpt-4o-2024-08-06
-, gpt-4o-2024-05-13
- und gpt-4o-mini-2024-07-18
-Modelle unterstützt.
Weitere Informationen finden Sie in der Anleitung zu Bereitstellungstypen.
GA des globalen Batch
Der globale Azure OpenAI-Batch ist jetzt allgemein verfügbar.
Die Azure OpenAI Batch-API ist darauf ausgelegt, umfangreiche Verarbeitungsaufgaben mit hohem Volumen effizient zu verarbeiten. Verarbeiten Sie asynchrone Anforderungsgruppen mit separatem Kontingent mit einer angestrebten Verarbeitungszeit von 24 Stunden zu 50 % weniger Kosten als bei „Global-Standard“. Bei der Stapelverarbeitung senden Sie die einzelnen Anforderungen nicht nacheinander, sondern Sie senden eine große Anzahl von Anforderungen in einer einzelnen Datei. Globale Batchanforderungen verfügen über ein separates Tokenkontingent, das in die Warteschlange eingereiht wird, um Unterbrechungen Ihrer Onlineworkloads zu vermeiden.
Wichtige Anwendungsfälle:
Umfangreiche Datenverarbeitung: Analysieren Sie schnell umfangreiche Datasets parallel.
Inhaltsgenerierung: Erstellen Sie große Textmengen, z. B. Produktbeschreibungen oder Artikel.
Dokumentüberprüfung und Zusammenfassung: Automatisieren Sie die Überprüfung und Zusammenfassung von umfangreichen Dokumenten.
Automatisierung des Kundendiensts: Verarbeiten Sie zahlreiche Anfragen gleichzeitig für schnellere Antworten.
Datenextraktion und -analyse: Extrahieren und analysieren Sie Informationen aus großen Mengen unstrukturierter Daten.
NLP-Aufgaben (Natural Language Processing, Verarbeitung natürlicher Sprache): Führen Sie Aufgaben wie Stimmungsanalyse oder Übersetzung für große Datasets aus.
Marketing und Personalisierung: Generieren Sie personalisierte Inhalte und Empfehlungen im großen Stil.
Weitere Informationen zu den ersten Schritten mit globalen Batchbereitstellungen.
Eingeschränkter Zugriff auf o1-preview- und o1-mini-Modelle
Das o1-preview
- und o1-mini
-Modell sind jetzt für API-Zugriff und Modellimplementierung verfügbar. Es ist eine Registrierung erforderlich, und der Zugriff wird basierend auf den Berechtigungskriterien von Microsoft gewährt.
Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff
Kunden, die bereits eine Genehmigung erhalten haben und über den Early Access-Playground Zugriff auf das Modell haben, müssen sich nicht erneut bewerben. Der API-Zugriff wird Ihnen automatisch gewährt. Nachdem der Zugriff gewährt wurde, müssen Sie eine Bereitstellung für jedes Modell erstellen.
API-Unterstützung:
Unterstützung für die Modelle der o1-Serie wurde in der API-Version 2024-09-01-preview
hinzugefügt.
Der max_tokens
-Parameter ist veraltet und wurde durch den neuen max_completion_tokens
-Parameter ersetzt. Modelle der o1-Serie funktionieren nur mit dem max_completion_tokens
-Parameter.
Regionale Verfügbarkeit:
Modelle sind für die Standardbereitstellung und für die globale Standardbereitstellung in den Regionen USA, Osten 2 und Schweden, Mitte für genehmigte Kunden verfügbar.
Neue öffentliche Vorschauversion der GPT-4o Echtzeit-API für Sprache und
Azure OpenAI GPT-4o audio ist Teil der GPT-4o-Modellfamilie, die latenzarme Unterhaltungsinteraktionen mit Sprachein- und ausgabe unterstützt. Die GPT-4o audio-realtime
-API wurde entwickelt, um Unterhaltungsinteraktionen latenzarm in Echtzeit zu verarbeiten, wodurch sie sich hervorragend für Anwendungsfälle eignet, die Liveinteraktionen zwischen einem Benutzer und einem Modell umfassen, z. B. Kundendienstmitarbeiter, Sprachassistenten und Echtzeitübersetzer.
Das gpt-4o-realtime-preview
-Modell ist für globale Bereitstellungen in den Regionen USA, Osten 2 und Schweden, Mitte verfügbar.
Weitere Informationen finden Sie in der „GPT-4o real-time audio“-Dokumentation.
Globale Batchunterstützungsupdates
Der globale Batch unterstützt jetzt GPT-4o (08.06.2024). Weitere Informationen finden Sie im Leitfaden „Erste Schritte mit globalen Batches“.
September 2024
Updates für die Azure OpenAI Studio-Benutzeroberfläche
Ab dem 19. September 2024 wird das Legacy-Azure OpenAI Studio standardmäßig nicht mehr angezeigt, wenn Sie zu Azure OpenAI Studio wechseln. Bei Bedarf können Sie mit der Umschaltfläche Zum bisherigen Design wechseln auf der oberen Leiste der Benutzeroberfläche für die nächsten Wochen immer noch zur vorherigen Benutzeroberfläche zurückkehren. Wenn Sie zurück zum Legacy-Portal von Azure KI Foundry wechseln, ist es hilfreich, wenn Sie das Feedbackformular ausfüllen und uns den Grund dafür mitteilen. Wir überwachen dieses Feedback aktiv, um die neue Oberfläche zu verbessern.
Bereitgestellte GPT-4o 2024-08-06-Bereitstellungen
GPT-4o 2024-08-06 ist jetzt für Bereitstellungen in „USA, Osten“, „USA, Osten 2“, „USA, Norden-Mitte“ und „Schweden, Mitte“ verfügbar. Er ist auch für globale bereitgestellte Bereitstellungen verfügbar.
Aktuelle Informationen zur Modellverfügbarkeit finden Sie auf der Modellseite.
NEU Global bereitgestellter Bereitstellungstyp
Globale Bereitstellungen stehen in denselben Azure OpenAI-Ressourcen zur Verfügung wie nicht globale Bereitstellungstypen, ermöglichen es Ihnen jedoch, die globale Infrastruktur von Azure zu nutzen, um den Datenverkehr dynamisch an das Rechenzentrum mit der besten Verfügbarkeit für jede Anforderung weiterzuleiten. Globale bereitgestellte Bereitstellungen bieten reservierte Modellverarbeitungskapazität für hohen und vorhersehbaren Durchsatz mithilfe der globalen Azure-Infrastruktur. Globale bereitgestellte Bereitstellungen werden für gpt-4o-2024-08-06
- und gpt-4o-mini-2024-07-18
-Modelle unterstützt.
Weitere Informationen finden Sie in der Anleitung zu Bereitstellungstypen.
NEUE Modelle o1-preview und o1-mini für eingeschränkten Zugriff verfügbar
Die Azure OpenAI-Modelle o1-preview
und o1-mini
sind für die Behandlung von Erläuterungen und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert. Diese Modelle verbringen mehr Zeit damit, die Anforderung eines Benutzers zu verarbeiten und zu verstehen, sodass sie im Vergleich zu früheren Iterationen außergewöhnlich stark in Bereichen wie Wissenschaft, Codierung und Mathematik sind.
Die wichtigsten Funktionen der o1-Serie
- Komplexe Code-Generierung: Kann Algorithmen generieren und fortgeschrittene Programmieraufgaben zur Unterstützung von Entwicklern durchführen.
- Fortgeschrittene Problemlösung: Ideal für umfassende Brainstorming-Sitzungen und die Bewältigung vielschichtiger Herausforderungen.
- Komplexer Dokumentenvergleich: Perfekt für die Analyse von Verträgen, Akten oder juristischen Dokumenten, um subtile Unterschiede zu erkennen.
- Anweisungsbefolgung und Workflow-Management: Besonders effektiv bei der Verwaltung von Workflows, die kürzere Kontexte erfordern.
Modellvarianten
o1-preview
:o1-preview
ist das vielseitigere der Modelle dero1
-Serie.o1-mini
:o1-mini
ist das schnellere und billigere der Modelle dero1
-Serie.
Modellversion: 2024-09-12
Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff
Begrenzungen
Die Modelle der o1
-Serie befinden sich derzeit in der Vorschau und enthalten einige Features, die in anderen Modellen verfügbar sind, nicht, z. B. Bildverständnis und strukturierte Ausgaben, die im neuesten GPT-4o-Modell verfügbar sind. Für viele Aufgaben sind die allgemein verfügbaren GPT-4o-Modelle möglicherweise noch besser geeignet.
Sicherheit
OpenAI hat zusätzliche Sicherheitsmaßnahmen in die o1
-Modelle integriert, einschließlich neuer Techniken, die den Modellen helfen, unsichere Anfragen abzulehnen. Diese Fortschritte machen aus der o1
-Reihe einige der robustesten Modelle, die derzeit verfügbar sind.
Verfügbarkeit
o1-preview
und o1-mini
sind in der Region „USA, Osten 2“ mit eingeschränkten Zugriff über den Early Access-Playground für das Azure KI Foundry.Portak verfügbar. Die Datenverarbeitung für die o1
-Modelle kann in einer anderen Region auftreten als der, in der sie für die Verwendung zur Verfügung stehen.
Um die Modelle o1-preview
und o1-mini
im Playground für frühzeitigen Zugriff zu testen, ist eine Registrierung erforderlich, und der Zugriff wird basierend auf den Berechtigungskriterien von Microsoft gewährt.
Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff
Nachdem der Zugriff gewährt wurde, müssen Sie folgende Schritte ausführen:
- Navigieren Sie zu https://ai.azure.com/resources, und wählen Sie eine Ressource in der Region
eastus2
aus. Wenn Sie nicht über eine Azure OpenAI-Ressource in dieser Region verfügen, müssen Sie eine erstellen. - Nachdem die Azure OpenAI-Ressource
eastus2
ausgewählt ist, wählen Sie im linken oberen Bereich unter Playgrounds die Option Playground für frühzeitigen Zugriff (Preview) aus.
August 2024
Strukturierte Ausgaben von GPT-4o 2024-08-06
- Verfügbar für Standard- und globale Bereitstellungen in allen US-Regionen und Schweden, Mitte.
- Dieses Modell bietet Unterstützung für strukturierte Ausgaben.
GPT-4o mini-Bereitstellungen
GPT-4o mini ist jetzt für Bereitstellungen in „Kanada, Osten“, „USA, Osten“, „USA, Osten 2“, „USA, Norden-Mitte“ und „Schweden, Mitte“ verfügbar.
Aktuelle Informationen zur Modellverfügbarkeit finden Sie auf der Modellseite.
GPT-4o-Optimierung (Public Preview)
Die GPT-4o-Optimierung ist jetzt für Azure OpenAI als Public Preview in den Regionen „USA, Norden-Mitte“ und „Schweden, Mitte“ verfügbar.
Weitere Informationen finden Sie in unserem Blogbeitrag.
Neues Release der API-Vorschauversion
API-Version 2024-07-01-preview
ist das neueste API-Release für Dokumenterstellung und Rückschlüsse auf Datenebene. Sie ersetzt die API-Version 2024-05-01-preview
und fügt Unterstützung für Folgendes hinzu:
- Batch-API-Unterstützung hinzugefügt
- Parameter für die Strategie zur Blockerstellung im Vektorspeicher
max_num_results
-Wert, den das Tool für die Dateisuche ausgeben soll.
Weitere Informationen finden Sie in der Referenzdokumentation.
Regionale Verfügbarkeit von GPT-4o mini
- GPT-4o mini ist für die Standardbereitstellung und für die globale Standardbereitstellung in den Regionen „USA, Osten“ und „Schweden, Mitte“ verfügbar.
- GPT-4o mini ist für die globale Batchbereitstellung in den Regionen „USA, Osten“, „Schweden, Mitte“ und „USA, Westen“ verfügbar.
Bewertungsleitfaden
- Neuer Blogbeitrag zu den ersten Schritten mit Modellbewertungen. Wir empfehlen die Verwendung dieses Leitfadens im Rahmen des Upgrade- und Deaktivierungsprozesses von Modellen.
Neuestes GPT-4o-Modell im Early Access-Playground verfügbar (Vorschau)
Am 6. August 2024 gab OpenAI die neueste Version des Flagship-GPT-4o-Modellversion 2024-08-06
bekannt. GPT-4o 2024-08-06
bietet alle Funktionen der vorherigen Version sowie:
- Eine verbesserte Möglichkeit zur Unterstützung komplexer strukturierter Ausgaben.
- Maximale Ausgabetoken wurden von 4.096 auf 16.384 erhöht.
Azure-Kunden können GPT-4o 2024-08-06
heute im neuen Early Access-Playground für Azure KI Foundry (Vorschau) testen.
Im Gegensatz zum vorherigen Early Access-Playground erfordert der Early Access-Playground für das Azure KI Foundry-Portal (Vorschau) keine Ressource in einer bestimmten Region.
Hinweis
Prompts und Vervollständigungen, die über den Early Access-Playground (Vorschau) gesendet werden, können in jeder Azure OpenAI-Region verarbeitet werden und unterliegen derzeit einem Limit von 10 Anforderungen pro Minute pro Azure-Abonnement. Dieses Limit kann sich zukünftig ändern.
Die Missbrauchsüberwachung von Azure OpenAI Service ist für alle Benutzer des Early Access-Playgrounds aktiviert, auch bei Aktivierung für Änderungen; Standardinhaltsfilter sind aktiviert und können nicht geändert werden.
Um GPT-4o 2024-08-06
zu testen, melden Sie sich mit diesem Link beim Azure KI Early Access-Playground (Vorschau) an.
Globale Batchbereitstellungen (Global Batch) sind jetzt verfügbar
Die Azure OpenAI Batch-API ist darauf ausgelegt, umfangreiche Verarbeitungsaufgaben mit hohem Volumen effizient zu verarbeiten. Verarbeiten Sie asynchrone Anforderungsgruppen mit separatem Kontingent mit einer angestrebten Verarbeitungszeit von 24 Stunden zu 50 % weniger Kosten als bei „Global-Standard“. Bei der Stapelverarbeitung senden Sie die einzelnen Anforderungen nicht nacheinander, sondern Sie senden eine große Anzahl von Anforderungen in einer einzelnen Datei. Globale Batchanforderungen verfügen über ein separates Tokenkontingent, das in die Warteschlange eingereiht wird, um Unterbrechungen Ihrer Onlineworkloads zu vermeiden.
Wichtige Anwendungsfälle:
Umfangreiche Datenverarbeitung: Analysieren Sie schnell umfangreiche Datasets parallel.
Inhaltsgenerierung: Erstellen Sie große Textmengen, z. B. Produktbeschreibungen oder Artikel.
Dokumentüberprüfung und Zusammenfassung: Automatisieren Sie die Überprüfung und Zusammenfassung von umfangreichen Dokumenten.
Automatisierung des Kundendiensts: Verarbeiten Sie zahlreiche Anfragen gleichzeitig für schnellere Antworten.
Datenextraktion und -analyse: Extrahieren und analysieren Sie Informationen aus großen Mengen unstrukturierter Daten.
NLP-Aufgaben (Natural Language Processing, Verarbeitung natürlicher Sprache): Führen Sie Aufgaben wie Stimmungsanalyse oder Übersetzung für große Datasets aus.
Marketing und Personalisierung: Generieren Sie personalisierte Inhalte und Empfehlungen im großen Stil.
Weitere Informationen zu den ersten Schritten mit globalen Batchbereitstellungen.
Juli 2024
GPT-4o mini ist jetzt für die Feinabstimmung verfügbar
Die GPT-4o mini-Feinabstimmung ist jetzt in der öffentlichen Vorschau in den Regionen „Schweden, Mitte“ und „USA, Norden-Mitte“ verfügbar.
Das Assistants-Tool für die Datensuche wird jetzt in Rechnung gestellt
Für das Assistants-Tool Dateisuche fallen jetzt zusätzliche Nutzungsgebühren an. Weitere Informationen hierzu finden Sie in der Preisübersicht.
GPT-4o mini-Modell für die Bereitstellung verfügbar
GPT-4o mini ist das neueste Azure OpenAI-Modell, das erstmals am 18. Juli 2024 angekündigt wurde:
„GPT-4o mini ermöglicht es Kunden, beeindruckende Anwendungen zu niedrigeren Kosten mit einer äußerst hohen Geschwindigkeit bereitzustellen. GPT-4o mini ist wesentlich intelligenter als GPT-3.5 Turbo. Es erreicht eine MMLU-Bewertung (Measuring Massive Multitask Language Understanding) von 82 % im Vergleich zu 70 % und ist mehr als 60 % günstiger.1 Das Modell bietet ein erweitertes 128K-Kontextfenster und integriert die verbesserten mehrsprachigen Funktionen von GPT-4o, was eine höhere Qualität für Sprachen aus der ganzen Welt ermöglicht.“
Das Modell ist derzeit sowohl für die Standard- als auch für die globale Standardbereitstellung in der Region „USA, Osten“ verfügbar.
Informationen zum Modellkontingent finden Sie auf der Seite Kontingent und Grenzwerte. Aktuelle Informationen zur Modellverfügbarkeit finden Sie auf der Seite Modelle.
Neue Standardrichtlinie für die Inhaltsfilterung für verantwortungsvolle KI
Die neue Standardrichtlinie für die Inhaltsfilterung DefaultV2
bietet die neuesten Minderungen für Sicherheitsrisiken für die GPT-Modellreihe (Text), einschließlich:
- Prompt Shields für Jailbreak-Angriffe auf Benutzerprompts (Filter)
- Erkennung von geschützten Materialien für Text (Filtern) bei Modellvervollständigungen
- Erkennung von geschützten Materialien für Code (Kommentieren) bei Modellvervollständigungen
Es gibt zwar keine Änderungen an Inhaltsfiltern für vorhandene Ressourcen und Bereitstellungen (standardmäßige oder benutzerdefinierte Inhaltsfilterkonfigurationen bleiben unverändert), aber neue Ressourcen und GPT-Bereitstellungen erben automatisch die neue Inhaltsfilterrichtlinie DefaultV2
. Kunden haben die Möglichkeit, Sicherheitsstandardeinstellungen zu verwenden oder benutzerdefinierte Inhaltsfilterkonfigurationen zu erstellen.
Weitere Informationen finden Sie in unserer Dokumentation zur Standardsicherheitsrichtlinie.
Neue allgemein verfügbare API-Version
API-Version 2024-06-01
ist die neueste allgemein verfügbare Datenebenen-Rückschluss-API-Version. Sie ersetzt die API-Version 2024-02-01
und fügt Unterstützung für Folgendes hinzu:
- Einbettungen
encoding_format
unddimensions
Parameter. - Chatabschlüsse
logprobs
undtop_logprobs
Parameter.
Weitere Informationen finden Sie in unserer Referenzdokumentation für Datenebenenrückschluss.
Erweiterung von Regionen, die für globale Standardbereitstellungen von GPT-4o verfügbar sind
GPT-4o ist jetzt für globale Standardbereitstellungen verfügbar in:
- australiaeast
- brazilsouth
- canadaeast
- eastus
- eastus2
- „Frankreich, Mitte“-Git
- germanywestcentral
- japaneast
- koreacentral
- northcentralus
- norwayeast
- polandcentral
- southafricanorth
- southcentralus
- southindia
- swedencentral
- switzerlandnorth
- uksouth
- westeurope
- westus
- westus3
Informationen zum globalen Standardkontingent finden Sie auf der Seite „Kontingent und Grenzwerte“.
Juni 2024
Aktualisierungen des Einstellungsdatums
- Aktualisiert
gpt-35-turbo
0301 Deaktivierungsdatum nicht vor dem 1. Oktober 2024. - Aktualisiert
gpt-35-turbo
&gpt-35-turbo-16k
0613 Deaktivierungsdatum am 1. Oktober 2024. - Aktualisiert
gpt-4
&gpt-4-32k
0314 Deaktivierungsdatum am 1. Oktober 2024 und Datum der eingestellten Unterstützung am 6. Juni 2025.
Lesen Sie unseren Modelldeaktivierungsleitfaden, um die neuesten Informationen zur Modelleinstellung und -deaktivierung zu erhalten.
Tokenbasierte Abrechnung zur Feinabstimmung
- Die Azure OpenAI-Abrechnung zur Feinabstimmung basiert jetzt auf der Anzahl der Token in Ihrer Trainingsdatei anstatt auf der gesamten verstrichenen Trainingszeit. Dies kann zu einer erheblichen Kostenreduzierung bei einigen Trainingsausführungen führen und vereinfacht so die Schätzung der Feinabstimmungskosten. Weitere Informationen finden Sie in der offiziellen Ankündigung.
GPT-4o in neuen Regionen veröffentlicht
- GPT-4o jetzt auch verfügbar in:
- „Schweden, Mitte“ für die regionale Standardbereitstellung
- „Australien, Osten“, „Kanada, Osten“, „Japan, Osten“, „Südkorea, Mitte“, „Schweden, Mitte“, „Schweiz, Norden“ und „USA, Westen 3“ für die Bereitstellung
Aktuelle Informationen zur Modellverfügbarkeit finden Sie auf der Modellseite.
Unterstützung für kundenseitig verwaltete Schlüssel (CMK) für Assistenten
Threads und Dateien in Assistenten unterstützen jetzt kundenseitig verwaltete Schlüssel in der folgenden Region:
- USA, Westen 3
Mai 2024
Bereitgestellte GPT-4o-Bereitstellungen
gpt-4o
-Version: 2024-05-13
ist sowohl für Standard- als auch für bereitgestellte Implementierungen verfügbar. Bereitgestellte und Standardmodellimplementierungen akzeptieren sowohl Text- als auch Bild-/Vision-Anforderungen für Rückschlüsse.
Weitere Informationen zur regionalen Modellverfügbarkeit finden Sie in der Modellmatrix für bereitstellte Implementierungen.
Assistenten V2 (Vorschau)
Eine Aktualisierung der Assistenten-API ist jetzt öffentlich verfügbar. Sie enthält die folgenden Updates:
- Tool für die Dateisuche und Vektorspeicher
- Unterstützung für max. Vervollständigung und max. Prompttoken für die Verwaltung der Tokenverwendung.
tool_choice
-Parameter, um den Assistenten zur Verwendung eines angegebenen Tools aufzufordern. Sie können jetzt Nachrichten mit der Assistenten-Rolle erstellen, um benutzerdefinierte Unterhaltungsverläufe in Diskussionen zu erstellen.- Unterstützung für die Parameter
temperature
,top_p
undresponse_format
. - Unterstützung für Streaming und Abrufe. Sie können die Hilfsfunktionen in unserem Python-SDK verwenden, um Ausführungen und Streamantworten zu erstellen. Wir haben auch SDK-Hilfsprogramme für Abfragen hinzugefügt, um Objektstatusaktualisierungen zu teilen, ohne dass die Abfrage erforderlich ist.
- Experimentieren Sie mit Logic Apps und Funktionsaufrufen mit Azure OpenAI Studio. Importieren Sie Ihre in Logic Apps implementierten REST-APIs als Funktionen, und Studio ruft die Funktion (als Logic Apps-Workflow) automatisch basierend auf dem Benutzerprompt auf.
- AutoGen von Microsoft Research bietet ein Unterhaltungsframework mit mehreren Agenten, um das bequeme Erstellen von LLM-Workflows (Large Language Model) in einer Vielzahl von Anwendungen zu ermöglichen. Azure OpenAI-Assistenten sind jetzt über
GPTAssistantAgent
in AutoGen integriert. Dies ist ein neuer experimenteller Agent, mit dem Sie Assistenten nahtlos zu AutoGen-basierten Workflows mit mehreren Agenten hinzufügen können. So können mehrere Azure OpenAI-Assistenten, die für Aufgaben oder Domänen spezialisiert sein können, zusammenarbeiten und komplexe Aufgaben durchführen. - Unterstützung für optimierte
gpt-3.5-turbo-0125
-Modelle in den folgenden Regionen:- USA (Ost) 2
- Schweden, Mitte
- Erweiterte regionale Unterstützung für:
- Japan, Osten
- UK, Süden
- USA (Westen)
- USA, Westen 3
- Norwegen, Osten
Weitere Informationen finden Sie im Blogbeitrag zu Assistenten.
Allgemeine Verfügbarkeit (GA) des GPT-4o-Modells
GPT-4o (das o steht für „omni“) ist das neueste Modell von OpenAI, das am 13. Mai 2024 herausgegeben wurde.
- GPT-4o integriert Text und Bilder in einem einzelnen Modell, sodass mehrere Datentypen gleichzeitig verarbeitet werden können. Dieser multimodale Ansatz verbessert die Genauigkeit und Reaktionsfähigkeit bei Interaktionen zwischen Mensch und Computer.
- GPT-4o entspricht GPT-4 Turbo bei Text- und Codierungsaufgaben in englischer Sprache und bietet eine überlegene Leistung in anderen Sprachen und in Visionsaufgaben, wobei neue Benchmarks für KI-Funktionen erreicht werden.
Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.
Globaler Standardbereitstellungstyp (Vorschau)
Globale Bereitstellungen stehen in denselben Azure OpenAI-Ressourcen wie nicht globale Angebote zur Verfügung, ermöglichen es Ihnen jedoch, die globale Infrastruktur von Azure zu nutzen, um den Datenverkehr dynamisch an das Rechenzentrum weiterzuleiten und für jede Anforderung die beste Verfügbarkeit zu bieten. Der globale Standard stellt das höchste Standardkontingent für neue Modelle bereit und beseitigt die Notwendigkeit des Lastenausgleichs über mehrere Ressourcen hinweg.
Weitere Informationen finden Sie in der Anleitung zu Bereitstellungstypen.
Feinabstimmung von Updates
- GPT-4 Feinabstimmung ist jetzt in der öffentlichen Vorschau verfügbar.
- Unterstützung für Seed, Ereignisse, vollständige Validierungsstatistiken und Prüfpunkte als Teil der
2024-05-01-preview
API-Version hinzugefügt.
Konfigurierbare Inhaltsfilter für DALL-E und GPT-4 Turbo Vision GA
Erstellen Sie benutzerdefinierte Inhaltsfilter für Ihre Bereitstellungen von DALL-E 2 und 3 sowie GPT-4 Turbo mit Vision GA (turbo-2024-04-09
) und GPT-4o-Bereitstellungen. Inhaltsfilterung
Asynchroner Filter für alle Azure OpenAI-Kunden verfügbar
Das asynchrone Ausführen von Filtern für kürzere Wartezeiten in Streamingszenarien ist jetzt für alle Azure OpenAI-Kunden verfügbar. Inhaltsfilterung
Prompt Shields
Prompt Shields schützen Anwendungen, die von Azure OpenAI-Modellen unterstützt werden, vor zwei Arten von Angriffen: direkte (Jailbreak) und indirekte Angriffe. Indirekte Angriffe (auch als indirekte Promptangriffe oder domänenübergreifende Prompteinschleusungsangriffe bezeichnet) sind eine Art von Angriff auf Systeme, die von generativen KI-Modellen unterstützt werden. Sie können auftreten, wenn eine Anwendung Informationen verarbeitet, die nicht direkt vom Entwickler der Anwendung oder vom Benutzer erstellt wurden. Inhaltsfilterung
API-Release 2024-05-01-preview
- Weitere Informationen finden Sie unter API-Versionslebenszyklus.
Allgemeine Verfügbarkeit (GA) des GPT-4 Turbo-Modells
Das aktuelle allgemein verfügbare Release (General Availability, GA) von GPT-4 Turbo ist:
gpt-4
Version:turbo-2024-04-09
Es ersetzt die folgenden Vorschaumodelle:
gpt-4
Version:1106-Preview
gpt-4
Version:0125-Preview
gpt-4
Version:vision-preview
Unterschiede zwischen den allgemein verfügbaren Modellen OpenAI und Azure OpenAI GPT-4 Turbo
- Die Version des neuesten
0409
Turbo-Modells von OpenAI unterstützt den JSON-Modus und Funktionsaufrufe für alle Rückschlussanforderungen. - Die neueste
turbo-2024-04-09
Version von Azure OpenAI unterstützt derzeit nicht die Verwendung des JSON-Modus und keine Funktionsaufrufe beim Durchführen von Rückschlussanforderungen mit Bildeingaben (Vision). Textbasierte Eingabeanforderungen (Anforderungen ohneimage_url
und Inlinebilder) unterstützen den JSON-Modus und Funktionsaufrufe.
Unterschiede zu gpt-4 vision-preview
- Die Integration von Azure KI-spezifischen Vision-Erweiterungen mit GPT-4 Turbo mit Vision wird nicht unterstützt für
gpt-4
Version:turbo-2024-04-09
. Dazu gehören optische Zeichenerkennung (Optical Character Recognition, OCR), Objektgrounding, Videoprompts und eine verbesserte Verarbeitung Ihrer Daten mit Bildern.
Wichtig
Previewfunktionen für Vision-Verbesserungen, einschließlich optischer Zeichenerkennung (Optical Character Recognition, OCR), Objekterdung und Videoeingabeaufforderungen werden eingestellt werden und nicht mehr verfügbar sein, sobald für die gpt-4
-Version vision-preview
ein Upgrade auf turbo-2024-04-09
durchgeführt wird. Wenn Sie sich derzeit auf eine dieser Previewfunktionen verlassen, wird dieses automatische Modellupgrade ein Breaking Change sein.
GPT-4 Turbo bereitgestellte verwaltete Verfügbarkeit
gpt-4
Version:turbo-2024-04-09
ist sowohl für Standard- als auch für bereitgestellte Implementierungen verfügbar. Derzeit unterstützt die bereitgestellte Version dieses Modells keine Bild-/Vision-Anforderungen für Rückschlüsse. Bereitgestellte Implementierungen dieses Modells akzeptieren nur Texteingaben. Standardmodellimplementierungen akzeptieren sowohl Text- als auch Bild-/Vision-Anforderungen für Rückschlüsse.
Bereitstellen von GPT-4 Turbo mit Vision GA
Um das GA-Modell über das Azure KI Foundry-Portal bereitzustellen, wählen Sie GPT-4
und dann die Version turbo-2024-04-09
im Dropdownmenü aus. Das Standardkontingent für das gpt-4-turbo-2024-04-09
-Modell entspricht dem aktuellen Kontingent für GPT-4-Turbo. Weitere Informationen finden Sie in den regionalen Kontingentbeschränkungen.
April 2024
Feinabstimmungen werden nun in den beiden neuen Regionen „USA, Osten 2“ und „Schweiz, Westen“ unterstützt
Feinabstimmung ist jetzt mit Unterstützung für verfügbar:
USA (Ost) 2
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Schweiz, Westen
babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Auf der Seite Modelle finden Sie die neuesten Informationen über die Verfügbarkeit der Modelle und die Unterstützung bei der Feinabstimmung in jeder Region.
Trainingsbeispiele für Chats mit mehreren Teilnehmenden
Feinabstimmung unterstützt jetzt Trainingsbeispiele für Chats mit mehreren Teilnehmenden.
GPT-4 (0125) für Azure OpenAI On Your Data verfügbar
Sie können jetzt das GPT-4-Modell (0125) in verfügbaren Regionen mit Azure OpenAI On Your Data verwenden.
März 2024
Risiko- und Sicherheitsüberwachung in Azure OpenAI Studio
Azure OpenAI Studio bietet ein Dashboard zur Risiko- und Sicherheit für jede Ihrer Bereitstellungen, die eine Inhaltsfilterkonfiguration verwenden. Verwenden Sie sie, um die Ergebnisse der Filteraktivität zu überprüfen. Anschließend können Sie Ihre Filterkonfiguration anpassen, um Ihren geschäftlichen Anforderungen besser gerecht zu werden und verantwortungsvolle KI-Prinzipien zu erfüllen.
Verwenden der Risiko- und Sicherheitsüberwachung
Azure OpenAI für Ihre Datenupdates
- Sie können jetzt eine Verbindung mit einer Elasticsearch-Vektordatenbank herstellen, die mit Azure OpenAI On Your Data verwendet wird.
- Sie können den Blockgrößenparameter während der Datenerfassung verwenden, um die maximale Anzahl von Token eines bestimmten Datenabschnitts in Ihrem Index festzulegen.
2024-02-01 GA (General Availability)-API veröffentlicht
Dies ist der neueste GA-API-Release und ist der Ersatz für den vorherigen 2023-05-15
-GA-Release. Diese Version bietet Unterstützung für die neuesten Azure OpenAI GA-Features wie Whisper, DALLE-3, Feinabstimmung, „für Ihre Daten“ und vieles mehr.
Features, die sich noch in der Vorschau befinden, z. B. Assistenten, Sprachsynthese (Text-to-Speech, TTS) und bestimmte Ihrer Datenquellen, erfordern weiterhin eine Vorschau-API-Version. Weitere Informationen finden Sie in unserem Lebenszyklusleitfaden für die API-Version.
Allgemeinen Verfügbarkeit (GA) von Whisper
Das Whisper-Spracherkennungsmodell ist jetzt GA sowohl für REST als auch Python. Clientbibliothek-SDKs befinden sich derzeit noch in der öffentlichen Vorschau.
Probieren Sie Whisper aus, indem Sie einem Schnellstart folgen.
DALL-E 3 allgemeine Verfügbarkeit (GA)
Das DALL-E 3-Bildgenerierungsmodell ist jetzt GA sowohl für REST als auch Python. Clientbibliothek-SDKs befinden sich derzeit noch in der öffentlichen Vorschau.
Probieren Sie DALL-E 3 aus, indem Sie einen Schnellstart ausführen.
Neue regionale Unterstützung für DALL-E 3
Sie können jetzt mit einer Azure OpenAI-Ressource in der Azure-Region East US
oder AustraliaEast
auf DALL-E 3 zugreifen, zusätzlich zu SwedenCentral
.
Modellveralterungen und -außerkraftsetzungen
Wir haben eine Seite hinzugefügt, um Modellveralterungen und -außerkraftsetzungen im Azure OpenAI-Dienst nachzuverfolgen. Dieses Dokument enthält Informationen zu den derzeit verfügbaren, den veralteten und den eingestellten Modellen.
2024-03-01-Preview-API veröffentlicht
2024-03-01-preview
hat alle die gleichen Funktionen wie 2024-02-15-preview
und fügt zwei neue Parameter für Einbettungen hinzu:
encoding_format
ermöglicht es Ihnen, das Format zum Generieren von Einbettungen infloat
, oderbase64
. Der Standardwert istfloat
.dimensions
ermöglicht das Festlegen der Anzahl der Ausgabeeinbettungen. Dieser Parameter wird nur mit den neuen Einbettungsmodellen der dritten Generation unterstützt:text-embedding-3-large
,text-embedding-3-small
. In der Regel sind größere Einbettungen aus Compute-, Arbeitsspeicher- und Speicherperspektive teurer. Die Möglichkeit, die Anzahl der Dimensionen anzupassen, ermöglicht eine bessere Kontrolle über die Gesamtkosten und die Leistung. Der Parameterdimensions
wird nicht in allen Versionen der OpenAI 1.x-Python-Bibliothek unterstützt. Um diesen Parameter zu nutzen, empfehlen wir ein Upgrade auf die neueste Version:pip install openai --upgrade
.
Wenn Sie derzeit eine Vorschau-API-Version verwenden, um die neuesten Features zu nutzen, empfehlen wir, den ARTIKEL zum API-Versionslebenszyklus zu konsultieren, um nachzuverfolgen, wie lange Ihre aktuelle API-Version unterstützt wird.
Aktualisieren auf GPT-4-1106-Preview-Upgradepläne
Das für den 8. März 2024 geplante Bereitstellungsupgrade von gpt-4
1106-Preview auf gpt-4
0125-Vorschau findet nicht mehr statt. Bereitstellungen der gpt-4
Versionen 1106-Preview und 0125-Preview werden auf "Automatisches Update auf Standard" festgelegt, und „Upgrade nach ablaufen“ wird gestartet, nachdem eine stabile Version des Modells veröffentlicht wurde.
Weitere Informationen zum Upgradeprozess finden Sie auf der Modellseite.
Februar 2024
GPT-3.5-Turbo-0125-Modell verfügbar
Dieses Modell weist verschiedene Verbesserungen auf, darunter eine höhere Genauigkeit bei der Beantwortung von Anfragen in den gewünschten Formaten und die Behebung eines Fehlers, der ein Problem mit der Textkodierung bei nicht englischsprachigen Funktionsaufrufen verursachte.
Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.
Verfügbare Einbettungsmodelle der dritten Generation
text-embedding-3-large
text-embedding-3-small
In Tests berichtet OpenAI, dass sowohl das große als auch das kleine Einbettungsmodell der dritten Generation beim MIRACL-Benchmark eine bessere durchschnittliche mehrsprachige Retrieval-Leistung bietet, während es beim MTEB-Benchmark für englische Aufgaben immer noch besser abschneidet als das Texteinbettungsmodell der zweiten Generation (ad-002).
Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.
GPT-3.5 Turbo-Kontingentkonsolidierung
Um die Migration zwischen verschiedenen Versionen der GPT-3.5-Turbo-Modelle (einschließlich 16k) zu vereinfachen, konsolidieren wir alle GPT-3.5-Turbo-Kontingente in einem einzigen Kontingentwert.
Alle Kunden, die das genehmigte Kontingent erhöht haben, verfügen über ein kombiniertes Gesamtkontingent, das die vorherigen Erhöhungen widerspiegelt.
Jeder Kunde, dessen aktuelle Gesamtnutzung in Modellversionen kleiner ist als der Standardwert, erhält standardmäßig ein neues kombiniertes Gesamtkontingent.
GPT-4-0125-preview-Modell verfügbar
Das gpt-4
-Modell Version 0125-preview
ist jetzt in Azure OpenAI Service in den Regionen USA, Osten, USA, Norden-Mitte und USA, Süden-Mitte verfügbar. Bereitstellungen von gpt-4
Version 1106-preview
werden in den kommenden Wochen automatisch auf 0125-preview
aktualisiert.
Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.
Öffentliche Vorschau der Assistants-API
Azure OpenAI unterstützt jetzt die API, die die GPTs von OpenAI unterstützt. Mit Azure OpenAI Assistants (Vorschau) können Sie KI-Assistenten erstellen, die dank benutzerdefinierte Anweisungen auf Ihre Anforderungen zugeschnitten sind und durch erweiterte Tools wie Codeinterpreter und benutzerdefinierte Funktionen ergänzt werden. Weitere Informationen finden Sie unter:
- Schnellstart
- Konzepte
- Ausführliche Vorgehensweise mit Python
- Codeinterpreter
- Funktionsaufruf
- Verfügbarkeit von Assistants-Modellen und -Regionen
- Assistants Python & REST Referenz
- Assistants-Beispiele
Öffentliche Vorschau der OpenAI-Stimmen für die Sprachsynthese
Der Azure OpenAI Service unterstützt jetzt Sprachsynthese-APIs mit OpenAI-Stimmen. Rufen Sie KI-generierte Sprache aus dem von Ihnen bereitgestellten Text ab. Weitere Informationen finden Sie in der Übersichtsanleitung. Schauen Sie auch in den Schnellstart rein.
Hinweis
Azure KI Speech unterstützt auch OpenAI-Stimmen für die Sprachsynthese. Weitere Informationen finden Sie im Leitfaden OpenAI-Stimmen für die Sprachsynthese über Azure OpenAI Service oder über Azure KI Speech.
Neue Optimierungsfunktionen und Modellunterstützung
Neue regionale Unterstützung für Azure OpenAI auf Ihren Daten
Sie können Azure OpenAI jetzt auf Ihren Daten in der folgenden Azure-Region verwenden:
- Südafrika, Norden
Allgemeine Verfügbarkeit von Azure OpenAI auf Ihren Daten
- Azure OpenAI auf Ihren Daten ist jetzt allgemein verfügbar.
Dezember 2023
Azure OpenAI Service auf Ihren Daten
- Vollständige Unterstützung für VPN und private Endpunkte für Azure OpenAI für Ihre Daten, einschließlich Sicherheitsunterstützung für Speicherkonten, Azure OpenAI-Ressourcen und Ressourcen des Azure KI-Suchdiensts.
- Neuer Artikel für die Verwendung der „Azure OpenAI auf Ihren Daten“-Konfiguration, indem Sie Daten mit virtuellen Netzwerken und privaten Endpunkten schützen.
GPT-4 Turbo mit Vision jetzt verfügbar
GPT-4 Turbo mit Vision on Azure OpenAI-Dienst befindet sich jetzt in der öffentlichen Vorschau. GPT-4 Turbo mit Vision ist ein großes multimodales Modell (LMM), das von OpenAI entwickelt wurde, das Bilder analysieren und Textantworten auf Fragen zu ihnen liefern kann. Es umfasst sowohl die Verarbeitung natürlicher Sprache als auch das visuelle Verständnis. Mit dem erweiterten Modus können Sie die Azure AI Vision-Features verwenden, um zusätzliche Einblicke aus den Bildern zu generieren.
- Erkunden Sie die Funktionen von GPT-4 Turbo mit Vision in einer Umgebung ohne Code mit dem Azure OpenAI Playground. Weitere Informationen finden Sie in der Schnellstartanleitung.
- Die Vision-Erweiterung mit GPT-4 Turbo mit Vision ist jetzt im Azure OpenAI Playground verfügbar und umfasst Unterstützung für optische Zeichenerkennung, Objektgrounding, Bildunterstützung für das Hinzufügen eigener Daten und Unterstützung für Videoprompts.
- Tätigen Sie Aufrufe an die Chat-API direkt mithilfe der REST-API.
- Die Verfügbarkeit von Regionen ist derzeit auf
SwitzerlandNorth
,SwedenCentral
,WestUS
undAustraliaEast
- Erfahren Sie mehr über die bekannten Einschränkungen von GPT-4 Turbo mit Vision und anderen häufig gestellten Fragen.
November 2023
Unterstützung neuer Datenquellen in Azure OpenAI auf Ihren Daten
- Sie können jetzt Azure Cosmos DB for MongoDB vCore sowie URLs/Webadressen als Datenquellen verwenden, um Ihre Daten zu erfassen und mit einem unterstützten Azure OpenAI-Modell zu chatten.
GPT-4 Turbo Preview und GPT-3.5-Turbo-1106 veröffentlicht
Beide Modelle sind der neueste Release von OpenAI mit verbesserter Anweisung, JSON-Modus, reproduzierbare Ausgabe und parallele Funktionsaufrufe.
GPT-4 Turbo Preview verfügt über ein max. Kontextfenster von 128.000 Token und kann 4.096 Ausgabetoken generieren. Es verfügt über die neuesten Schulungsdaten mit Wissen bis April 2023. Dieses Modell befindet sich in der Vorschau und wird für Produktionsumgebungen nicht empfohlen. Alle Bereitstellungen dieses Vorschaumodells werden automatisch aktualisiert, sobald die stabile Version verfügbar ist.
GPT-3.5-Turbo-1106 hat ein maximales Kontextfenster von 16.385 Token und kann 4.096 Ausgabe-Token erzeugen.
Informationen zur regionalen Modellverfügbarkeit finden Sie auf der Modellseite.
Die Modelle weisen ihre eigenen eindeutigen Kontingentzuweisungen pro Region auf.
DALL-E 3 öffentliche Vorschau
DALL-E 3 ist das neueste Bildgenerierungsmodell von OpenAI. Es verfügt über verbesserte Bildqualität, komplexere Szenen und verbesserte Leistung beim Rendern von Text in Bildern. Es verfügt auch über mehr Seitenverhältnisoptionen. DALL-E 3 ist über OpenAI Studio und über die REST-API verfügbar. Ihre OpenAI-Ressource muss sich in der SwedenCentral
Azure-Region befinden.
DALL-E 3 verfügt über eine integrierte Prompt-Rewriting-Funktion zur Verbesserung der Bilder, zur Reduzierung von Verzerrungen und zur Erhöhung der natürlichen Variation.
Probieren Sie DALL-E 3 aus, indem Sie einen Schnellstart ausführen.
Verantwortungsvolle KI
Erweiterte Kundenkonfigurierbarkeit: Alle Azure OpenAI-Kunden können jetzt alle Schweregrade (Niedrig, Mittel, Hoch) für die Kategorien Hass, Gewalt, Sexualität und Selbstverletzung konfigurieren. U a. kann nur nach Inhalten mit dem Schweregrad „Hoch“ gefiltert werden. Konfigurieren von Inhaltsfiltern
Inhaltsnachweise in allen DALL-E-Modellen: KI-generierten Bilder aus allen DALL-E-Modellen enthalten jetzt einen digitalen Nachweis, der den Inhalt als KI-generiert offenlegt. Anwendungen, die Bildressourcen anzeigen, können das Content Authenticity Initiative SDK (Open Source) nutzen, um Nachweise in den KI-generierten Bildern anzuzeigen. Inhaltsnachweise in Azure OpenAI
Neue RAI-Modelle
- Jailbreak-Risikoerkennung: Jailbreak-Angriffe sind Benutzer-Prompts, die darauf abzielen, ein Verhalten des generativen KI-Modells zu provozieren, für dessen Vermeidung es trainiert wurde, oder gegen die in der Systemnachricht festgelegten Regeln zu verstoßen. Das Jailbreak-Risikoerkennungsmodell ist optional (standardmäßig deaktiviert) und im Kommentar- und Filtermodell verfügbar. Es wird bei Benutzer-Prompts ausgeführt.
- Geschützter Materialtext: Geschützter Materialtext beschreibt bekannte Textinhalte (z. B. Liedtexte, Artikel, Rezepte und ausgewählte Webinhalte), die von großen Sprachmodellen ausgegeben werden können. Das Modell für geschützten Materialtext ist optional (standardmäßig deaktiviert) und steht im Kommentar- und Filtermodell zur Verfügung. Es wird bei LLM-Vervollständigungen ausgeführt.
- Geschützter Materialcode: Geschützter Materialcode beschreibt Quellcode, der Quellcode aus öffentlichen Repositorys entspricht, die von großen Sprachmodellen ohne ordnungsgemäße Nennung von Quellrepositorys ausgegeben werden können. Das Modell für geschützten Materialcode ist optional (standardmäßig deaktiviert) und im Kommentar- und Filtermodell verfügbar. Es wird bei LLM-Vervollständigungen ausgeführt.
Blocklisten: Kunden können jetzt schnell das Verhalten des Inhaltsfilters für Prompts und Vervollständigungen weiter anpassen, indem sie eine benutzerdefinierte Blockliste in ihren Filtern erstellen. Mit der benutzerdefinierten Blockliste kann der Filter Aktionen für eine benutzerdefinierte Liste von Mustern ausführen, z. B. für bestimmte Begriffe oder RegEx-Muster. Zusätzlich zu benutzerdefinierten Blocklisten stellen wir eine Microsoft-Profanitätsblockliste (Englisch) bereit. Verwenden von Blocklisten
Oktober 2023
Neues Feinabstimmen der Modelle (Vorschau)
gpt-35-turbo-0613
ist jetzt zur Feinabstimmung verfügbar.babbage-002
unddavinci-002
sind jetzt zur Feinabstimmung verfügbar. Diese Modelle ersetzen die Legacy-Ada-, -Babbage-, -Curie- und -Davinci-Basismodelle, die zuvor zur Feinabstimmung verfügbar waren.Die Feinabstimmung der Verfügbarkeit ist auf bestimmte Regionen beschränkt. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
Fein abgestimmte Modelle haben im Gegensatz zu regulären Modellen unterschiedliche Kontingentlimits.
Azure OpenAI Service auf Ihren Daten
- Neue benutzerdefinierte Parameter zum Bestimmen der Anzahl der abgerufenen Dokumente und der Genauigkeit
- Die Genauigkeitseinstellung legt den Schwellenwert fest, um Dokumente als relevant für Ihre Abfragen zu kategorisieren.
- Die Einstellung für abgerufene Dokumente gibt die Anzahl der Topbewertungsdokumente aus Ihrem Datenindex an, die zum Generieren von Antworten verwendet werden.
- Sie können den Datenerfassungs-/Uploadstatus im Azure OpenAI Studio anzeigen.
- Unterstützung für private Endpunkte und VPNs für Blobcontainer.
September 2023
GPT-4
GPT-4 und GPT-4-32k sind jetzt für alle Azure OpenAI Service-Kunden verfügbar. Kunden müssen sich nicht mehr für die Warteliste bewerben, um GPT-4 und GPT-4-32k zu verwenden (die Registrierungsanforderungen für eingeschränkten Zugriff gelten weiterhin für alle Azure OpenAI-Modelle). Die Verfügbarkeit kann je nach Region variieren. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
GPT-3.5 Turbo Instruct
Azure OpenAI Service unterstützt jetzt das GPT-3.5 Turbo Instruct-Modell. Dieses Modell weist eine mit text-davinci-003
vergleichbare Leistung auf und ist für die Verwendung mit der Vervollständigungs-API verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
Whisper in der Public Preview
Azure OpenAI Service unterstützt ab sofort Spracherkennungs-APIs, die auf dem Whisper-Modell von OpenAI basieren. Erhalten Sie KI-generierten Text auf Grundlage der von Ihnen bereitgestellten Sprachaufnahmen. Weitere Informationen finden Sie unter Schnellstart.
Hinweis
Azure KI Speech unterstützt über die Batchtranskriptions-API ebenfalls das Whisper-Modell von OpenAI. Weitere Informationen finden Sie im Leitfaden Erstellen einer Batchtranskription. Im Artikel Was ist das Whisper-Modell? erfahren Sie mehr darüber, wann Azure KI Speech bzw. wann Azure OpenAI Service verwendet werden sollte.
Neue Regionen
- Azure OpenAI ist jetzt auch in den Regionen Schweden, Mitte und Schweiz, Norden verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
Erhöhung der regionalen Kontingentgrenzen
- Wird auf die maximalen Standardkontingentgrenzwerte für bestimmte Modelle und Regionen erhöht. Durch die Migration von Workloads zu diesen Modellen und Regionen können Sie höhere Token pro Minute (TPM) nutzen.
August 2023
Updates zu Azure OpenAI für Ihre eigenen Daten (Vorschau)
- Sie können jetzt Azure OpenAI auf Ihren Daten in Power Virtual Agents bereitstellen.
- Azure OpenAI auf Ihren Daten unterstützt jetzt private Endpunkte.
- Fähigkeit zum Filtern des Zugriffs auf vertrauliche Dokumente.
- Automatische Aktualisierung Ihres Index nach einem Zeitplan.
- Optionen für Vektorsuche und semantische Suche.
- Anzeigen des Chatverlaufs in der bereitgestellten Web-App
Juli 2023
Unterstützung für Funktionsaufrufe
- Azure OpenAI unterstützt jetzt Funktionsaufrufe, damit Sie mit Funktionen in der API für Chatvervollständigungen arbeiten können.
Erhöhung des Einbettens von Eingabearrays
- Azure OpenAI unterstützt jetzt Arrays mit bis zu 16 Eingaben pro API-Anforderung mit „text-embedding-ada-002 Version 2“.
Neue Regionen
- Azure OpenAI ist jetzt auch in den Regionen „Kanada, Osten“, „USA, Osten 2“, „Japan, Osten“ und „USA, Norden-Mitte“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
Juni 2023
Verwenden von Azure OpenAI für Ihre eigenen Daten (Vorschau)
- Azure OpenAI auf Ihren Daten ist jetzt in der Vorschau verfügbar und ermöglicht es Ihnen, mit OpenAI-Modellen wie GPT-35-Turbo und GPT-4 zu chatten und Antworten auf der Grundlage Ihrer Daten zu erhalten.
Neue Versionen der Modelle gpt-35-turbo und gpt-4
- gpt-35-turbo (Version 0613)
- gpt-35-turbo-16k (Version 0613)
- gpt-4 (Version 0613)
- gpt-4-32k (Version 0613)
UK, Süden
- Azure OpenAI ist jetzt in der Region „Vereinigtes Königreich, Süden“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
Inhaltsfilter und Anmerkungen (Vorschau)
- Konfigurieren von Inhaltsfiltern mit Azure OpenAI Service.
- Aktivieren Sie Anmerkungen, um Informationen zu Inhaltsfilterkategorien und Schweregraden als Teil Ihrer GPT-basierten Abschluss- und Chatabschlussaufrufe anzuzeigen.
Kontingent
- Das Kontingent bietet die Flexibilität, die Zuordnung von Ratenbegrenzungen für die Bereitstellungen in Ihrem Abonnement aktiv zu verwalten.
Mai 2023
Java- und JavaScript-SDK-Unterstützung
- NEUE Azure OpenAI-Vorschau-SDKs bieten Unterstützung für JavaScript und Java.
Allgemeine Verfügbarkeit (GA) der Azure OpenAI Chat Completion
- Allgemeine Verfügbarkeit der Unterstützung für:
- Chat Completion-API, Version
2023-05-15
. - GPT-35-Turbo-Modelle.
- GPT-4-Modellreihe.
- Chat Completion-API, Version
Wenn Sie derzeit die 2023-03-15-preview
-API verwenden, empfiehlt es sich, zur GA der 2023-05-15
-API zu migrieren. Wenn Sie derzeit die API-Version 2022-12-01
verwenden, bleibt diese API allgemein verfügbar, umfasst jedoch nicht die neuesten Chat Completion-Funktionen.
Wichtig
Die Verwendung der aktuellen Versionen der GPT-35-Turbo-Modelle mit dem Vervollständigungsendpunkt bleibt weiterhin in der Vorschauphase.
Frankreich, Mitte
- Azure OpenAI ist jetzt in der Region „Frankreich, Mitte“ verfügbar. Auf der Seite Modelle finden Sie die neuesten Informationen zur Modellverfügbarkeit in jeder Region.
April 2023
DALL-E 2 öffentliche Vorschau. Der Azure OpenAI Service unterstützt jetzt APIs zur Imagegenerierung, die auf dem DALL-E2-Modell von OpenAI basieren. Rufen Sie KI-generierte Bilder basierend auf dem von Ihnen bereitgestellten beschreibenden Text ab. Weitere Informationen finden Sie unter Schnellstart.
Inaktive Bereitstellungen angepasster Modelle werden nun nach 15 Tagen gelöscht. Die Modelle bleiben für die erneute Bereitstellung verfügbar. Wenn ein angepasstes (optimiertes) Modell für mehr als fünfzehn (15) Tage bereitgestellt wird, während denen keine Vervollständigungen oder Chatvervollständigungen aufgerufen wurden, wird die Bereitstellung automatisch gelöscht (und für diese Bereitstellung fallen keine weiteren Hostinggebühren an). Das zugrunde liegende angepasste Modell bleibt verfügbar und kann jederzeit erneut bereitgestellt werden. Weitere Informationen finden Sie in der Schrittanleitung.
März 2023
Modelle der GPT-4-Serie sind jetzt als Vorschau in Azure OpenAI verfügbar. Azure OpenAI-Bestandskund*innen können Zugriff durch Ausfüllen dieses Formulars anfordern. Diese Modelle sind derzeit in den Regionen „USA, Osten“ und „USA, Süden-Mitte“ verfügbar.
Am 21.3. wurde die neue Chatvervollständigungs-API für GPT-35-Turbo- und GPT-4-Modelle als Vorschauversion veröffentlicht. Weitere Informationen finden Sie in den aktualisierten Schnellstartanleitungen und im Anleitungsartikel.
Vorschauversion von GPT-35-Turbo. Weitere Informationen finden Sie im Anleitungsartikel.
Erhöhte Trainingslimits für die Feinabstimmung: Die maximale Trainingsauftragsgröße (Token in der Trainingsdatei) x (Anzahl der Epochen) beträgt 2 Milliarden Token für alle Modelle. Außerdem haben wir die maximale Länge eines Trainingsauftrags von 120 auf 720 Stunden erhöht.
Hinzufügen zusätzlicher Anwendungsfälle zu Ihrem vorhandenen Zugriff. Bisher mussten sich Kunden für das Hinzufügen neuer Anwendungsfälle erneut für den Dienst anmelden. Jetzt veröffentlichen wir einen neuen Prozess, mit dem Sie schnell neue Anwendungsfälle für die Nutzung des Diensts hinzufügen können. Dieser Prozess folgt dem etablierten Prozess für eingeschränkten Zugriff in Azure KI Services. Bestandskunden können hier alle neuen Anwendungsfälle überprüfen. Beachten Sie, dass dies immer dann erforderlich ist, wenn Sie den Dienst für einen neuen Anwendungsfall nutzen möchten, den Sie ursprünglich nicht beantragt haben.
Februar 2023
Neue Funktionen
- .NET SDK (Rückschluss) Vorschauversion | Beispiele
- Terraform SDK-Update zur Unterstützung von Azure OpenAI-Verwaltungsvorgängen.
- Das Einfügen von Text am Ende einer Vervollständigung wird jetzt mit dem Parameter
suffix
unterstützt.
Aktualisierungen
- Inhaltsfilterung ist standardmäßig aktiviert.
Neue Artikel zu:
Neuer Schulungskurs:
Januar 2023
Neue Funktionen
Allgemeine Verfügbarkeit des Diensts. Azure OpenAI Service ist jetzt allgemein verfügbar.
Neue Modelle: Das neueste Textmodell text-davinci-003 (USA, Osten; Europa, Westen), text-ada-embeddings-002 (USA, Osten; USA, Süden-Mitte; Europa, Westen) wurde hinzugefügt.
Dezember 2022
Neue Funktionen
Die neuesten Modelle von OpenAI. Azure OpenAI bietet Zugriff auf alle neuen Modelle, einschließlich der GPT-3.5-Serie.
Neue API-Version (2022-12-01). Dieses Update enthält mehrere angefragte Verbesserungen, einschließlich Informationen zur Tokenverwendung in der API-Antwort, verbesserte Fehlermeldungen für Dateien, Anpassungen an OpenAI zur Feinabstimmung der Erstellung von Datenstrukturen und Unterstützung für den suffix-Parameter, um benutzerdefinierte Benennungen von optimierten Aufträgen zu ermöglichen.
Höhere Grenzwerte für Anforderungen pro Sekunde. 50 für Nicht-Davinci-Modelle. 20 für Davinci-Modelle.
Schnellere Optimierung von Bereitstellungen. Stellen Sie ein optimiertes Ada- und Curie-Modell in weniger als 10 Minuten bereit.
Höhere Trainingsgrenzwerte: 40 Mio. Trainingstoken für Ada, Babbage und Curie. 10 Mio. für Davinci.
Prozess zum Anfordern von Änderungen bei Missbrauch, Protokollierung falsch verwendeter Daten und menschlicher Überprüfung. Aktuell protokolliert der Dienst Anforderungs-/Antwortdaten zur Erkennung von Missbrauch und falscher Verwendung, um sicherzustellen, dass diese leistungsstarken Modelle nicht missbraucht werden. Viele Kund*innen haben jedoch strenge Datenschutz- und Sicherheitsanforderungen, die eine größere Kontrolle über die eigenen Daten erfordern. Um diese Anwendungsfälle zu unterstützen, wurde ein neuer Prozess für Kund*innen veröffentlicht, um Richtlinien für die Inhaltsfilterung zu ändern oder die Missbrauchsprotokollierung für Anwendungsfälle mit geringem Risiko zu deaktivieren. Dieser Prozess folgt dem etablierten Prozess für eingeschränkten Zugriff in Azure KI Services. OpenAI-Bestandskund*innen können sich hier bewerben.
Verschlüsselung mit kundenseitig verwalteten Schlüsseln (Customer-Managed Key, CMK) CMK bietet Kunden eine bessere Kontrolle über die Verwaltung ihrer Daten in Azure OpenAI, indem sie ihre eigenen Verschlüsselungsschlüssel bereitstellen, die für die Speicherung von Trainingsdaten und angepassten Modellen verwendet werden. Kundenseitig verwaltete Schlüssel (Customer-Managed Keys, CMK) werden auch als Bring Your Own Key (BYOK) bezeichnet und bieten eine größere Flexibilität beim Erstellen, Rotieren, Deaktivieren und Widerrufen von Zugriffssteuerungen. Außerdem können Sie die zum Schutz Ihrer Daten verwendeten Verschlüsselungsschlüssel überwachen. Weitere Informationen finden Sie in unserer Dokumentation zur Verschlüsselung ruhender Daten.
Lockboxunterstützung
Konformität mit SOC-2
Protokollierung und Diagnose über Azure Resource Health, Kostenanalyse und die Metrik- und Diagnoseeinstellungen.
Verbesserungen bei Studio. Zahlreiche Verbesserungen der Benutzerfreundlichkeit beim Studio-Workflow, einschließlich der Unterstützung für Azure AD-Rollen, um zu steuern, wer im Team Zugriff auf die Erstellung von optimierten Modellen und die Bereitstellung hat.
Änderungen (Breaking Changes)
Die Optimierung bei der Erstellung von API-Anforderungen wurde aktualisiert, um sie dem Schema von OpenAI anzugleichen.
API-Vorschauversionen:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
API-Version 2022-12-01:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
Die Inhaltsfilterung wurde standardmäßig vorübergehend deaktiviert. Die Inhaltsmoderation von Azure funktioniert anders als bei Azure OpenAI. Azure OpenAI führt während des Generierungsaufrufs Inhaltsfilter aus, um schädliche oder missbräuchliche Inhalte zu erkennen und aus der Antwort herauszufiltern. Weitere Informationen
Diese Modelle werden im 1. Quartal 2023 wieder aktiviert und bleiben dann standardmäßig aktiviert.
Kundenaktionen
- Wenden Sie sich an den Azure-Support, wenn Sie möchten, dass sie für Ihr Abonnement aktiviert werden.
- Beantragen Sie Filteränderungen, wenn Sie möchten, dass sie deaktiviert bleiben. (Diese Option gilt nur für Anwendungsfälle mit geringem Risiko.)
Nächste Schritte
Erfahren Sie mehr über die zugrunde liegenden Modelle, auf denen Azure OpenAI basiert.