Azure OpenAI Service-Modelle
Azure OpenAI Service basiert auf einer Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Die Modellverfügbarkeit variiert je nach Region und Cloud. Informationen zur Verfügbarkeit des Azure Government-Modells finden Sie unter Azure Government OpenAI Service.
Modelle | Beschreibung |
---|---|
o1-Preview und o1-Mini | Modelle mit eingeschränktem Zugriff, die speziell für die Behandlung von Erläuterungen und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert wurden. |
GPT-4o und GPT-4o mini und GPT-4 Turbo | Die neuesten und leistungsstärksten Azure OpenAI-Modelle mit multimodalen Versionen, die sowohl Text als auch Bilder als Eingabe akzeptieren. |
GPT-4o-Realtime-Preview | Ein GPT-4o-Modell, das Unterhaltungsinteraktionen mit Sprachein- und -ausgabe mit geringer Latenz unterstützt. |
GPT-4 | Eine Reihe von Modellen, die GPT-3.5 verbessern und natürliche Sprache sowie Code verstehen und generieren können. |
GPT-3.5 | Eine Reihe von Modellen, die GPT-3 verbessern und natürliche Sprache sowie Code verstehen und generieren können. |
Einbettungen | Eine Reihe von Modellen, die Text in numerische Vektorform konvertieren können, um die Textähnlichkeit zu erleichtern. |
DALL-E | Eine Reihe von Modellen, die Originalbilder aus natürlicher Sprache generieren können. |
Whisper | Eine Reihe von Modellen in der Vorschau, die Sprache transkribieren und in Text übersetzen können. |
Sprachsynthese (Vorschau) | Eine Reihe von Modellen in der Vorschau, die Text in Sprache synthetisieren können. |
Eingeschränkter Zugriff auf o1-preview- und o1-mini-Modelle
Die Azure OpenAI-Modelle o1-preview
und o1-mini
sind speziell für die Behandlung von Erläuterungen und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert. Diese Modelle verbringen mehr Zeit damit, die Anforderung eines Benutzers zu verarbeiten und zu verstehen, sodass sie im Vergleich zu früheren Iterationen außergewöhnlich stark in Bereichen wie Wissenschaft, Codierung und Mathematik sind.
Modell-ID | Beschreibung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|
o1-preview (2024-09-12) |
Das fähigste Modell in der o1-Serie, das erweiterte Fähigkeiten für logisches Denken bietet. | Eingabe: 128.000 Ausgabe: 32.768 |
Oktober 2023 |
o1-mini (2024-09-12) |
Eine schnellere und kostengünstigere Option in der o1-Serie, ideal für das Programmieren von Vorgängen, die höhere Geschwindigkeit und geringeren Ressourcenverbrauch erfordern. | Eingabe: 128.000 Ausgabe: 65.536 |
Oktober 2023 |
Verfügbarkeit
Das o1-preview
- und o1-mini
-Modell sind jetzt für API-Zugriff und Modellimplementierung verfügbar. Es ist eine Registrierung erforderlich, und der Zugriff wird basierend auf den Berechtigungskriterien von Microsoft gewährt.
Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff
Nachdem der Zugriff gewährt wurde, müssen Sie eine Bereitstellung für jedes Modell erstellen.
API-Unterstützung
Unterstützung für die Modelle der o1-Serie wurde in der API-Version 2024-09-01-preview
hinzugefügt.
Der max_tokens
-Parameter ist veraltet und wurde durch den neuen max_completion_tokens
-Parameter ersetzt. Modelle der o1-Serie funktionieren nur mit dem max_completion_tokens
-Parameter.
Verbrauch
Diese Modelle unterstützen derzeit nicht denselben Satz von Parametern wie andere Modelle, welche die Chatabschluss-API verwenden. Derzeit wird nur eine sehr begrenzte Teilmenge unterstützt, sodass allgemeine Parameter wie temperature
, top_p
nicht verfügbar sind und dies dazu führt, dass Ihre Anforderung fehlschlägt. o1-preview
- und o1-mini
-Modelle akzeptieren auch die Systemmeldungsrolle nicht als Teil des Nachrichtenarrays.
Möglicherweise müssen Sie Ihre Version der OpenAI Python-Bibliothek aktualisieren, um den neuen max_completion_tokens
-Parameter zu nutzen.
pip install openai --upgrade
Wenn Sie mit der Verwendung von Microsoft Entra ID für die Authentifizierung noch nicht vertraut sind, lesen Sie Konfigurieren von Azure OpenAI Service mit Microsoft Entra ID-Authentifizierung.
from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_ad_token_provider=token_provider,
api_version="2024-09-01-preview"
)
response = client.chat.completions.create(
model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
messages=[
{"role": "user", "content": "What steps should I think about when writing my first Python API?"},
],
max_completion_tokens = 5000
)
print(response.model_dump_json(indent=2))
Regionale Verfügbarkeit
Verfügbar für Standard- und globale Standardbereitstellungen in USA, Osten, USA, Osten2, USA, Norden-Mitte, USA, Süden-Mitte, Schweden, Mitte, USA, Westen und USA, Westen3 für berechtigte Kundenkonten.
GPT-4o-Realtime-Preview
Das gpt-4o-realtime-preview
-Modell ist Teil der GPT-4o-Modellfamilie und unterstützt Unterhaltungsinteraktionen mit Sprachein- und -ausgabe mit geringer Latenz. GPT-4o-Audio wurde entwickelt, um Unterhaltungsinteraktionen mit geringer Latenz in Echtzeit zu verarbeiten, sodass es für Supportmitarbeiter, Assistenten, Übersetzer und andere Anwendungsfälle, die eine hohe Interaktivität mit dem Benutzer haben, geeignet ist.
GPT-4o-Audio ist in den Regionen East US 2 (eastus2
) und Schweden, Mitte (swedencentral
) verfügbar. Um GPT-4o-Audio zu verwenden, müssen Sie eine vorhandene Ressource in einer der unterstützten Regionen erstellen oder verwenden.
Wenn Ihre Ressource erstellt ist, können Sie das GPT-4o-Audiomodell bereitstellen. Wenn Sie eine programmgesteuerte Bereitstellung durchführen, ist der Modellname gpt-4o-realtime-preview
. Weitere Informationen zur Verwendung von GPT-4o-Audio finden Sie in der GPT-4o-Audiodokumentation.
Details zu maximalen Anforderungstoken und Trainingsdaten sind in der folgenden Tabelle verfügbar.
Modell-ID | Beschreibung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|
gpt-4o-realtime-preview (2024-10-01-Preview) GPT-4o-Audio |
Audiomodell für die Echtzeitaudioverarbeitung | Eingabe: 128.000 Ausgabe: 4.096 |
Oktober 2023 |
GPT-4o und GPT-4 Turbo
GPT-4o integriert Text und Bilder in einem einzelnen Modell, sodass mehrere Datentypen gleichzeitig verarbeitet werden können. Dieser multimodale Ansatz verbessert die Genauigkeit und Reaktionsfähigkeit bei Interaktionen zwischen Mensch und Computer. GPT-4o entspricht GPT-4 Turbo bei Text- und Codierungsaufgaben in englischer Sprache und bietet eine überlegene Leistung in anderen Sprachen und Visionsaufgaben, wobei neue Benchmarks für KI-Funktionen erreicht werden.
Wie greife ich auf die Modelle „GPT-4o2“ und „GPT-4o mini“ zu?
GPT-4o und GPT-4o mini sind für die Modellimplementierung vom Typ standard und global-standard verfügbar.
Sie müssen eine Ressource in einer unterstützten Standard- oder globalen Standardregion, in der das Modell verfügbar ist, erstellen oder eine dort vorhandene Ressource verwenden.
Wenn Ihre Ressource erstellt wird, können Sie die GPT-4o-Modelle bereitstellen. Wenn Sie eine programmgesteuerte Bereitstellung durchführen, lauten die Modellnamen wie folgt:
gpt-4o
Version2024-08-06
gpt-4o
, Version2024-05-13
gpt-4o-mini
Version2024-07-18
GPT-4 Turbo
GPT-4 Turbo ist ein großes multimodales Modell, das Text- oder Bildeingaben akzeptiert und Text generiert sowie schwierige Probleme mit höherer Genauigkeit als alle früheren Modelle von OpenAI lösen kann. Wie GPT-3.5 Turbo und ältere GPT-4-Modelle ist GPT-4 Turbo für Chats optimiert und eignet sich gut für gängige Vervollständigungsaufgaben.
Das neueste GA-Release (Allgemeine Verfügbarkeit) von GPT-4 Turbo ist:
gpt-4
Version:turbo-2024-04-09
Es ersetzt die folgenden Vorschaumodelle:
gpt-4
Version:1106-Preview
gpt-4
Version:0125-Preview
gpt-4
Version:vision-preview
Unterschiede zwischen den allgemein verfügbaren Modellen OpenAI und Azure OpenAI GPT-4 Turbo
- Die Version des neuesten
0409
Turbo-Modells von OpenAI unterstützt den JSON-Modus und Funktionsaufrufe für alle Rückschlussanforderungen. - Die neueste
turbo-2024-04-09
Version von Azure OpenAI unterstützt derzeit nicht die Verwendung des JSON-Modus und keine Funktionsaufrufe beim Durchführen von Rückschlussanforderungen mit Bildeingaben (Vision). Textbasierte Eingabeanforderungen (Anforderungen ohneimage_url
und Inlinebilder) unterstützen den JSON-Modus und Funktionsaufrufe.
Unterschiede zu gpt-4 vision-preview
- Die Integration von Azure KI-spezifischen Vision-Erweiterungen mit GPT-4 Turbo mit Vision wird nicht unterstützt für
gpt-4
Version:turbo-2024-04-09
. Dazu gehören optische Zeichenerkennung (Optical Character Recognition, OCR), Objektgrounding, Videoprompts und eine verbesserte Verarbeitung Ihrer Daten mit Bildern.
Wichtig
Previewfunktionen für Vision-Verbesserungen, einschließlich optischer Zeichenerkennung (Optical Character Recognition, OCR), Objekterdung und Videoeingabeaufforderungen werden eingestellt werden und nicht mehr verfügbar sein, sobald für die gpt-4
-Version vision-preview
ein Upgrade auf turbo-2024-04-09
durchgeführt wird. Wenn Sie sich derzeit auf eine dieser Previewfunktionen verlassen, wird dieses automatische Modellupgrade ein Breaking Change sein.
GPT-4 Turbo bereitgestellte verwaltete Verfügbarkeit
gpt-4
Version:turbo-2024-04-09
ist sowohl für Standard- als auch für bereitgestellte Implementierungen verfügbar. Derzeit unterstützt die bereitgestellte Version dieses Modells keine Bild-/Vision-Anforderungen für Rückschlüsse. Bereitgestellte Implementierungen dieses Modells akzeptieren nur Texteingaben. Standardmodellimplementierungen akzeptieren sowohl Text- als auch Bild-/Vision-Anforderungen für Rückschlüsse.
Bereitstellen von GPT-4 Turbo mit Vision GA
Um das GA-Modell über die Studio-Benutzeroberfläche bereitzustellen, wählen Sie GPT-4
und dann die Version turbo-2024-04-09
im Dropdownmenü aus. Das Standardkontingent für das gpt-4-turbo-2024-04-09
-Modell entspricht dem aktuellen Kontingent für GPT-4-Turbo. Weitere Informationen finden Sie in den regionalen Kontingentbeschränkungen.
GPT-4
GPT-4 ist der Vorgänger von GPT-4 Turbo. Sowohl für GPT-4- als auch für GPT-4 Turbo-Modelle lautet der Basismodellname gpt-4
. Sie können die Modellversion verwenden, um zwischen GPT-4- und Turbo-Modellen zu unterscheiden.
gpt-4
Version0314
gpt-4
Version0613
gpt-4-32k
Version0613
Sie können die Tokenkontextlänge, die von jedem Modell unterstützt wird, in der Modellzusammenfassungstabelle sehen.
GPT-4- und GPT-4 Turbo-Modelle
- Diese Modelle können nur mit der Chatvervollständigungs-API verwendet werden.
In Modellversionen erfahren Sie, wie Azure OpenAI Service Modellversionsupgrades verarbeitet, und Arbeiten mit Modellen, um zu erfahren, wie Sie die Modellversionseinstellungen Ihrer GPT-4-Bereitstellungen anzeigen und konfigurieren.
Modell-ID | Beschreibung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|
gpt-4o (2024-08-06) GPT-4o (Omni) |
Neues allgemein verfügbares großes Modell - Strukturierte Ausgaben – Text, Bildverarbeitung - JSON-Modus - Paralleler Funktionsaufruf – Höhere Genauigkeit und Reaktionsfähigkeit – Parity mit englischen Text- und Codierungsaufgaben im Vergleich zu GPT-4 Turbo mit Vision – Überlegene Leistung in nicht englischen Sprachen und in Visionsaufgaben |
Eingabe: 128.000 Ausgabe: 16.384 |
Oktober 2023 |
gpt-4o-mini (2024-07-18) GPT-4o mini |
Neuestes allgemein verfügbares kleines Modell - Schnelles, kostengünstiges, leistungsfähiges Modell ideal zum Ersetzen von Modellen der GPT-3.5 Turbo-Serie – Text, Bildverarbeitung - JSON-Modus - Paralleler Funktionsaufruf |
Eingabe: 128.000 Ausgabe: 16.384 |
Oktober 2023 |
gpt-4o (2024-05-13) GPT-4o (Omni) |
Text, Bildverarbeitung - JSON-Modus - Paralleler Funktionsaufruf – Höhere Genauigkeit und Reaktionsfähigkeit – Parity mit englischen Text- und Codierungsaufgaben im Vergleich zu GPT-4 Turbo mit Vision – Überlegene Leistung in nicht englischen Sprachen und in Visionsaufgaben |
Eingabe: 128.000 Ausgabe: 4.096 |
Oktober 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo mit Vision |
Neues GA-Modell – Ersatz für alle vorherigen GPT-4-Vorschaumodelle ( vision-preview , 1106-Preview , 0125-Preview ) - Die Verfügbarkeit von Features unterscheidet sich derzeit je nach Eingabemethode und Bereitstellungstyp. |
Eingabe: 128.000 Ausgabe: 4.096 |
Dez. 2023 |
gpt-4 (0125-Preview)*GPT-4 Turbo-Preview |
Vorschaumodell -Ersetzt 1106-Preview - Bessere Leistung bei der Codegenerierung - Reduziert Fälle, in denen das Modell keine Aufgabe abgeschlossen hat - JSON-Modus - Paralleler Funktionsaufruf - reproduzierbare Ausgabe (Vorschau) |
Eingabe: 128.000 Ausgabe: 4.096 |
Dez. 2023 |
gpt-4 (vision-preview)GPT-4 Turbo mit Vision-Vorschau |
Vorschaumodell - Akzeptiert Text- und Bildeingaben. - Unterstützt Verbesserungen - JSON-Modus - Paralleler Funktionsaufruf - reproduzierbare Ausgabe (Vorschau) |
Eingabe: 128.000 Ausgabe: 4.096 |
Apr 2023 |
gpt-4 (1106-Vorschau)GPT-4 Turbo-Preview |
Vorschaumodell - JSON-Modus - Paralleler Funktionsaufruf - reproduzierbare Ausgabe (Vorschau) |
Eingabe: 128.000 Ausgabe: 4.096 |
Apr 2023 |
gpt-4-32k (0613) |
Älteres GA-Modell - Grundlegende Funktionsaufrufe mit Tools |
32,768 | September 2021 |
gpt-4 (0613) |
Älteres GA-Modell - Grundlegende Funktionsaufrufe mit Tools |
8\.192 | September 2021 |
gpt-4-32k (0314) |
Älteres GA-Modell - Informationen zur Ausmusterung |
32,768 | September 2021 |
gpt-4 (0314) |
Älteres GA-Modell - Informationen zur Ausmusterung |
8\.192 | September 2021 |
Achtung
Es wird nicht empfohlen, Vorschaumodelle in der Produktion zu verwenden. Wir werden alle Bereitstellungen von Vorschaumodellen entweder auf zukünftige Vorschauversionen oder auf die neueste stabile/GA-Version aktualisieren. Modelle, die als Vorschau bezeichnet wurden, entsprechen nicht dem standardmäßigen Azure OpenAI-Modelllebenszyklus.
- GPT-4 Version 0125-preview ist eine aktualisierte Version der GPT-4 Turbo Preview, die zuvor als Version 1106-preview veröffentlicht wurde.
- GPT-4 Version 0125-preview erledigt Aufgaben wie die Codegenerierung vollständiger als die Version gpt-4-1106-preview. Je nach Aufgabe stellen Kund*innen möglicherweise fest, dass GPT-4-0125-preview im Vergleich zur gpt-4-1106-preview mehr Ausgaben generiert. Wir empfehlen Kund*innen, die Ausgaben des neuen Modells zu vergleichen. GPT-4-0125-preview behebt auch Fehler von gpt-4-1106-preview mit UTF-8-Behandlung für nicht englische Sprachen.
- GPT-4 Version
turbo-2024-04-09
ist das neueste GA-Release und ersetzt0125-Preview
,1106-preview
undvision-preview
.
Wichtig
Die GPT-4 (gpt-4
)-Versionen 1106-Preview
, 0125-Preview
und vision-preview
werden in Zukunft mit einer stabilen Version von gpt-4
aktualisiert.
- Bereitstellungen der
gpt-4
-Versionen1106-Preview
,0125-Preview
undvision-preview
werden auf „Automatisches Update auf Standard“ festgelegt, und „Upgrade nach Ablauf“ wird gestartet, nachdem die stabile Version veröffentlicht wurde. Für jede Bereitstellung erfolgt ein Upgrade der Modellversion ohne Unterbrechung des Diensts für API-Aufrufe. Upgrades werden nach Region gestaffelt, und der gesamte Upgradevorgang wird voraussichtlich 2 Wochen dauern. - Bereitstellungen der
gpt-4
-Versionen1106-Preview
,0125-Preview
undvision-preview
, die auf „Kein Autoupgrade“ festgelegt sind, werden nicht aktualisiert und werden nicht mehr ausgeführt, wenn die Vorschauversion in der Region aktualisiert wird. Weitere Informationen zum Zeitpunkt des Upgrades finden Sie unter Eingestellte und veraltete Azure OpenAI-Modelle.
GPT-3.5
GPT-3.5-Modelle können natürliche Sprache oder Code verstehen und generieren. Das leistungsfähigste und kostengünstigste Modell in der GPT-3.5-Familie ist GPT-3.5 Turbo, das für den Chat optimiert wurde und auch für herkömmliche Vervollständigungsaufgaben gut geeignet ist. GPT-3.5 Turbo ist für die Verwendung mit der Chatvervollständigungs-API verfügbar. GPT-3.5 Turbo Instruct verfügt über ähnliche Funktionen wie text-davinci-003
und nutzt die Vervollständigungs-API anstelle der Chatvervollständigungs-API. Es wird empfohlen, GPT-3.5 Turbo und GPT-3.5 Turbo Instruct anstatt der älteren GPT-3.5- und GPT-3.5-Modelle zu verwenden.
Modell-ID | Beschreibung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|
gpt-35-turbo (0125) NEU |
Neuestes GA-Modell - JSON-Modus - Paralleler Funktionsaufruf - reproduzierbare Ausgabe (Vorschau) - Höhere Genauigkeit bei der Reaktion in angeforderten Formaten. - Behebung eines Fehlers, der zu einem Textcodierungsproblem bei Nicht-Englisch-Funktionsaufrufen führte. |
Eingabe: 16.385 Ausgabe: 4.096 |
September 2021 |
gpt-35-turbo (1106) |
Älteres GA-Modell - JSON-Modus - Paralleler Funktionsaufruf - reproduzierbare Ausgabe (Vorschau) |
Eingabe: 16.385 Ausgabe: 4.096 |
September 2021 |
gpt-35-turbo-instruct (0914) |
Nur Endpunkt für Abschlüsse – Ersatz für Legacy-Vervollständigungsmodelle |
4.097 | September 2021 |
gpt-35-turbo-16k (0613) |
Älteres GA-Modell - Grundlegende Funktionsaufrufe mit Tools |
16.384 | September 2021 |
gpt-35-turbo (0613) |
Älteres GA-Modell - Grundlegende Funktionsaufrufe mit Tools |
4\.096 | September 2021 |
gpt-35-turbo 1 (0301) |
Älteres GA-Modell - Informationen zur Ausmusterung |
4\.096 | September 2021 |
Weitere Informationen zu GPT-3.5 Turbo und zur Chatvervollständigungs-API finden Sie in unserer ausführlichen Anleitung.
1 Dieses Modell akzeptiert Anforderungen von mehr als 4.096 Token. Es wird nicht empfohlen, den Grenzwert von 4.096 Eingabetoken zu überschreiten, da die neuere Version des Modells auf 4.096 Token begrenzt ist. Wenn bei diesem Modell 4.096 Eingabetoken überschritten werden und Probleme auftreten, ist zu beachten, dass diese Konfiguration nicht offiziell unterstützt wird.
Einbettungen
text-embedding-3-large
ist das neueste und leistungsfähigste Einbettungsmodell. Das Upgrade zwischen Einbettungsmodellen ist nicht möglich. Um von text-embedding-ada-002
zu text-embedding-3-large
zu wechseln, müssen Sie neue Einbettungen generieren.
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002
In Tests berichtet OpenAI, dass sowohl das große als auch das kleine Einbettungsmodell der dritten Generation eine bessere durchschnittliche Leistung beim Abruf mehrerer Sprachen mit der MIRACL-Benchmark bietet, während die Leistung für englische Aufgaben mit der MTEB-Benchmark aufrechterhalten bleibt.
Bewertungsbenchmark | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
---|---|---|---|
MIRACL-Durchschnitt | 31,4 | 44,0 | 54.9 |
MTEB-Durchschnitt | 61.0 | 62,3 | 64,6 |
Die Einbettungsmodelle der dritten Generation unterstützen die Reduzierung der Einbettungsgröße über einen neuen dimensions
-Parameter. In der Regel sind größere Einbettungen aus Compute-, Arbeitsspeicher- und Speicherperspektive teurer. Die Möglichkeit, die Anzahl der Dimensionen anzupassen, ermöglicht eine bessere Kontrolle über die Gesamtkosten und die Leistung. Der Parameter dimensions
wird nicht in allen Versionen der OpenAI 1.x-Python-Bibliothek unterstützt. Um diesen Parameter zu nutzen, empfehlen wir ein Upgrade auf die neueste Version: pip install openai --upgrade
.
Bei den MTEB-Benchmarktests von OpenAI wurde festgestellt, dass die Leistung des Modells der dritten Generation auch dann noch geringfügig besser ist, wenn die Dimensionen auf weniger als 1.536 Dimensionen für text-embeddings-ada-002
reduziert werden.
DALL-E
Die DALL-E-Modelle generieren Bilder aus Textprompts, die der Benutzer bereitstellt. DALL-E 3 ist allgemein verfügbar für die Verwendung mit den REST-APIs. DALL-E 2 und DALL-E 3 mit Client-SDKs befinden sich in der Vorschau.
Whisper
Die Whisper-Modelle können für Spracherkennung verwendet werden.
Sie können das Whisper-Modell auch über die API Batch-Transkription von Azure AI Speech verwenden. Im Artikel Was ist das Whisper-Modell? erfahren Sie mehr darüber, wann Azure KI Speech bzw. wann Azure OpenAI Service verwendet werden sollte.
Sprachsynthese (Vorschau)
Der OpenAI-Sprachsynthesemodelle, die sich derzeit in der Vorschau befinden, können verwendet werden, um Text in Sprache zu synthetisieren.
Sie können den OpenAI-Stimmen für die Sprachsynthese über Azure KI Speech verwenden. Weitere Informationen finden Sie im Leitfaden OpenAI-Stimmen für die Sprachsynthese über Azure OpenAI Service oder über Azure KI Speech.
Tabelle mit Modellzusammenfassung und Regionsverfügbarkeit
Modelle nach Bereitstellungstyp
Azure OpenAI bietet Kunden Auswahlmöglichkeiten bei der Hostingstruktur, die ihren Geschäfts- und Nutzungsmustern entspricht. Der Dienst bietet zwei Haupttypen der Bereitstellung:
- Standard wird mit einer globalen Bereitstellungsoption angeboten und leitet den Datenverkehr global weiter, um einen höheren Durchsatz zu bieten.
- Bereitgestellt wird ebenfalls mit einer globalen Bereitstellungsoption angeboten, sodass Kunden bereitgestellte Durchsatzeinheiten in der globalen Azure-Infrastruktur erwerben und bereitstellen können.
Alle Bereitstellungen können dieselben Rückschlussvorgänge ausführen, Abrechnung, Skalierung und Leistung unterscheiden sich jedoch erheblich. Weitere Informationen zu Azure OpenAI-Bereitstellungstypen finden Sie in unserer Anleitung zu Bereitstellungstypen.
- Globaler Standard
- Global bereitgestellt-Verwaltet
- Globaler Batch
- Data Zone Standard
- Standard
- Bereitgestellt-Verwaltet
Verfügbarkeit des globalen Standardmodells
Region | o1-Preview, 2024-09-12 | o1-Mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4o-Realtime-Preview, 2024-10-01 | gpt-4, turbo-2024-04-09 |
---|---|---|---|---|---|---|---|
australiaeast | - | - | ✅ | - | ✅ | - | ✅ |
brazilsouth | - | - | ✅ | - | ✅ | - | ✅ |
canadaeast | - | - | ✅ | - | ✅ | - | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
francecentral | - | - | ✅ | - | ✅ | - | ✅ |
germanywestcentral | - | - | ✅ | - | ✅ | - | ✅ |
japaneast | - | - | ✅ | - | ✅ | - | ✅ |
koreacentral | - | - | ✅ | - | ✅ | - | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
norwayeast | - | - | ✅ | - | ✅ | - | ✅ |
polandcentral | - | - | ✅ | - | ✅ | - | ✅ |
southafricanorth | - | - | ✅ | - | ✅ | - | ✅ |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
southindia | - | - | ✅ | - | ✅ | - | ✅ |
spaincentral | - | - | ✅ | ✅ | ✅ | - | ✅ |
swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
switzerlandnorth | - | - | ✅ | - | ✅ | - | ✅ |
uaenorth | - | - | ✅ | - | ✅ | - | ✅ |
uksouth | - | - | ✅ | - | ✅ | - | ✅ |
westeurope | - | - | ✅ | - | ✅ | - | ✅ |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
Diese Tabelle enthält keine Feinabstimmung der regionalen Verfügbarkeitsinformationen. Weitere Informationen finden Sie im Abschnitt Feinabstimmung.
Standardmodelle nach Endpunkt
Chatvervollständigungen
Region | o1-Preview, 2024-09-12 | o1-Mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Preview | gpt-4, 0125-Preview | gpt-4, vision-preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0301 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | - | - | - | - | - | ✅ | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ |
canadaeast | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
francecentral | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | - | ✅ |
japaneast | - | - | - | - | - | - | - | - | ✅ | - | - | - | ✅ | - | ✅ | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
norwayeast | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | - | - | - |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ | - |
southindia | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | ✅ | - | - |
swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
switzerlandnorth | - | - | - | - | - | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ |
uksouth | - | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | ✅ |
westeurope | - | - | - | - | - | - | - | - | - | - | - | ✅ | - | - | - | - |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | ✅ | ✅ | - | - | - | ✅ | ✅ | - |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | - | - | ✅ | - |
GPT-4- und GPT-4 Turbo-Modellverfügbarkeit
Kundenzugriff auswählen
Zusätzlich zu den oben genannten Regionen, die allen Azure OpenAI-Kunden zur Verfügung stehen, wurden einigen ausgewählten bereits bestehenden Kunden in zusätzlichen Regionen Zugriff auf Versionen von GPT-4 gewährt:
Modell | Region |
---|---|
gpt-4 (0314) gpt-4-32k (0314) |
East US Frankreich, Mitte USA Süd Mitte UK, Süden |
gpt-4 (0613) gpt-4-32k (0613) |
East US USA (Ost) 2 Japan, Osten UK, Süden |
GPT-3.5-Modelle
In Modellversionen erfahren Sie, wie Azure OpenAI Service Modellversionsupgrades verarbeitet, und Arbeiten mit Modellen, um zu erfahren, wie Sie die Modellversionseinstellungen Ihrer GPT-3.5 Turbo-Bereitstellungen anzeigen und konfigurieren.
Optimierung von Modellen
Hinweis
gpt-35-turbo
– Die Feinabstimmung dieses Modells ist auf eine Teilmenge von Regionen beschränkt und ist nicht in allen Regionen, in denen das Basismodell verfügbar ist, verfügbar.
Die unterstützten Regionen für die Feinabstimmung können variieren, wenn Sie Azure OpenAI-Modelle in einem KI Studio-Projekt im Vergleich zu außerhalb eines Projekts verwenden.
Modell-ID | Regionen mit Feinabstimmung | Maximale Anforderung (Token) | Trainingsdaten (bis) |
---|---|---|---|
babbage-002 |
USA Nord Mitte Schweden, Mitte Schweiz, Westen |
16.384 | September 2021 |
davinci-002 |
USA Nord Mitte Schweden, Mitte Schweiz, Westen |
16.384 | September 2021 |
gpt-35-turbo (0613) |
USA (Ost 2) USA Nord Mitte Schweden, Mitte Schweiz, Westen |
4\.096 | September 2021 |
gpt-35-turbo (1106) |
USA (Ost 2) USA Nord Mitte Schweden, Mitte Schweiz, Westen |
Eingabe: 16.385 Ausgabe: 4.096 |
September 2021 |
gpt-35-turbo (0125) |
USA (Ost 2) USA Nord Mitte Schweden, Mitte Schweiz, Westen |
16.385 | September 2021 |
gpt-4 (0613) 1 |
USA Nord Mitte Schweden, Mitte |
8192 | September 2021 |
gpt-4o-mini (2024-07-18) |
USA Nord Mitte Schweden, Mitte |
Eingabe: 128.000 Ausgabe: 16.384 Kontextlänge im Beispieltraining: 64.536 |
Oktober 2023 |
gpt-4o (2024-08-06) |
USA (Ost 2) USA Nord Mitte Schweden, Mitte |
Eingabe: 128.000 Ausgabe: 16.384 Kontextlänge im Beispieltraining: 64.536 |
Oktober 2023 |
1 GPT-4 befindet sich derzeit in der öffentlichen Vorschau.
Assistants (Vorschau)
Für Assistants benötigen Sie eine Kombination aus einem unterstützten Modell und einer unterstützten Region. Für bestimmte Tools und Funktionen sind die neuesten Modelle erforderlich. Die folgenden Modelle sind in der Assistants-API, im SDK und in Azure KI Studio verfügbar. Die folgende Tabelle ist für die nutzungsbasierte Bezahlung. Informationen zur Verfügbarkeit der bereitgestellten Durchsatzeinheit (PTU) finden Sie unter bereitgestellten Durchsatz. Die aufgeführten Modelle und Regionen können sowohl mit v1 als auch v2 des Assistenten verwendet werden. Sie können globalen Standardmodelle verwenden, wenn sie in den unten aufgeführten Regionen unterstützt werden.
Region | gpt-35-turbo (0613) |
gpt-35-turbo (1106) |
fine tuned gpt-3.5-turbo-0125 |
gpt-4 (0613) |
gpt-4 (1106) |
gpt-4 (0125) |
gpt-4o (2024-05-13) |
gpt-4o-mini (2024-07-18) |
---|---|---|---|---|---|---|---|---|
Australien (Osten) | ✅ | ✅ | ✅ | ✅ | ||||
East US | ✅ | ✅ | ✅ | ✅ | ||||
USA (Ost) 2 | ✅ | ✅ | ✅ | ✅ | ✅ | |||
Frankreich, Mitte | ✅ | ✅ | ✅ | ✅ | ||||
Japan, Osten | ✅ | |||||||
Norwegen, Osten | ✅ | |||||||
Schweden, Mitte | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
UK, Süden | ✅ | ✅ | ✅ | ✅ | ||||
USA (Westen) | ✅ | ✅ | ✅ | |||||
USA, Westen 3 | ✅ | ✅ |
Modelldeaktivierung
Die neuesten Informationen zur Modelldeaktivierung finden Sie im Leitfaden zur Modelldeaktivierung.