Freigeben über


Azure OpenAI Service-Modelle

Azure OpenAI Service basiert auf einer Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Die Modellverfügbarkeit variiert je nach Region und Cloud. Informationen zur Verfügbarkeit des Azure Government-Modells finden Sie unter Azure Government OpenAI Service.

Modelle Beschreibung
o1-Preview und o1-Mini Modelle mit eingeschränktem Zugriff, die speziell für die Behandlung von Erläuterungen und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert wurden.
GPT-4o und GPT-4o mini und GPT-4 Turbo Die neuesten und leistungsstärksten Azure OpenAI-Modelle mit multimodalen Versionen, die sowohl Text als auch Bilder als Eingabe akzeptieren.
GPT-4o-Realtime-Preview Ein GPT-4o-Modell, das Unterhaltungsinteraktionen mit Sprachein- und -ausgabe mit geringer Latenz unterstützt.
GPT-4 Eine Reihe von Modellen, die GPT-3.5 verbessern und natürliche Sprache sowie Code verstehen und generieren können.
GPT-3.5 Eine Reihe von Modellen, die GPT-3 verbessern und natürliche Sprache sowie Code verstehen und generieren können.
Einbettungen Eine Reihe von Modellen, die Text in numerische Vektorform konvertieren können, um die Textähnlichkeit zu erleichtern.
DALL-E Eine Reihe von Modellen, die Originalbilder aus natürlicher Sprache generieren können.
Whisper Eine Reihe von Modellen in der Vorschau, die Sprache transkribieren und in Text übersetzen können.
Sprachsynthese (Vorschau) Eine Reihe von Modellen in der Vorschau, die Text in Sprache synthetisieren können.

Eingeschränkter Zugriff auf o1-preview- und o1-mini-Modelle

Die Azure OpenAI-Modelle o1-preview und o1-mini sind speziell für die Behandlung von Erläuterungen und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert. Diese Modelle verbringen mehr Zeit damit, die Anforderung eines Benutzers zu verarbeiten und zu verstehen, sodass sie im Vergleich zu früheren Iterationen außergewöhnlich stark in Bereichen wie Wissenschaft, Codierung und Mathematik sind.

Modell-ID Beschreibung Maximale Anforderung (Token) Trainingsdaten (bis)
o1-preview (2024-09-12) Das fähigste Modell in der o1-Serie, das erweiterte Fähigkeiten für logisches Denken bietet. Eingabe: 128.000
Ausgabe: 32.768
Oktober 2023
o1-mini (2024-09-12) Eine schnellere und kostengünstigere Option in der o1-Serie, ideal für das Programmieren von Vorgängen, die höhere Geschwindigkeit und geringeren Ressourcenverbrauch erfordern. Eingabe: 128.000
Ausgabe: 65.536
Oktober 2023

Verfügbarkeit

Das o1-preview- und o1-mini-Modell sind jetzt für API-Zugriff und Modellimplementierung verfügbar. Es ist eine Registrierung erforderlich, und der Zugriff wird basierend auf den Berechtigungskriterien von Microsoft gewährt.

Anfordern des Zugriffs: Modellanwendung mit eingeschränktem Zugriff

Nachdem der Zugriff gewährt wurde, müssen Sie eine Bereitstellung für jedes Modell erstellen.

API-Unterstützung

Unterstützung für die Modelle der o1-Serie wurde in der API-Version 2024-09-01-previewhinzugefügt.

Der max_tokens-Parameter ist veraltet und wurde durch den neuen max_completion_tokens-Parameter ersetzt. Modelle der o1-Serie funktionieren nur mit dem max_completion_tokens-Parameter.

Verbrauch

Diese Modelle unterstützen derzeit nicht denselben Satz von Parametern wie andere Modelle, welche die Chatabschluss-API verwenden. Derzeit wird nur eine sehr begrenzte Teilmenge unterstützt, sodass allgemeine Parameter wie temperature, top_p nicht verfügbar sind und dies dazu führt, dass Ihre Anforderung fehlschlägt. o1-preview- und o1-mini-Modelle akzeptieren auch die Systemmeldungsrolle nicht als Teil des Nachrichtenarrays.

Möglicherweise müssen Sie Ihre Version der OpenAI Python-Bibliothek aktualisieren, um den neuen max_completion_tokens-Parameter zu nutzen.

pip install openai --upgrade

Wenn Sie mit der Verwendung von Microsoft Entra ID für die Authentifizierung noch nicht vertraut sind, lesen Sie Konfigurieren von Azure OpenAI Service mit Microsoft Entra ID-Authentifizierung.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Regionale Verfügbarkeit

Verfügbar für Standard- und globale Standardbereitstellungen in USA, Osten, USA, Osten2, USA, Norden-Mitte, USA, Süden-Mitte, Schweden, Mitte, USA, Westen und USA, Westen3 für berechtigte Kundenkonten.

GPT-4o-Realtime-Preview

Das gpt-4o-realtime-preview-Modell ist Teil der GPT-4o-Modellfamilie und unterstützt Unterhaltungsinteraktionen mit Sprachein- und -ausgabe mit geringer Latenz. GPT-4o-Audio wurde entwickelt, um Unterhaltungsinteraktionen mit geringer Latenz in Echtzeit zu verarbeiten, sodass es für Supportmitarbeiter, Assistenten, Übersetzer und andere Anwendungsfälle, die eine hohe Interaktivität mit dem Benutzer haben, geeignet ist.

GPT-4o-Audio ist in den Regionen East US 2 (eastus2) und Schweden, Mitte (swedencentral) verfügbar. Um GPT-4o-Audio zu verwenden, müssen Sie eine vorhandene Ressource in einer der unterstützten Regionen erstellen oder verwenden.

Wenn Ihre Ressource erstellt ist, können Sie das GPT-4o-Audiomodell bereitstellen. Wenn Sie eine programmgesteuerte Bereitstellung durchführen, ist der Modellname gpt-4o-realtime-preview. Weitere Informationen zur Verwendung von GPT-4o-Audio finden Sie in der GPT-4o-Audiodokumentation.

Details zu maximalen Anforderungstoken und Trainingsdaten sind in der folgenden Tabelle verfügbar.

Modell-ID Beschreibung Maximale Anforderung (Token) Trainingsdaten (bis)
gpt-4o-realtime-preview (2024-10-01-Preview)
GPT-4o-Audio
Audiomodell für die Echtzeitaudioverarbeitung Eingabe: 128.000
Ausgabe: 4.096
Oktober 2023

GPT-4o und GPT-4 Turbo

GPT-4o integriert Text und Bilder in einem einzelnen Modell, sodass mehrere Datentypen gleichzeitig verarbeitet werden können. Dieser multimodale Ansatz verbessert die Genauigkeit und Reaktionsfähigkeit bei Interaktionen zwischen Mensch und Computer. GPT-4o entspricht GPT-4 Turbo bei Text- und Codierungsaufgaben in englischer Sprache und bietet eine überlegene Leistung in anderen Sprachen und Visionsaufgaben, wobei neue Benchmarks für KI-Funktionen erreicht werden.

Wie greife ich auf die Modelle „GPT-4o2“ und „GPT-4o mini“ zu?

GPT-4o und GPT-4o mini sind für die Modellimplementierung vom Typ standard und global-standard verfügbar.

Sie müssen eine Ressource in einer unterstützten Standard- oder globalen Standardregion, in der das Modell verfügbar ist, erstellen oder eine dort vorhandene Ressource verwenden.

Wenn Ihre Ressource erstellt wird, können Sie die GPT-4o-Modelle bereitstellen. Wenn Sie eine programmgesteuerte Bereitstellung durchführen, lauten die Modellnamen wie folgt:

  • gpt-4o Version 2024-08-06
  • gpt-4o, Version 2024-05-13
  • gpt-4o-mini Version 2024-07-18

GPT-4 Turbo

GPT-4 Turbo ist ein großes multimodales Modell, das Text- oder Bildeingaben akzeptiert und Text generiert sowie schwierige Probleme mit höherer Genauigkeit als alle früheren Modelle von OpenAI lösen kann. Wie GPT-3.5 Turbo und ältere GPT-4-Modelle ist GPT-4 Turbo für Chats optimiert und eignet sich gut für gängige Vervollständigungsaufgaben.

Das neueste GA-Release (Allgemeine Verfügbarkeit) von GPT-4 Turbo ist:

  • gpt-4 Version: turbo-2024-04-09

Es ersetzt die folgenden Vorschaumodelle:

  • gpt-4 Version: 1106-Preview
  • gpt-4 Version: 0125-Preview
  • gpt-4 Version: vision-preview

Unterschiede zwischen den allgemein verfügbaren Modellen OpenAI und Azure OpenAI GPT-4 Turbo

  • Die Version des neuesten 0409 Turbo-Modells von OpenAI unterstützt den JSON-Modus und Funktionsaufrufe für alle Rückschlussanforderungen.
  • Die neueste turbo-2024-04-09 Version von Azure OpenAI unterstützt derzeit nicht die Verwendung des JSON-Modus und keine Funktionsaufrufe beim Durchführen von Rückschlussanforderungen mit Bildeingaben (Vision). Textbasierte Eingabeanforderungen (Anforderungen ohne image_url und Inlinebilder) unterstützen den JSON-Modus und Funktionsaufrufe.

Unterschiede zu gpt-4 vision-preview

  • Die Integration von Azure KI-spezifischen Vision-Erweiterungen mit GPT-4 Turbo mit Vision wird nicht unterstützt für gpt-4 Version: turbo-2024-04-09. Dazu gehören optische Zeichenerkennung (Optical Character Recognition, OCR), Objektgrounding, Videoprompts und eine verbesserte Verarbeitung Ihrer Daten mit Bildern.

Wichtig

Previewfunktionen für Vision-Verbesserungen, einschließlich optischer Zeichenerkennung (Optical Character Recognition, OCR), Objekterdung und Videoeingabeaufforderungen werden eingestellt werden und nicht mehr verfügbar sein, sobald für die gpt-4-Version vision-preview ein Upgrade auf turbo-2024-04-09 durchgeführt wird. Wenn Sie sich derzeit auf eine dieser Previewfunktionen verlassen, wird dieses automatische Modellupgrade ein Breaking Change sein.

GPT-4 Turbo bereitgestellte verwaltete Verfügbarkeit

  • gpt-4 Version: turbo-2024-04-09 ist sowohl für Standard- als auch für bereitgestellte Implementierungen verfügbar. Derzeit unterstützt die bereitgestellte Version dieses Modells keine Bild-/Vision-Anforderungen für Rückschlüsse. Bereitgestellte Implementierungen dieses Modells akzeptieren nur Texteingaben. Standardmodellimplementierungen akzeptieren sowohl Text- als auch Bild-/Vision-Anforderungen für Rückschlüsse.

Bereitstellen von GPT-4 Turbo mit Vision GA

Um das GA-Modell über die Studio-Benutzeroberfläche bereitzustellen, wählen Sie GPT-4 und dann die Version turbo-2024-04-09 im Dropdownmenü aus. Das Standardkontingent für das gpt-4-turbo-2024-04-09-Modell entspricht dem aktuellen Kontingent für GPT-4-Turbo. Weitere Informationen finden Sie in den regionalen Kontingentbeschränkungen.

GPT-4

GPT-4 ist der Vorgänger von GPT-4 Turbo. Sowohl für GPT-4- als auch für GPT-4 Turbo-Modelle lautet der Basismodellname gpt-4. Sie können die Modellversion verwenden, um zwischen GPT-4- und Turbo-Modellen zu unterscheiden.

  • gpt-4 Version 0314
  • gpt-4 Version 0613
  • gpt-4-32k Version 0613

Sie können die Tokenkontextlänge, die von jedem Modell unterstützt wird, in der Modellzusammenfassungstabelle sehen.

GPT-4- und GPT-4 Turbo-Modelle

  • Diese Modelle können nur mit der Chatvervollständigungs-API verwendet werden.

In Modellversionen erfahren Sie, wie Azure OpenAI Service Modellversionsupgrades verarbeitet, und Arbeiten mit Modellen, um zu erfahren, wie Sie die Modellversionseinstellungen Ihrer GPT-4-Bereitstellungen anzeigen und konfigurieren.

Modell-ID Beschreibung Maximale Anforderung (Token) Trainingsdaten (bis)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Neues allgemein verfügbares großes Modell
- Strukturierte Ausgaben
– Text, Bildverarbeitung
- JSON-Modus
- Paralleler Funktionsaufruf
– Höhere Genauigkeit und Reaktionsfähigkeit
– Parity mit englischen Text- und Codierungsaufgaben im Vergleich zu GPT-4 Turbo mit Vision
– Überlegene Leistung in nicht englischen Sprachen und in Visionsaufgaben
Eingabe: 128.000
Ausgabe: 16.384
Oktober 2023
gpt-4o-mini (2024-07-18)
GPT-4o mini
Neuestes allgemein verfügbares kleines Modell
- Schnelles, kostengünstiges, leistungsfähiges Modell ideal zum Ersetzen von Modellen der GPT-3.5 Turbo-Serie
– Text, Bildverarbeitung
- JSON-Modus
- Paralleler Funktionsaufruf
Eingabe: 128.000
Ausgabe: 16.384
Oktober 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
Text, Bildverarbeitung
- JSON-Modus
- Paralleler Funktionsaufruf
– Höhere Genauigkeit und Reaktionsfähigkeit
– Parity mit englischen Text- und Codierungsaufgaben im Vergleich zu GPT-4 Turbo mit Vision
– Überlegene Leistung in nicht englischen Sprachen und in Visionsaufgaben
Eingabe: 128.000
Ausgabe: 4.096
Oktober 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo mit Vision
Neues GA-Modell
– Ersatz für alle vorherigen GPT-4-Vorschaumodelle (vision-preview, 1106-Preview, 0125-Preview)
- Die Verfügbarkeit von Features unterscheidet sich derzeit je nach Eingabemethode und Bereitstellungstyp.
Eingabe: 128.000
Ausgabe: 4.096
Dez. 2023
gpt-4 (0125-Preview)*
GPT-4 Turbo-Preview
Vorschaumodell
-Ersetzt 1106-Preview
- Bessere Leistung bei der Codegenerierung
- Reduziert Fälle, in denen das Modell keine Aufgabe abgeschlossen hat
- JSON-Modus
- Paralleler Funktionsaufruf
- reproduzierbare Ausgabe (Vorschau)
Eingabe: 128.000
Ausgabe: 4.096
Dez. 2023
gpt-4 (vision-preview)
GPT-4 Turbo mit Vision-Vorschau
Vorschaumodell
- Akzeptiert Text- und Bildeingaben.
- Unterstützt Verbesserungen
- JSON-Modus
- Paralleler Funktionsaufruf
- reproduzierbare Ausgabe (Vorschau)
Eingabe: 128.000
Ausgabe: 4.096
Apr 2023
gpt-4 (1106-Vorschau)
GPT-4 Turbo-Preview
Vorschaumodell
- JSON-Modus
- Paralleler Funktionsaufruf
- reproduzierbare Ausgabe (Vorschau)
Eingabe: 128.000
Ausgabe: 4.096
Apr 2023
gpt-4-32k (0613) Älteres GA-Modell
- Grundlegende Funktionsaufrufe mit Tools
32,768 September 2021
gpt-4 (0613) Älteres GA-Modell
- Grundlegende Funktionsaufrufe mit Tools
8\.192 September 2021
gpt-4-32k(0314) Älteres GA-Modell
- Informationen zur Ausmusterung
32,768 September 2021
gpt-4 (0314) Älteres GA-Modell
- Informationen zur Ausmusterung
8\.192 September 2021

Achtung

Es wird nicht empfohlen, Vorschaumodelle in der Produktion zu verwenden. Wir werden alle Bereitstellungen von Vorschaumodellen entweder auf zukünftige Vorschauversionen oder auf die neueste stabile/GA-Version aktualisieren. Modelle, die als Vorschau bezeichnet wurden, entsprechen nicht dem standardmäßigen Azure OpenAI-Modelllebenszyklus.

  • GPT-4 Version 0125-preview ist eine aktualisierte Version der GPT-4 Turbo Preview, die zuvor als Version 1106-preview veröffentlicht wurde.
  • GPT-4 Version 0125-preview erledigt Aufgaben wie die Codegenerierung vollständiger als die Version gpt-4-1106-preview. Je nach Aufgabe stellen Kund*innen möglicherweise fest, dass GPT-4-0125-preview im Vergleich zur gpt-4-1106-preview mehr Ausgaben generiert. Wir empfehlen Kund*innen, die Ausgaben des neuen Modells zu vergleichen. GPT-4-0125-preview behebt auch Fehler von gpt-4-1106-preview mit UTF-8-Behandlung für nicht englische Sprachen.
  • GPT-4 Version turbo-2024-04-09 ist das neueste GA-Release und ersetzt 0125-Preview, 1106-preview und vision-preview.

Wichtig

Die GPT-4 (gpt-4)-Versionen 1106-Preview, 0125-Preview und vision-preview werden in Zukunft mit einer stabilen Version von gpt-4 aktualisiert.

  • Bereitstellungen der gpt-4-Versionen 1106-Preview, 0125-Preview und vision-preview werden auf „Automatisches Update auf Standard“ festgelegt, und „Upgrade nach Ablauf“ wird gestartet, nachdem die stabile Version veröffentlicht wurde. Für jede Bereitstellung erfolgt ein Upgrade der Modellversion ohne Unterbrechung des Diensts für API-Aufrufe. Upgrades werden nach Region gestaffelt, und der gesamte Upgradevorgang wird voraussichtlich 2 Wochen dauern.
  • Bereitstellungen der gpt-4-Versionen 1106-Preview, 0125-Preview und vision-preview, die auf „Kein Autoupgrade“ festgelegt sind, werden nicht aktualisiert und werden nicht mehr ausgeführt, wenn die Vorschauversion in der Region aktualisiert wird. Weitere Informationen zum Zeitpunkt des Upgrades finden Sie unter Eingestellte und veraltete Azure OpenAI-Modelle.

GPT-3.5

GPT-3.5-Modelle können natürliche Sprache oder Code verstehen und generieren. Das leistungsfähigste und kostengünstigste Modell in der GPT-3.5-Familie ist GPT-3.5 Turbo, das für den Chat optimiert wurde und auch für herkömmliche Vervollständigungsaufgaben gut geeignet ist. GPT-3.5 Turbo ist für die Verwendung mit der Chatvervollständigungs-API verfügbar. GPT-3.5 Turbo Instruct verfügt über ähnliche Funktionen wie text-davinci-003 und nutzt die Vervollständigungs-API anstelle der Chatvervollständigungs-API. Es wird empfohlen, GPT-3.5 Turbo und GPT-3.5 Turbo Instruct anstatt der älteren GPT-3.5- und GPT-3.5-Modelle zu verwenden.

Modell-ID Beschreibung Maximale Anforderung (Token) Trainingsdaten (bis)
gpt-35-turbo (0125) NEU Neuestes GA-Modell
- JSON-Modus
- Paralleler Funktionsaufruf
- reproduzierbare Ausgabe (Vorschau)
- Höhere Genauigkeit bei der Reaktion in angeforderten Formaten.
- Behebung eines Fehlers, der zu einem Textcodierungsproblem bei Nicht-Englisch-Funktionsaufrufen führte.
Eingabe: 16.385
Ausgabe: 4.096
September 2021
gpt-35-turbo (1106) Älteres GA-Modell
- JSON-Modus
- Paralleler Funktionsaufruf
- reproduzierbare Ausgabe (Vorschau)
Eingabe: 16.385
Ausgabe: 4.096
September 2021
gpt-35-turbo-instruct (0914) Nur Endpunkt für Abschlüsse
– Ersatz für Legacy-Vervollständigungsmodelle
4.097 September 2021
gpt-35-turbo-16k (0613) Älteres GA-Modell
- Grundlegende Funktionsaufrufe mit Tools
16.384 September 2021
gpt-35-turbo (0613) Älteres GA-Modell
- Grundlegende Funktionsaufrufe mit Tools
4\.096 September 2021
gpt-35-turbo1 (0301) Älteres GA-Modell
- Informationen zur Ausmusterung
4\.096 September 2021

Weitere Informationen zu GPT-3.5 Turbo und zur Chatvervollständigungs-API finden Sie in unserer ausführlichen Anleitung.

1 Dieses Modell akzeptiert Anforderungen von mehr als 4.096 Token. Es wird nicht empfohlen, den Grenzwert von 4.096 Eingabetoken zu überschreiten, da die neuere Version des Modells auf 4.096 Token begrenzt ist. Wenn bei diesem Modell 4.096 Eingabetoken überschritten werden und Probleme auftreten, ist zu beachten, dass diese Konfiguration nicht offiziell unterstützt wird.

Einbettungen

text-embedding-3-large ist das neueste und leistungsfähigste Einbettungsmodell. Das Upgrade zwischen Einbettungsmodellen ist nicht möglich. Um von text-embedding-ada-002 zu text-embedding-3-large zu wechseln, müssen Sie neue Einbettungen generieren.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

In Tests berichtet OpenAI, dass sowohl das große als auch das kleine Einbettungsmodell der dritten Generation eine bessere durchschnittliche Leistung beim Abruf mehrerer Sprachen mit der MIRACL-Benchmark bietet, während die Leistung für englische Aufgaben mit der MTEB-Benchmark aufrechterhalten bleibt.

Bewertungsbenchmark text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
MIRACL-Durchschnitt 31,4 44,0 54.9
MTEB-Durchschnitt 61.0 62,3 64,6

Die Einbettungsmodelle der dritten Generation unterstützen die Reduzierung der Einbettungsgröße über einen neuen dimensions-Parameter. In der Regel sind größere Einbettungen aus Compute-, Arbeitsspeicher- und Speicherperspektive teurer. Die Möglichkeit, die Anzahl der Dimensionen anzupassen, ermöglicht eine bessere Kontrolle über die Gesamtkosten und die Leistung. Der Parameter dimensions wird nicht in allen Versionen der OpenAI 1.x-Python-Bibliothek unterstützt. Um diesen Parameter zu nutzen, empfehlen wir ein Upgrade auf die neueste Version: pip install openai --upgrade.

Bei den MTEB-Benchmarktests von OpenAI wurde festgestellt, dass die Leistung des Modells der dritten Generation auch dann noch geringfügig besser ist, wenn die Dimensionen auf weniger als 1.536 Dimensionen für text-embeddings-ada-002 reduziert werden.

DALL-E

Die DALL-E-Modelle generieren Bilder aus Textprompts, die der Benutzer bereitstellt. DALL-E 3 ist allgemein verfügbar für die Verwendung mit den REST-APIs. DALL-E 2 und DALL-E 3 mit Client-SDKs befinden sich in der Vorschau.

Whisper

Die Whisper-Modelle können für Spracherkennung verwendet werden.

Sie können das Whisper-Modell auch über die API Batch-Transkription von Azure AI Speech verwenden. Im Artikel Was ist das Whisper-Modell? erfahren Sie mehr darüber, wann Azure KI Speech bzw. wann Azure OpenAI Service verwendet werden sollte.

Sprachsynthese (Vorschau)

Der OpenAI-Sprachsynthesemodelle, die sich derzeit in der Vorschau befinden, können verwendet werden, um Text in Sprache zu synthetisieren.

Sie können den OpenAI-Stimmen für die Sprachsynthese über Azure KI Speech verwenden. Weitere Informationen finden Sie im Leitfaden OpenAI-Stimmen für die Sprachsynthese über Azure OpenAI Service oder über Azure KI Speech.

Tabelle mit Modellzusammenfassung und Regionsverfügbarkeit

Modelle nach Bereitstellungstyp

Azure OpenAI bietet Kunden Auswahlmöglichkeiten bei der Hostingstruktur, die ihren Geschäfts- und Nutzungsmustern entspricht. Der Dienst bietet zwei Haupttypen der Bereitstellung:

  • Standard wird mit einer globalen Bereitstellungsoption angeboten und leitet den Datenverkehr global weiter, um einen höheren Durchsatz zu bieten.
  • Bereitgestellt wird ebenfalls mit einer globalen Bereitstellungsoption angeboten, sodass Kunden bereitgestellte Durchsatzeinheiten in der globalen Azure-Infrastruktur erwerben und bereitstellen können.

Alle Bereitstellungen können dieselben Rückschlussvorgänge ausführen, Abrechnung, Skalierung und Leistung unterscheiden sich jedoch erheblich. Weitere Informationen zu Azure OpenAI-Bereitstellungstypen finden Sie in unserer Anleitung zu Bereitstellungstypen.

Verfügbarkeit des globalen Standardmodells

Region o1-Preview, 2024-09-12 o1-Mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-Realtime-Preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polandcentral - - - -
southafricanorth - - - -
southcentralus -
southindia - - - -
spaincentral - - -
swedencentral
switzerlandnorth - - - -
uaenorth - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Diese Tabelle enthält keine Feinabstimmung der regionalen Verfügbarkeitsinformationen. Weitere Informationen finden Sie im Abschnitt Feinabstimmung.

Standardmodelle nach Endpunkt

Chatvervollständigungen

Region o1-Preview, 2024-09-12 o1-Mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
southcentralus - - - - - - -
southindia - - - - - - - - - - - - - -
swedencentral - - -
switzerlandnorth - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

GPT-4- und GPT-4 Turbo-Modellverfügbarkeit

Kundenzugriff auswählen

Zusätzlich zu den oben genannten Regionen, die allen Azure OpenAI-Kunden zur Verfügung stehen, wurden einigen ausgewählten bereits bestehenden Kunden in zusätzlichen Regionen Zugriff auf Versionen von GPT-4 gewährt:

Modell Region
gpt-4 (0314)
gpt-4-32k (0314)
East US
Frankreich, Mitte
USA Süd Mitte
UK, Süden
gpt-4 (0613)
gpt-4-32k (0613)
East US
USA (Ost) 2
Japan, Osten
UK, Süden

GPT-3.5-Modelle

In Modellversionen erfahren Sie, wie Azure OpenAI Service Modellversionsupgrades verarbeitet, und Arbeiten mit Modellen, um zu erfahren, wie Sie die Modellversionseinstellungen Ihrer GPT-3.5 Turbo-Bereitstellungen anzeigen und konfigurieren.

Optimierung von Modellen

Hinweis

gpt-35-turbo – Die Feinabstimmung dieses Modells ist auf eine Teilmenge von Regionen beschränkt und ist nicht in allen Regionen, in denen das Basismodell verfügbar ist, verfügbar.

Die unterstützten Regionen für die Feinabstimmung können variieren, wenn Sie Azure OpenAI-Modelle in einem KI Studio-Projekt im Vergleich zu außerhalb eines Projekts verwenden.

Modell-ID Regionen mit Feinabstimmung Maximale Anforderung (Token) Trainingsdaten (bis)
babbage-002 USA Nord Mitte
Schweden, Mitte
Schweiz, Westen
16.384 September 2021
davinci-002 USA Nord Mitte
Schweden, Mitte
Schweiz, Westen
16.384 September 2021
gpt-35-turbo (0613) USA (Ost 2)
USA Nord Mitte
Schweden, Mitte
Schweiz, Westen
4\.096 September 2021
gpt-35-turbo (1106) USA (Ost 2)
USA Nord Mitte
Schweden, Mitte
Schweiz, Westen
Eingabe: 16.385
Ausgabe: 4.096
September 2021
gpt-35-turbo (0125) USA (Ost 2)
USA Nord Mitte
Schweden, Mitte
Schweiz, Westen
16.385 September 2021
gpt-4 (0613) 1 USA Nord Mitte
Schweden, Mitte
8192 September 2021
gpt-4o-mini (2024-07-18) USA Nord Mitte
Schweden, Mitte
Eingabe: 128.000
Ausgabe: 16.384
Kontextlänge im Beispieltraining: 64.536
Oktober 2023
gpt-4o (2024-08-06) USA (Ost 2)
USA Nord Mitte
Schweden, Mitte
Eingabe: 128.000
Ausgabe: 16.384
Kontextlänge im Beispieltraining: 64.536
Oktober 2023

1 GPT-4 befindet sich derzeit in der öffentlichen Vorschau.

Assistants (Vorschau)

Für Assistants benötigen Sie eine Kombination aus einem unterstützten Modell und einer unterstützten Region. Für bestimmte Tools und Funktionen sind die neuesten Modelle erforderlich. Die folgenden Modelle sind in der Assistants-API, im SDK und in Azure KI Studio verfügbar. Die folgende Tabelle ist für die nutzungsbasierte Bezahlung. Informationen zur Verfügbarkeit der bereitgestellten Durchsatzeinheit (PTU) finden Sie unter bereitgestellten Durchsatz. Die aufgeführten Modelle und Regionen können sowohl mit v1 als auch v2 des Assistenten verwendet werden. Sie können globalen Standardmodelle verwenden, wenn sie in den unten aufgeführten Regionen unterstützt werden.

Region gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Australien (Osten)
East US
USA (Ost) 2
Frankreich, Mitte
Japan, Osten
Norwegen, Osten
Schweden, Mitte
UK, Süden
USA (Westen)
USA, Westen 3

Modelldeaktivierung

Die neuesten Informationen zur Modelldeaktivierung finden Sie im Leitfaden zur Modelldeaktivierung.

Nächste Schritte