Udostępnij za pośrednictwem


Modele usługi Azure OpenAI Service

Usługa Azure OpenAI Service jest obsługiwana przez zróżnicowany zestaw modeli z różnymi możliwościami i cenami. Dostępność modelu różni się w zależności od regionu i chmury. Aby uzyskać informacje o dostępności modelu platformy Azure Government, zobacz Azure Government OpenAI Service.

Modele opis
o1-preview i o1-mini Modele ograniczonego dostępu, specjalnie zaprojektowane w celu rozwiązywania problemów i rozwiązywania problemów z większą koncentracją uwagi i możliwościami.
GPT-4o & GPT-4o mini & GPT-4 Turbo Najnowsze najbardziej zdolne modele usługi Azure OpenAI z wersjami wielomodalnymi, które mogą akceptować zarówno tekst, jak i obrazy jako dane wejściowe.
GPT-4o-Realtime-Preview Model GPT-4o, który obsługuje interakcje konwersacyjne z małymi opóźnieniami, "mową w, wypowiedź".
GPT-4 Zestaw modeli ulepszających język GPT-3.5 i może zrozumieć i wygenerować język naturalny oraz kod.
GPT-3.5 Zestaw modeli, które ulepszają język GPT-3 i mogą zrozumieć i wygenerować język naturalny oraz kod.
Osadzanie Zestaw modeli, które mogą konwertować tekst na postać wektorów liczbowych, aby ułatwić podobieństwo tekstu.
DALL-E Seria modeli, które mogą generować oryginalne obrazy na podstawie języka naturalnego.
Szeptać Seria modeli w wersji zapoznawczej, które mogą transkrybować i tłumaczyć mowę na tekst.
Zamiana tekstu na mowę (wersja zapoznawcza) Seria modeli w wersji zapoznawczej, która może syntetyzować tekst na mowę.

o1-preview i o1-mini modele z ograniczonym dostępem

Usługa Azure OpenAI o1-preview i o1-mini modele zostały specjalnie zaprojektowane w celu rozwiązywania problemów i rozwiązywania problemów z większą koncentracją uwagi i możliwościami. Modele te poświęcają więcej czasu na przetwarzanie i zrozumienie żądania użytkownika, co czyni je wyjątkowo silnymi w obszarach takich jak nauka, kodowanie i matematyka w porównaniu z poprzednimi iteracjami.

Model ID opis Maksymalne żądanie (tokeny) Dane szkoleniowe (maksymalnie)
o1-preview (2024-09-12) Najbardziej zdolny model w serii o1 oferuje ulepszone możliwości rozumowania. Dane wejściowe: 128 000
Dane wyjściowe: 32 768
Październik 2023 r.
o1-mini (2024-09-12) Szybsza i bardziej opłacalna opcja w serii o1, idealna do kodowania zadań wymagających szybkiego i niższego zużycia zasobów. Dane wejściowe: 128 000
Dane wyjściowe: 65 536
Październik 2023 r.

Dostępność

Modele o1-preview i o1-mini są teraz dostępne na potrzeby dostępu do interfejsu API i wdrażania modelu. Rejestracja jest wymagana, a dostęp zostanie udzielony na podstawie kryteriów kwalifikowalności firmy Microsoft.

Żądanie dostępu: aplikacja modelu ograniczonego dostępu

Po udzieleniu dostępu należy utworzyć wdrożenie dla każdego modelu.

Obsługa interfejsu API

Obsługa modeli serii o1 została dodana w wersji 2024-09-01-previewinterfejsu API .

Parametr max_tokens został przestarzały i zastąpiony nowym max_completion_tokens parametrem. Modele serii o1 będą działać tylko z parametrem max_completion_tokens .

Użycie

Te modele nie obsługują obecnie tego samego zestawu parametrów co inne modele korzystające z interfejsu API uzupełniania czatów. Obecnie obsługiwany jest tylko bardzo ograniczony podzbiór, więc typowe parametry, takie jak temperature, top_p, są niedostępne i w tym spowodują niepowodzenie żądania. o1-preview modele i o1-mini nie akceptują również roli komunikatów systemowych w ramach tablicy komunikatów.

W celu skorzystania z nowego max_completion_tokens parametru może być konieczne uaktualnienie wersji biblioteki języka Python openAI.

pip install openai --upgrade

Jeśli dopiero zaczynasz używać identyfikatora Entra firmy Microsoft do uwierzytelniania, zobacz Jak skonfigurować usługę Azure OpenAI przy użyciu uwierzytelniania identyfikatora Entra firmy Microsoft.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Dostępność w regionach

Dostępne dla standardowych i globalnych wdrożeń standardowych w regionach Wschodnie stany USA, Wschodnie stany USA 2, Północno-środkowe stany USA, Południowo-środkowe stany USA, Szwecja Środkowa, Zachodnie stany USA i Zachodnie stany USA 3 dla zatwierdzonych klientów.

GPT-4o-Realtime-Preview

Model gpt-4o-realtime-preview jest częścią rodziny modeli GPT-4o i obsługuje interakcje konwersacyjne o małych opóźnieniach, "mowy w, wypowiedź". Dźwięk GPT-4o jest przeznaczony do obsługi interakcji konwersacyjnych w czasie rzeczywistym, małych opóźnień, dzięki czemu doskonale nadaje się do obsługi agentów pomocy technicznej, asystentów, tłumaczy i innych przypadków użycia, które wymagają bardzo dynamicznego reagowania z użytkownikiem.

Dźwięk GPT-4o jest dostępny w regionach Wschodnie stany USA 2 (eastus2) i Szwecja Środkowa (swedencentral). Aby użyć dźwięku GPT-4o, należy utworzyć lub użyć istniejącego zasobu w jednym z obsługiwanych regionów.

Po utworzeniu zasobu można wdrożyć model audio GPT-4o. Jeśli wykonujesz wdrożenie programowe, nazwa modelu to gpt-4o-realtime-preview. Aby uzyskać więcej informacji na temat korzystania z dźwięku GPT-4o, zobacz dokumentację audio GPT-4o.

Szczegółowe informacje o maksymalnych tokenach żądań i danych szkoleniowych są dostępne w poniższej tabeli.

Model ID opis Maksymalne żądanie (tokeny) Dane szkoleniowe (maksymalnie)
gpt-4o-realtime-preview (2024-10-01-preview)
Dźwięk GPT-4o
Model audio na potrzeby przetwarzania dźwięku w czasie rzeczywistym Dane wejściowe: 128 000
Dane wyjściowe: 4096
Październik 2023 r.

GPT-4o i GPT-4 Turbo

GPT-4o integruje tekst i obrazy w jednym modelu, umożliwiając mu obsługę wielu typów danych jednocześnie. Takie wielomodalne podejście zwiększa dokładność i szybkość reakcji w interakcjach komputerów ludzkich. GPT-4o pasuje do GPT-4 Turbo w języku angielskim i zadaniach kodowania, oferując lepszą wydajność w językach innych niż angielski i zadania przetwarzania obrazów, ustawiając nowe testy porównawcze dla funkcji sztucznej inteligencji.

Jak mogę uzyskać dostęp do mini modeli GPT-4o i GPT-4o?

GPT-4o i GPT-4o mini są dostępne dla standardowego i standardowego wdrożenia modelu.

Musisz utworzyć lub użyć istniejącego zasobu w obsługiwanym regionie standardowym lub globalnym, w którym jest dostępny model.

Po utworzeniu zasobu można wdrożyć modele GPT-4o. Jeśli przeprowadzasz wdrożenie programowe, nazwy modeli to:

  • gpt-4oWersja 2024-08-06
  • gpt-4o, wersja 2024-05-13
  • gpt-4o-miniWersja 2024-07-18

GPT-4 Turbo

GPT-4 Turbo to duży model wielomodalny (akceptowanie danych wejściowych tekstu lub obrazu i generowanie tekstu), który może rozwiązywać trudne problemy z większą dokładnością niż którykolwiek z poprzednich modeli openAI. Podobnie jak GPT-3.5 Turbo, a starsze modele GPT-4 GPT-4 Turbo są zoptymalizowane pod kątem czatu i działają dobrze w przypadku tradycyjnych zadań ukończenia.

Najnowsza wersja GA GPT-4 Turbo to:

  • gpt-4Wersja: turbo-2024-04-09

Jest to zamiennik następujących modeli w wersji zapoznawczej:

  • gpt-4Wersja: 1106-Preview
  • gpt-4Wersja: 0125-Preview
  • gpt-4Wersja: vision-preview

Różnice między modelami OpenAI i Azure OpenAI GPT-4 Turbo GA

  • Wersja najnowszego 0409 modelu turbo openAI obsługuje tryb JSON i funkcję wywołującą wszystkie żądania wnioskowania.
  • Wersja najnowszej wersji turbo-2024-04-09 usługi Azure OpenAI obecnie nie obsługuje korzystania z trybu JSON i wywoływania funkcji podczas wprowadzania żądań wnioskowania przy użyciu danych wejściowych obrazu (vision). Żądania wejściowe oparte na tekście (żądania bez image_url obrazów wbudowanych i wbudowanych) obsługują tryb JSON i wywoływanie funkcji.

Różnice w porównaniu z interfejsem gpt-4 vision-preview

  • Integracja funkcji przetwarzania obrazów specyficznych dla sztucznej inteligencji platformy Azure z funkcją GPT-4 Turbo z usługą Vision nie jest obsługiwana w wersji gpt-4 : turbo-2024-04-09. Obejmuje to optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo i ulepszoną obsługę danych za pomocą obrazów.

Ważne

Ulepszenia obrazów w wersji zapoznawczej, w tym optyczne rozpoznawanie znaków (OCR), uziemanie obiektów, monity wideo zostaną wycofane i nie będą już dostępne po gpt-4 uaktualnieniu wersji vision-preview do turbo-2024-04-09programu . Jeśli obecnie korzystasz z dowolnej z tych funkcji w wersji zapoznawczej, to automatyczne uaktualnianie modelu będzie zmianą powodującą niezgodność.

Dostępność zarządzana zaaprowizowana przez GPT-4 Turbo

  • gpt-4Wersja: turbo-2024-04-09 jest dostępny zarówno w przypadku wdrożeń standardowych, jak i aprowizowania. Obecnie aprowizowana wersja tego modelu nie obsługuje żądań wnioskowania obrazów/obrazów. Aprowidowane wdrożenia tego modelu akceptują tylko wprowadzanie tekstu. Wdrożenia modelu w warstwie Standardowa akceptują żądania wnioskowania tekstu i obrazu/obrazów.

Wdrażanie GPT-4 Turbo z usługą Vision GA

Aby wdrożyć model ga z poziomu interfejsu użytkownika programu Studio, wybierz GPT-4 pozycję, a następnie wybierz turbo-2024-04-09 wersję z menu rozwijanego. Domyślny limit przydziału gpt-4-turbo-2024-04-09 dla modelu będzie taki sam jak bieżący limit przydziału dla GPT-4-Turbo. Zobacz regionalne limity przydziału.

GPT-4

GPT-4 jest poprzednikem GPT-4 Turbo. Oba modele GPT-4 i GPT-4 Turbo mają podstawową nazwę gpt-4modelu . Można odróżnić modele GPT-4 i Turbo, sprawdzając wersję modelu.

  • gpt-4Wersja 0314
  • gpt-4Wersja 0613
  • gpt-4-32kWersja 0613

Długość kontekstu tokenu obsługiwana przez poszczególne modele można zobaczyć w tabeli podsumowania modelu.

Modele GPT-4 i GPT-4 Turbo

  • Te modele mogą być używane tylko z interfejsem API uzupełniania czatów.

Zobacz wersje modelu, aby dowiedzieć się, jak usługa Azure OpenAI Obsługuje uaktualnienia wersji modelu i współpracuje z modelami , aby dowiedzieć się, jak wyświetlać i konfigurować ustawienia wersji modelu wdrożeń GPT-4.

Model ID opis Maksymalne żądanie (tokeny) Dane szkoleniowe (maksymalnie)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Najnowszy duży model ga
- Dane wyjściowe ze strukturą
- Tekst, przetwarzanie obrazów
- Tryb JSON
- wywoływanie funkcji równoległych
- Zwiększona dokładność i czas odpowiedzi
- Parzystość z angielskim tekstem i zadaniami kodowania w porównaniu do GPT-4 Turbo z wizją
- Lepsza wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Październik 2023 r.
gpt-4o-mini (2024-07-18)
GPT-4o mini
Najnowszy mały model ga
- Szybki, niedrogi, zdolny model idealny do zastąpienia modeli serii GPT-3.5 Turbo.
- Tekst, przetwarzanie obrazów
- Tryb JSON
- wywoływanie funkcji równoległych
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Październik 2023 r.
gpt-4o (2024-05-13)
GPT-4o (Omni)
Tekst, przetwarzanie obrazów
- Tryb JSON
- wywoływanie funkcji równoległych
- Zwiększona dokładność i czas odpowiedzi
- Parzystość z angielskim tekstem i zadaniami kodowania w porównaniu do GPT-4 Turbo z wizją
- Lepsza wydajność w językach innych niż angielski i w zadaniach przetwarzania obrazów
Dane wejściowe: 128 000
Dane wyjściowe: 4096
Październik 2023 r.
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo z wizją
Nowy model ogólnie dostępnej wersji
— Zastąpienie wszystkich poprzednich modeli GPT-4 w wersji zapoznawczej (vision-preview, 1106-Preview, 0125-Preview).
- Dostępność funkcji jest obecnie różna w zależności od metody danych wejściowych i typu wdrożenia.
Dane wejściowe: 128 000
Dane wyjściowe: 4096
Grudzień 2023 r.
gpt-4 (0125-Preview)*
GPT-4 Turbo (wersja zapoznawcza)
Model w wersji zapoznawczej
-Zastępuje 1106-Preview
— Lepsza wydajność generowania kodu
— Zmniejsza przypadki, w których model nie wykona zadania
- Tryb JSON
- wywoływanie funkcji równoległych
— odtwarzalne dane wyjściowe (wersja zapoznawcza)
Dane wejściowe: 128 000
Dane wyjściowe: 4096
Grudzień 2023 r.
gpt-4 (vision-preview)
GPT-4 Turbo z usługą Vision Preview
Model w wersji zapoznawczej
- Akceptuje tekst i dane wejściowe obrazu.
— Obsługuje ulepszenia
- Tryb JSON
- wywoływanie funkcji równoległych
— odtwarzalne dane wyjściowe (wersja zapoznawcza)
Dane wejściowe: 128 000
Dane wyjściowe: 4096
Kwiecień 2023 r.
gpt-4 (1106-Preview)
GPT-4 Turbo (wersja zapoznawcza)
Model w wersji zapoznawczej
- Tryb JSON
- wywoływanie funkcji równoległych
— odtwarzalne dane wyjściowe (wersja zapoznawcza)
Dane wejściowe: 128 000
Dane wyjściowe: 4096
Kwiecień 2023 r.
gpt-4-32k (0613) Starszy model ga
- Podstawowe wywoływanie funkcji za pomocą narzędzi
32,768 Wrzesień 2021 r.
gpt-4 (0613) Starszy model ga
- Podstawowe wywoływanie funkcji za pomocą narzędzi
8,192 Wrzesień 2021 r.
gpt-4-32k(0314) Starszy model ga
- Informacje o wycofaniu
32,768 Wrzesień 2021 r.
gpt-4 (0314) Starszy model ga
- Informacje o wycofaniu
8,192 Wrzesień 2021 r.

Uwaga

Nie zalecamy używania modeli w wersji zapoznawczej w środowisku produkcyjnym. Uaktualnimy wszystkie wdrożenia modeli w wersji zapoznawczej do przyszłych wersji zapoznawczych lub do najnowszej stabilnej wersji ogólnie dostępnej. Modele wyznaczone w wersji zapoznawczej nie są zgodne ze standardowym cyklem życia modelu Usługi Azure OpenAI.

  • GPT-4 w wersji 0125-preview to zaktualizowana wersja wersji zapoznawczej GPT-4 Turbo wydana wcześniej jako wersja 1106-preview.
  • GPT-4 w wersji 0125-preview wykonuje zadania, takie jak generowanie kodu bardziej całkowicie w porównaniu z gpt-4-1106-preview. W związku z tym, w zależności od zadania, klienci mogą stwierdzić, że GPT-4-0125-preview generuje więcej danych wyjściowych w porównaniu z gpt-4-1106-preview. Zalecamy klientom porównanie danych wyjściowych nowego modelu. GPT-4-0125-preview dotyczy również usterek w gpt-4-1106-preview z obsługą utF-8 dla języków innych niż angielski.
  • Wersja GPT-4 to najnowsza wersja turbo-2024-04-09 ogólnie dostępna i zastępuje 0125-Previewwartości , 1106-previewi vision-preview.

Ważne

Wersja GPT-4 (gpt-4) 1106-Preview, 0125-Previewi vision-preview zostanie uaktualniona o stabilną wersję gpt-4 w przyszłości.

  • gpt-4 Wdrożenia wersji 1106-Preview, 0125-Previewi vision-preview ustawione na wartość "Automatyczna aktualizacja do wartości domyślnej" i "Uaktualnij po wygaśnięciu" zostaną uaktualnione po wydaniu stabilnej wersji. W przypadku każdego wdrożenia uaktualnienie wersji modelu odbywa się bez przerw w działaniu usługi dla wywołań interfejsu API. Uaktualnienia są etapowane według regionu, a pełny proces uaktualniania powinien potrwać 2 tygodnie.
  • gpt-4 Wdrożenia wersji 1106-Preview, 0125-Previewi vision-preview ustawione na wartość "Brak automatycznego uaktualniania" nie zostaną uaktualnione i przestaną działać po uaktualnieniu wersji zapoznawczej w regionie. Aby uzyskać więcej informacji na temat czasu uaktualniania, zobacz Wycofywanie i wycofywanie modeli usługi Azure OpenAI.

GPT-3.5

Modele GPT-3.5 mogą zrozumieć i wygenerować język naturalny lub kod. Najbardziej zdolny i ekonomiczny model w rodzinie GPT-3.5 to GPT-3.5 Turbo, który został zoptymalizowany pod kątem czatu i działa dobrze w przypadku tradycyjnych zadań wykonywanych, jak również. GPT-3.5 Turbo jest dostępny do użycia z interfejsem API uzupełniania czatów. GPT-3.5 Turbo Poinstruowanie ma podobne możliwości korzystania text-davinci-003 z interfejsu API uzupełniania zamiast interfejsu API uzupełniania czatów. Zalecamy używanie GPT-3.5 Turbo i GPT-3.5 Turbo Poinstruuj w starszych modelach GPT-3.5 i GPT-3.

Model ID opis Maksymalne żądanie (tokeny) Dane szkoleniowe (maksymalnie)
gpt-35-turbo (0125) NOWY Najnowszy model ogólnie dostępnej wersji
- Tryb JSON
- wywoływanie funkcji równoległych
— odtwarzalne dane wyjściowe (wersja zapoznawcza)
- Wyższa dokładność odpowiadania w żądanych formatach.
- Poprawka dotycząca usterki, która spowodowała problem z kodowaniem tekstu w przypadku wywołań funkcji w języku nieanglojęzycznym.
Dane wejściowe: 16 385
Dane wyjściowe: 4096
Wrzesień 2021 r.
gpt-35-turbo (1106) Starszy model ga
- Tryb JSON
- wywoływanie funkcji równoległych
— odtwarzalne dane wyjściowe (wersja zapoznawcza)
Dane wejściowe: 16 385
Dane wyjściowe: 4096
Wrzesień 2021 r.
gpt-35-turbo-instruct (0914) Tylko punkt końcowy uzupełniania
— Zastępowanie starszych modeli uzupełniania
4,097 Wrzesień 2021 r.
gpt-35-turbo-16k (0613) Starszy model ga
- Podstawowe wywoływanie funkcji za pomocą narzędzi
16,384 Wrzesień 2021 r.
gpt-35-turbo (0613) Starszy model ga
- Podstawowe wywoływanie funkcji za pomocą narzędzi
4,096 Wrzesień 2021 r.
gpt-35-turbo1 (0301) Starszy model ga
- Informacje o wycofaniu
4,096 Wrzesień 2021 r.

Aby dowiedzieć się więcej na temat interakcji z GPT-3.5 Turbo i interfejsem API uzupełniania czatów, zapoznaj się z naszymi szczegółowymi instrukcjami.

1 Ten model będzie akceptować żądania > 4096 tokenów. Nie zaleca się przekraczania limitu tokenu wejściowego 4096, ponieważ nowsza wersja modelu jest ograniczona do 4096 tokenów. Jeśli wystąpią problemy podczas przekraczania 4096 tokenów wejściowych w tym modelu, ta konfiguracja nie jest oficjalnie obsługiwana.

Osadzanie

text-embedding-3-large jest najnowszym i najbardziej zdolnym modelem osadzania. Uaktualnianie między modelami osadzania nie jest możliwe. Aby przejść z użycia text-embedding-ada-002 do text-embedding-3-large , należy wygenerować nowe osadzanie.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

Podczas testowania raporty OpenAI zarówno duże, jak i małe modele osadzania trzeciej generacji oferują lepszą średnią wydajność pobierania w wielu językach z testem porównawczym MIRACL , jednocześnie zachowując wydajność zadań angielskich z testem porównawczym MTEB .

Test porównawczy oceny text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
Średnia MIRACL 31.4 44.0 54.9
Średnia MTEB 61,0 62.3 64.6

Modele osadzania trzeciej generacji obsługują zmniejszenie rozmiaru osadzania za pomocą nowego dimensions parametru. Zazwyczaj większe osadzanie jest droższe z perspektywy zasobów obliczeniowych, pamięci i magazynu. Możliwość dostosowania liczby wymiarów umożliwia większą kontrolę nad ogólnym kosztem i wydajnością. Parametr dimensions nie jest obsługiwany we wszystkich wersjach biblioteki języka Python OpenAI 1.x, aby skorzystać z tego parametru, zalecamy uaktualnienie do najnowszej wersji: pip install openai --upgrade.

Testy porównawcze MTEB openAI wykazały, że nawet wtedy, gdy wymiary modelu trzeciej generacji są zmniejszone do mniej niż text-embeddings-ada-002 1536 wymiarów, pozostają nieco lepsze.

DALL-E

Modele DALL-E generują obrazy na podstawie monitów tekstowych wyświetlanych przez użytkownika. Język DALL-E 3 jest ogólnie dostępny do użycia z interfejsami API REST. Zestawy DALL-E 2 i DALL-E 3 z zestawami SDK klienta są w wersji zapoznawczej.

Szeptać

Modele Szeptu mogą służyć do zamiany mowy na tekst.

Możesz również użyć modelu Whisper za pośrednictwem interfejsu API transkrypcji wsadowej usługi Azure AI Speech. Zapoznaj się z tematem Co to jest model Szeptu? aby dowiedzieć się więcej o tym, kiedy używać usługi Azure AI Speech a Azure OpenAI Service.

Zamiana tekstu na mowę (wersja zapoznawcza)

Tekst OpenAI do modeli mowy, obecnie w wersji zapoznawczej, może służyć do syntezowania tekstu na mowę.

Możesz również użyć tekstu OpenAI do mowy głosów za pośrednictwem usługi Azure AI Speech. Aby dowiedzieć się więcej, zobacz OpenAI text to speech voices via Azure OpenAI Service or via Azure AI Speech guide (Przewodnik po zamianie mowy za pośrednictwem usługi Azure OpenAI Lub Azure AI Speech ).

Tabela podsumowania modelu i dostępność regionów

Modele według typu wdrożenia

Usługa Azure OpenAI zapewnia klientom wybór struktury hostingu, która pasuje do wzorców biznesowych i użycia. Usługa oferuje dwa główne typy wdrożenia:

  • Standard jest oferowany z opcją globalnego wdrażania, routing ruchu globalnego w celu zapewnienia wyższej przepływności.
  • Aprowizowanie jest również oferowane za pomocą globalnej opcji wdrażania, dzięki czemu klienci mogą kupować i wdrażać aprowizowane jednostki przepływności w globalnej infrastrukturze platformy Azure.

Wszystkie wdrożenia mogą wykonywać dokładnie te same operacje wnioskowania, jednak rozliczenia, skala i wydajność są znacznie inne. Aby dowiedzieć się więcej na temat typów wdrożeń usługi Azure OpenAI, zobacz przewodnik dotyczący typów wdrożeń.

Globalna dostępność modelu standardowego

Region o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polandcentral - - - -
southafricanorth - - - -
southcentralus -
southindia - - - -
hiszpaniacentral - - -
swedencentral
switzerlandnorth - - - -
uaenorth - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Ta tabela nie zawiera dostrajania informacji o dostępności regionalnej. Aby uzyskać te informacje, zapoznaj się z sekcją dostrajania.

Modele standardowe według punktu końcowego

Ukończenie czatu

Region o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
southcentralus - - - - - - -
southindia - - - - - - - - - - - - - -
swedencentral - - -
switzerlandnorth - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

Dostępność modelu GPT-4 i GPT-4 Turbo

Wybieranie dostępu klienta

Oprócz powyższych regionów, które są dostępne dla wszystkich klientów usługi Azure OpenAI, niektóre z wybranych wcześniej klientów otrzymały dostęp do wersji GPT-4 w dodatkowych regionach:

Model Region (Region)
gpt-4 (0314)
gpt-4-32k (0314)
Wschodnie stany USA
Francja Środkowa
Południowo-środkowe stany USA
Południowe Zjednoczone Królestwo
gpt-4 (0613)
gpt-4-32k (0613)
Wschodnie stany USA
Wschodnie stany USA 2
Japonia Wschodnia
Południowe Zjednoczone Królestwo

Modele GPT-3.5

Zobacz wersje modelu, aby dowiedzieć się, jak usługa Azure OpenAI Obsługuje uaktualnienia wersji modelu i współpracuje z modelami , aby dowiedzieć się, jak wyświetlać i konfigurować ustawienia wersji modelu wdrożeń GPT-3.5 Turbo.

Dostrajanie modeli

Uwaga

gpt-35-turbo — Dostrajanie tego modelu jest ograniczone do podzestawu regionów i nie jest dostępne w każdym regionie, w którym jest dostępny model podstawowy.

Obsługiwane regiony do dostrajania mogą się różnić, jeśli używasz modeli usługi Azure OpenAI w projekcie AI Studio, a nie poza projektem.

Model ID Dostrajanie regionów Maksymalna liczba żądań (tokenów) Dane szkoleniowe (maksymalnie)
babbage-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
davinci-002 Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,384 Wrzesień 2021 r.
gpt-35-turbo (0613) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
4,096 Wrzesień 2021 r.
gpt-35-turbo (1106) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
Dane wejściowe: 16 385
Dane wyjściowe: 4096
Wrzesień 2021 r.
gpt-35-turbo (0125) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Szwajcaria Zachodnia
16,385 Wrzesień 2021 r.
gpt-4 (0613) 1 Północno-środkowe stany USA
Szwecja Środkowa
8192 Wrzesień 2021 r.
gpt-4o-mini (2024-07-18) Północno-środkowe stany USA
Szwecja Środkowa
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Długość kontekstu przykładowego szkolenia: 64 536
Październik 2023 r.
gpt-4o (2024-08-06) Wschodnie stany USA 2
Północno-środkowe stany USA
Szwecja Środkowa
Dane wejściowe: 128 000
Dane wyjściowe: 16 384
Długość kontekstu przykładowego szkolenia: 64 536
Październik 2023 r.

1 GPT-4 jest obecnie w publicznej wersji zapoznawczej.

Asystenci (wersja zapoznawcza)

W przypadku asystentów potrzebujesz kombinacji obsługiwanego modelu i obsługiwanego regionu. Niektóre narzędzia i możliwości wymagają najnowszych modeli. Poniższe modele są dostępne w interfejsie API asystentów, zestawie SDK i narzędziu Azure AI Studio. Poniższa tabela dotyczy płatności zgodnie z rzeczywistym użyciem. Aby uzyskać informacje na temat dostępności jednostki przepływności aprowizowanej (PTU), zobacz aprowizowanie przepływności. Wymienione modele i regiony mogą być używane z asystentami w wersji 1 i 2. Możesz użyć globalnych modeli standardowych, jeśli są one obsługiwane w regionach wymienionych poniżej.

Region (Region) gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Australia Wschodnia
East US
Wschodnie stany USA 2
Francja Środkowa
Japonia Wschodnia
Norwegia Wschodnia
Szwecja Środkowa
Południowe Zjednoczone Królestwo
Zachodnie stany USA
Zachodnie stany USA 3

Wycofanie modelu

Aby uzyskać najnowsze informacje na temat wycofywania modelu, zapoznaj się z przewodnikiem po wycofaniu modelu.

Następne kroki