Udostępnij za pośrednictwem


Dokumentacja interfejsu API REST usługi Azure OpenAI

Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.

Specyfikacje interfejsu API

Zarządzanie modelami i zasobami platformy Azure OpenAI i zarządzanie nimi jest podzielone na trzy podstawowe powierzchnie interfejsu API:

  • Płaszczyzna sterowania
  • Płaszczyzna danych — tworzenie
  • Płaszczyzna danych — wnioskowanie

Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcza mają tendencję do śledzenia miesięcznego tempa.

interfejs API Najnowsza wersja zapoznawcza Najnowsza wersja ogólnie dostępna Specyfikacje opis
Płaszczyzna sterowania 2024-06-01-preview 2024-10-01 Pliki specyfikacji Usługa Azure OpenAI udostępnia wspólną płaszczyznę sterowania wszystkim innym usługom Azure AI Services. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania zarządza również możliwościami, takimi jak azure Resource Manager, Bicep, Terraform i interfejs wiersza polecenia platformy Azure.
Płaszczyzna danych — tworzenie 2024-10-01-preview 2024-10-21 Pliki specyfikacji Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przekazywaniem plików, zadaniami pozyskiwania danych, zapytaniami na poziomie usługi Batch i określonymi zapytaniami na poziomie modelu
Płaszczyzna danych — wnioskowanie 2024-10-01-preview 2024-10-21 Pliki specyfikacji Interfejs API wnioskowania płaszczyzny danych zapewnia możliwości wnioskowania/punktów końcowych dla funkcji, takich jak ukończenie, ukończenie czatu, osadzanie, mowę/szepta, na danych, dall-e, asystentów itp.

Uwierzytelnianie

Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub identyfikatora entra firmy Microsoft.

  • Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku api-key HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.

  • Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka Authorization . Podany token musi być poprzedzony elementem Bearer, na przykład Bearer YOUR_AUTH_TOKEN. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.

Przechowywanie wersji interfejsu API REST

Interfejsy API usługi są wersjonowane przy użyciu parametru api-version zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Na przykład:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Wnioskowanie płaszczyzny danych

W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-10-21

Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej

Uzupełnienia

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit ciąg lub tablica Monity dotyczące generowania uzupełniania dla ciągów, tablicy ciągów, tablicy tokenów, tablicy tokenów lub tablicy tablicy tokenów.

Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu.
Tak
best_of integer Generuje uzupełnianie best_of po stronie serwera i zwraca wartość "best" (jedyną z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników.

W przypadku użycia z elementem nbest_of określa liczbę ukończonych kandydatów i n określa, ile należy zwrócić â € " best_of musi być większe niż n.

Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
echo boolean Powtórz ponownie monit oprócz ukończenia
Nie. Fałsz
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do skojarzonej wartości od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> .
Nie. Brak
logprobs integer Uwzględnij prawdopodobieństwa dziennika dla logprobs najbardziej prawdopodobnych tokenów wyjściowych, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowy token, więc może istnieć maksymalnie logprobs+1 elementy w odpowiedzi.

Maksymalna wartość parametru logprobs to 5.
Nie. Brak
max_tokens integer Maksymalna liczba tokenów, które można wygenerować w zakończeniu.

Liczba tokenów monitu plus max_tokens nie może przekraczać długości kontekstu modelu.
Nie. 16
n integer Ile uzupełniania ma być generowanych dla każdego monitu.

Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach.
Nie. 0
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.

Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
zatrzymać ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
strumień boolean Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE]. Nie. Fałsz
przyrostek string Sufiks, który pojawia się po zakończeniu wstawionego tekstu.

Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct.
Nie. Brak
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.

Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json createCompletionResponse Reprezentuje odpowiedź ukończenia z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i niestreamed mają ten sam kształt (w przeciwieństwie do punktu końcowego czatu).

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Type Opis
application/json errorResponse

Przykłady

Przykład

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Osadzanie

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
input ciąg lub tablica Tekst wejściowy do osadzenia, zakodowany jako ciąg lub tablica tokenów. Aby osadzić wiele danych wejściowych w jednym żądaniu, przekaż tablicę ciągów lub tablicę tablic tokenów. Dane wejściowe nie mogą przekraczać maksymalnych tokenów wejściowych dla modelu (8192 tokenów dla text-embedding-ada-002), nie mogą być pustymi ciągami, a każda tablica musi mieć 2048 wymiarów lub mniej. Tak
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
input_type string typ danych wejściowych wyszukiwania osadzania do użycia Nie.
encoding_format string Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64. Wartość domyślna to float. Nie.
wymiary integer Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. Nie.

Odpowiedzi

Nazwisko Pisz Opis Wymagani Wartość domyślna
obiekt string Tak
model string Tak
dane tablica Tak
użycie obiekt Tak

Właściwości użycia

prompt_tokens

Nazwisko Pisz Opis Wartość domyślna
prompt_tokens integer

total_tokens

Nazwisko Pisz Opis Wartość domyślna
total_tokens integer

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json obiekt

Przykłady

Przykład

Zwróć osadzanie dla danego monitu.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Ukończenie czatu

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

Tworzy ukończenie wiadomości na czacie

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.

Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE]. Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny.
Nie.
max_tokens integer Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu.
Nie.
max_completion_tokens integer Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach.
Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.
Nie. Brak
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.
wiadomości tablica Lista wiadomości składających się z konwersacji do tej pory. Tak
data_sources tablica Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
logprobs boolean Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message. Nie. Fałsz
top_logprobs integer Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. Nie.
n integer Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. Nie. 1
parallel_tool_calls ParallelToolCalls Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie. Prawda
response_format ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema Obiekt określający format, który musi zostać wygenerowany przez model. Zgodność z GPT-4o, GPT-4o mini, GPT-4 Turbo i wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106.

Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie w celu { "type": "json_object" } włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.
Nie.
nasienie integer Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
tools tablica Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji.
Nie.
tool_choice chatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. Nie.
function_call ciąg lub czatCompletionFunctionCallOption Przestarzałe na rzecz .tool_choice

Określa, która (jeśli istnieje) funkcja jest wywoływana przez model.
none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.
Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne.
Nie.
— funkcje tablica Przestarzałe na rzecz .tools

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json createChatCompletionResponse lub createChatCompletionStreamResponse

Kod stanu: wartość domyślna

Opis: Usługa niedostępna

Typ zawartości Type Opis
application/json errorResponse

Przykłady

Przykład

Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnianie na podstawie danych usługi Azure Search i przypisanej przez system tożsamości zarządzanej.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Przykład

Tworzy ukończenie dla podanej usługi Azure Cosmos DB.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transkrypcje — tworzenie

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Transkrybuje dźwięk w języku wejściowym.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu szeptu.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: multipart/form-data

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Obiekt pliku audio do transkrypcji. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0
język string Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json audioResponse lub audioVerboseResponse
text/plain string Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt).

Przykłady

Przykład

Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Tłumaczenia — tworzenie

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu szeptu, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: multipart/form-data

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Plik audio do tłumaczenia. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0

Odpowiedzi

Kod stanu: 200

Opis: OK

Typ zawartości Type Opis
application/json audioResponse lub audioVerboseResponse
text/plain string Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt).

Przykłady

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Przykład

Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Odpowiedzi: Kod stanu: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Generowanie obrazu

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

Generuje partię obrazów na podstawie podpisu tekstowego dla danego wdrożenia modelu dall-e

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
endpoint path Tak string
Adres URL
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com. Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com
deployment-id path Tak string Identyfikator wdrożenia modelu dall-e, który został wdrożony.
api-version zapytanie Tak string Wersja interfejsu API

Nagłówek żądania

Nazwisko Wymagania Type Opis
api-key Prawda string Tutaj podaj klucz interfejsu API usługi Azure OpenAI

Treść żądania

Typ zawartości: application/json

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit string Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n integer Liczba obrazów do wygenerowania. Nie. 1
size imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
response_format imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. Adres URL
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standardowa
— styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

Odpowiedzi

Kod stanu: 200

Opis: Ok

Typ zawartości Type Opis
application/json generateImagesResponse

Kod stanu: wartość domyślna

Opis: Wystąpił błąd.

Typ zawartości Type Opis
application/json dalleErrorResponse

Przykłady

Przykład

Tworzy obrazy z monitem.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Odpowiedzi: Kod stanu: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Składniki

errorResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
error błąd Nie.

errorBase

Nazwisko Pisz Opis Wymagani Wartość domyślna
code string Nie
wiadomość string Nie

error

Nazwisko Pisz Opis Wymagani Wartość domyślna
Param string Nie
type string Nie
inner_error innerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

innerError

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwisko Pisz Opis Wymagani Wartość domyślna
code innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
content_filter_results contentFilterPromptResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

innerErrorCode

Kody błędów dla obiektu błędu wewnętrznego.

Opis: Kody błędów dla wewnętrznego obiektu błędu.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: InnerErrorCode

Wartości wyliczenia:

Wartość Opis
ResponsibleAIPolicyViolation Monit naruszył jedną z więcej reguł filtrowania zawartości.

dalleErrorResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
error dalleError Nie.

dalleError

Nazwisko Pisz Opis Wymagani Wartość domyślna
Param string Nie
type string Nie
inner_error dalleInnerError Wewnętrzny błąd z dodatkowymi szczegółami. Nie.

dalleInnerError

Wewnętrzny błąd z dodatkowymi szczegółami.

Nazwisko Pisz Opis Wymagani Wartość domyślna
code innerErrorCode Kody błędów dla obiektu błędu wewnętrznego. Nie.
content_filter_results dalleFilterResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.
revised_prompt string Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. Nie.

contentFilterResultBase

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak

contentFilterSeverityResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak
ważność string Nie

contentFilterDetectedResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
Filtrowane boolean Tak
Wykryte boolean Nie.

contentFilterDetectedWithCitationResult

Nazwisko Pisz Opis Wymagani Wartość domyślna
cytat obiekt Nie.

Właściwości cytatu

URL

Nazwisko Pisz Opis Wartość domyślna
URL string

license (licencja)

Nazwisko Pisz Opis Wartość domyślna
license (licencja) string

contentFilterResultsBase

Informacje o wynikach filtrowania zawartości.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.

contentFilterPromptResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.
Jailbreak contentFilterDetectedResult Nie.

contentFilterChoiceResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o tekście i wulgaryzmach innych firm, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
error errorBase Nie.
protected_material_text contentFilterDetectedResult Nie.
protected_material_code contentFilterDetectedWithCitationResult Nie.

promptFilterResult

Wyniki filtrowania zawartości dla pojedynczego monitu w żądaniu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
prompt_index integer Nie.
content_filter_results contentFilterPromptResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

promptFilterResults

Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach.

Brak zdefiniowanych właściwości dla tego składnika.

dalleContentFilterResults

Informacje o wynikach filtrowania zawartości.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.

dalleFilterResults

Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.

Nazwisko Pisz Opis Wymagani Wartość domyślna
seksualny contentFilterSeverityResult Nie.
przemoc contentFilterSeverityResult Nie.
nienawiść contentFilterSeverityResult Nie.
self_harm contentFilterSeverityResult Nie.
przekleństwo contentFilterDetectedResult Nie.
Jailbreak contentFilterDetectedResult Nie.

chatCompletionsRequestCommon

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.
Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.
Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Nie.
max_tokens integer Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). Ta wartość jest teraz przestarzała na rzecz max_completion_tokenselementu i nie jest zgodna z modelami serii o1. Nie. 4096
max_completion_tokens integer Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Nie.
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. Nie.

createCompletionRequest

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit ciąg lub tablica Monity dotyczące generowania uzupełniania dla ciągów, tablicy ciągów, tablicy tokenów, tablicy tokenów lub tablicy tablicy tokenów.

Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu.
Tak
best_of integer Generuje uzupełnianie best_of po stronie serwera i zwraca wartość "best" (jedyną z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników.

W przypadku użycia z elementem nbest_of określa liczbę ukończonych kandydatów i n określa, ile należy zwrócić â € " best_of musi być większe niż n.

Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
echo boolean Powtórz ponownie monit oprócz ukończenia
Nie. Fałsz
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do skojarzonej wartości od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.

Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> .
Nie. Brak
logprobs integer Uwzględnij prawdopodobieństwa dziennika dla logprobs najbardziej prawdopodobnych tokenów wyjściowych, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowy token, więc może istnieć maksymalnie logprobs+1 elementy w odpowiedzi.

Maksymalna wartość parametru logprobs to 5.
Nie. Brak
max_tokens integer Maksymalna liczba tokenów, które można wygenerować w zakończeniu.

Liczba tokenów monitu plus max_tokens nie może przekraczać długości kontekstu modelu.
Nie. 16
n integer Ile uzupełniania ma być generowanych dla każdego monitu.

Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop.
Nie. 1
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach.
Nie. 0
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.

Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
zatrzymać ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania.
Nie.
strumień boolean Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE]. Nie. Fałsz
przyrostek string Sufiks, który pojawia się po zakończeniu wstawionego tekstu.

Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct.
Nie. Brak
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.

Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.

createCompletionResponse

Reprezentuje odpowiedź ukończenia z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i niestreamed mają ten sam kształt (w przeciwieństwie do punktu końcowego czatu).

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Unikatowy identyfikator ukończenia. Tak
Wyborów tablica Lista opcji uzupełniania dla modelu wygenerowanego dla monitu wejściowego. Tak
utworzone integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia ukończenia. Tak
model string Model używany do ukończenia. Tak
prompt_filter_results promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. Nie.
system_fingerprint string Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.

Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze "text_completion"
Możliwe wartości: text_completion
Tak
użycie completionUsage Statystyki użycia dla żądania ukończenia. Nie.

createChatCompletionRequest

Nazwisko Pisz Opis Wymagani Wartość domyślna
temperature Liczba Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny.

Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów.
Nie. 1
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.
Nie. 1
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE]. Nie. Fałsz
zatrzymać ciąg lub tablica Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny.
Nie.
max_tokens integer Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu.
Nie.
max_completion_tokens integer Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. Nie.
presence_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach.
Nie. 0
frequency_penalty Liczba Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza.
Nie. 0
logit_bias obiekt Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu.

Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu.
Nie. Brak
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć.
Nie.
wiadomości tablica Lista wiadomości składających się z konwersacji do tej pory. Tak
data_sources tablica Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają.
Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI.
Nie.
logprobs boolean Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message. Nie. Fałsz
top_logprobs integer Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. Nie.
n integer Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. Nie. 1
parallel_tool_calls ParallelToolCalls Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. Nie. Prawda
response_format ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema Obiekt określający format, który musi zostać wygenerowany przez model. Zgodność z GPT-4o, GPT-4o mini, GPT-4 Turbo i wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106.

Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie w celu { "type": "json_object" } włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.
Nie.
nasienie integer Ta funkcja jest dostępna w wersji beta.
Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.
Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
Nie.
tools tablica Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji.
Nie.
tool_choice chatCompletionToolChoiceOption Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. Nie.
function_call ciąg lub czatCompletionFunctionCallOption Przestarzałe na rzecz .tool_choice

Określa, która (jeśli istnieje) funkcja jest wywoływana przez model.
none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.
auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.
Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne.
Nie.
— funkcje tablica Przestarzałe na rzecz .tools

Lista funkcji, dla których model może generować dane wejściowe JSON.
Nie.

chatCompletionFunctions

Nazwisko Pisz Opis Wymagani Wartość domyślna
opis string Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa string Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. Tak
parameters Parametry funkcji Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.

chatCompletionFunctionCallOption

Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
nazwa string Nazwa funkcji do wywołania. Tak

chatCompletionRequestMessage

Ten składnik może być jednym z następujących elementów:

chatCompletionRequestSystemMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
content ciąg lub tablica Zawartość komunikatu systemowego. Tak
role wyliczenie Rola autora komunikatów, w tym przypadku system.
Możliwe wartości: system
Tak
nazwa string Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.

chatCompletionRequestUserMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
content ciąg lub tablica Zawartość wiadomości użytkownika.
Tak
role wyliczenie Rola autora komunikatów, w tym przypadku user.
Możliwe wartości: użytkownik
Tak
nazwa string Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.

chatCompletionRequestAssistantMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
content ciąg lub tablica Zawartość komunikatu asystenta. Wymagane, chyba że tool_calls określono wartość lub function_call .
Nie.
odmowa string Wiadomość o odmowie asystenta. Nie.
role wyliczenie Rola autora komunikatów, w tym przypadku assistant.
Możliwe wartości: asystent
Tak
nazwa string Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. Nie.
tool_calls chatCompletionMessageToolCalls Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.

Właściwości function_call

Argumenty

Nazwisko Pisz Opis Wartość domyślna
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

chatCompletionRequestToolMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
role wyliczenie Rola autora komunikatów, w tym przypadku tool.
Możliwe wartości: narzędzie
Tak
content ciąg lub tablica Zawartość komunikatu narzędzia. Tak
tool_call_id string Wywołanie narzędzia, na które odpowiada ten komunikat. Tak

chatCompletionRequestFunctionMessage

Nazwisko Pisz Opis Wymagani Wartość domyślna
role wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: funkcja
Tak
content string Zawartość komunikatu funkcji. Tak
nazwa string Nazwa funkcji do wywołania. Tak

chatCompletionRequestSystemMessageContentPart

Ten składnik może być jednym z następujących elementów:

chatCompletionRequestUserMessageContentPart

Ten składnik może być jednym z następujących elementów:

chatCompletionRequestAssistantMessageContentPart

Ten składnik może być jednym z następujących elementów:

chatCompletionRequestToolMessageContentPart

Ten składnik może być jednym z następujących elementów:

chatCompletionRequestMessageContentPartText

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ części zawartości.
Możliwe wartości: tekst
Tak
text string Zawartość tekstowa. Tak

chatCompletionRequestMessageContentPartImage

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ części zawartości.
Możliwe wartości: image_url
Tak
image_url obiekt Tak

Właściwości image_url

Adres URL

Nazwisko Pisz Opis Wartość domyślna
Adres URL string Adres URL obrazu lub zakodowane w formacie base64 dane obrazu.

szczegóły

Nazwisko Pisz Opis Wartość domyślna
szczegóły string Określa poziom szczegółowości obrazu. Dowiedz się więcej w przewodniku dotyczącym przetwarzania obrazów. auto

chatCompletionRequestMessageContentPartRefusal

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ części zawartości.
Możliwe wartości: odmowa
Tak
odmowa string Komunikat o odmowie wygenerowany przez model. Tak

azureChatExtensionConfiguration

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak

azureChatExtensionType

Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: AzureChatExtensionType

Wartości wyliczenia:

Wartość Opis
azure_search Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI.
azure_cosmos_db Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI.

azureSearchChatExtensionConfiguration

Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
parameters azureSearchChatExtensionParameters Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. Nie.

azureSearchChatExtensionParameters

Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
uwierzytelnianie onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions Tak
top_n_documents integer Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. Nie.
in_scope boolean Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość integer Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. Nie.
role_information string Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. Nie.
endpoint string Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. Tak
index_name string Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. Tak
fields_mapping azureSearchIndexFieldMappingOptions Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. Nie.
query_type azureSearchQueryType Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI. Nie.
semantic_configuration string Dodatkowa konfiguracja semantyczna zapytania. Nie.
filtr string Filtr wyszukiwania. Nie.
embedding_dependency onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Nie.

azureSearchIndexFieldMappingOptions

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.

Nazwisko Pisz Opis Wymagani Wartość domyślna
title_field string Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field string Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
filepath_field string Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
content_fields tablica Nazwy pól indeksu, które powinny być traktowane jako zawartość. Nie.
content_fields_separator string Wzorzec separatora, którego powinny używać pola zawartości. Nie.
vector_fields tablica Nazwy pól reprezentujących dane wektorowe. Nie.

azureSearchQueryType

Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.

Opis: typ zapytania pobierania usługi Azure Search, które należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: AzureSearchQueryType

Wartości wyliczenia:

Wartość Opis
prosty Reprezentuje domyślny, prosty analizator zapytań.
semantyczne Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego.
wektor Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych.
vector_simple_hybrid Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi.
vector_semantic_hybrid Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych.

azureCosmosDBChatExtensionConfiguration

Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type azureChatExtensionType Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat
uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi.
Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Tak
parameters azureCosmosDBChatExtensionParameters Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI w czacie danych podczas korzystania z usługi Azure Cosmos DB dla
Rdzenie wirtualne bazy danych MongoDB.
Nie.

azureCosmosDBChatExtensionParameters

Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.

Nazwisko Pisz Opis Wymagani Wartość domyślna
uwierzytelnianie onYourDataConnectionStringAuthenticationOptions Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia. Tak
top_n_documents integer Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. Nie.
in_scope boolean Czy zapytania powinny być ograniczone do używania indeksowanych danych. Nie.
ścisłość integer Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. Nie.
role_information string Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. Nie.
database_name string Nazwa bazy danych mongoDB z rdzeniami wirtualnymi do użycia z usługą Azure Cosmos DB. Tak
container_name string Nazwa kontenera zasobów usługi Azure Cosmos DB. Tak
index_name string Nazwa indeksu rdzeni wirtualnych bazy danych MongoDB do użycia z usługą Azure Cosmos DB. Tak
fields_mapping azureCosmosDBFieldMappingOptions Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. Tak
embedding_dependency onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource Tak

azureCosmosDBFieldMappingOptions

Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.

Nazwisko Pisz Opis Wymagani Wartość domyślna
title_field string Nazwa pola indeksu, które ma być używane jako tytuł. Nie.
url_field string Nazwa pola indeksu, które ma być używane jako adres URL. Nie.
filepath_field string Nazwa pola indeksu do użycia jako ścieżka pliku. Nie.
content_fields tablica Nazwy pól indeksu, które powinny być traktowane jako zawartość. Tak
content_fields_separator string Wzorzec separatora, którego powinny używać pola zawartości. Nie.
vector_fields tablica Nazwy pól reprezentujących dane wektorowe. Tak

onYourDataAuthenticationOptions

Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak

onYourDataAuthenticationType

Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.

Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataAuthenticationType

Wartości wyliczenia:

Wartość Opis
api_key Uwierzytelnianie za pośrednictwem klucza interfejsu API.
connection_string Uwierzytelnianie za pośrednictwem parametry połączenia.
system_assigned_managed_identity Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system.
user_assigned_managed_identity Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika.

onYourDataApiKeyAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
klucz string Klucz interfejsu API do użycia do uwierzytelniania. Nie.

onYourDataConnectionStringAuthenticationOptions

Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
connection_string string Parametry połączenia do użycia do uwierzytelniania. Nie.

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak

onYourDataUserAssignedManagedIdentityAuthenticationOptions

Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez użytkownika.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataAuthenticationType Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. Tak
managed_identity_resource_id string Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. Nie.

onYourDataVectorizationSource

Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak

onYourDataVectorizationSourceType

Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data może służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.

Opis: Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: OnYourDataVectorizationSourceType

Wartości wyliczenia:

Wartość Opis
endpoint Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI.
deployment_name Reprezentuje nazwę wdrożenia modelu Ada do użycia. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale
Na danych użyje tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wektor
wyszukiwanie nawet w sieciach prywatnych.

onYourDataDeploymentNameVectorizationSource

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak
deployment_name string Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

onYourDataEndpointVectorizationSource

Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym wywołaniu punktu końcowego usługi Azure OpenAI na potrzeby osadzania.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type onYourDataVectorizationSourceType Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Tak
uwierzytelnianie onYourDataApiKeyAuthenticationOptions Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API. Nie.
endpoint string Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych użyje tego punktu końcowego za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. Nie.

azureChatExtensionsMessageContext

Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy rozszerzenia czatu usługi Azure OpenAI są zaangażowane w generowanie odpowiedniej odpowiedzi na czat. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
Cytatów tablica Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. Nie.
Intencja string Wykryta intencja z historii czatu użyta do przekazania do następnego kroku w celu przeniesienia kontekstu. Nie.

cytat

informacje o cytatach dla komunikatu odpowiedzi zakończenia czatu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
content string Zawartość cytatu. Tak
title string Tytuł cytatu. Nie.
Adres URL string Adres URL cytatu. Nie.
ścieżka pliku string Ścieżka pliku cytatu. Nie.
chunk_id string Identyfikator fragmentu cytatu. Nie.

chatCompletionMessageToolCall

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Identyfikator wywołania narzędzia. Tak
type toolCallType W tym przypadku functiontyp wywołania narzędzia . Tak
function obiekt Funkcja wywoływana przez model. Tak

Właściwości funkcji

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

Argumenty

Nazwisko Pisz Opis Wartość domyślna
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

toolCallType

W tym przypadku functiontyp wywołania narzędzia .

Opis: typ wywołania narzędzia, w tym przypadku function.

Typ: ciąg

Domyślnie:

Nazwa wyliczenia: ToolCallType

Wartości wyliczenia:

Wartość Opis
function Typ wywołania narzędzia to funkcja.

chatCompletionRequestMessageTool

Nazwisko Pisz Opis Wymagani Wartość domyślna
tool_call_id string Wywołanie narzędzia, na które odpowiada ten komunikat. Nie.
content string Zawartość wiadomości. Nie.

chatCompletionRequestMessageFunction

Nazwisko Pisz Opis Wymagani Wartość domyślna
role wyliczenie Rola autora komunikatów, w tym przypadku function.
Możliwe wartości: funkcja
Nie.
nazwa string Zawartość wiadomości. Nie.
content string Zawartość wiadomości. Nie.

createChatCompletionResponse

Reprezentuje odpowiedź ukończenia czatu zwróconą przez model na podstawie podanych danych wejściowych.

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Unikatowy identyfikator ukończenia czatu. Tak
prompt_filter_results promptFilterResults Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. Nie.
Wyborów tablica Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1. Tak
utworzone integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Tak
model string Model używany do ukończenia czatu. Tak
system_fingerprint string Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.

Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.
Możliwe wartości: chat.completion
Tak
użycie completionUsage Statystyki użycia dla żądania ukończenia. Nie.

createChatCompletionStreamResponse

Reprezentuje strumień fragmentu odpowiedzi ukończenia czatu zwróconej przez model na podstawie podanych danych wejściowych.

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator string Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. Tak
Wyborów tablica Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1.
Tak
utworzone integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Każdy fragment ma ten sam znacznik czasu. Tak
model string Model do wygenerowania ukończenia. Tak
system_fingerprint string Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.
Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
Nie.
obiekt wyliczenie Typ obiektu, który jest zawsze chat.completion.chunk.
Możliwe wartości: chat.completion.chunk
Tak

chatCompletionStreamResponseDelta

Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
content string Zawartość komunikatu fragmentu. Nie.
function_call obiekt Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
tool_calls tablica Nie.
role wyliczenie Rola autora tej wiadomości.
Możliwe wartości: system, użytkownik, asystent, narzędzie
Nie.
odmowa string Komunikat o odmowie wygenerowany przez model. Nie.

Właściwości function_call

Argumenty

Nazwisko Pisz Opis Wartość domyślna
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

chatCompletionMessageToolCallChunk

Nazwisko Pisz Opis Wymagani Wartość domyślna
index integer Tak
identyfikator string Identyfikator wywołania narzędzia. Nie.
type wyliczenie Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.
Możliwe wartości: funkcja
Nie.
function obiekt Nie.

Właściwości funkcji

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

Argumenty

Nazwisko Pisz Opis Wartość domyślna
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

chatCompletionStreamOptions

Opcje odpowiedzi przesyłania strumieniowego. Ustaw tę wartość tylko po ustawieniu .stream: true

Nazwisko Pisz Opis Wymagani Wartość domyślna
include_usage boolean W przypadku ustawienia przed komunikatem data: [DONE] zostanie przesłany strumień dodatkowy fragment. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą. Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null.
Nie.

chatCompletionChoiceLogProbs

Informacje o prawdopodobieństwie rejestrowania dla wybranego elementu.

Nazwisko Pisz Opis Wymagani Wartość domyślna
content tablica Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwa dziennika. Tak
odmowa tablica Lista tokenów odmowy wiadomości z informacjami o prawdopodobieństwa dziennika. Nie.

chatCompletionTokenLogprob

Nazwisko Pisz Opis Wymagani Wartość domyślna
token string Token. Tak
logprob Liczba Prawdopodobieństwo dziennika tego tokenu. Tak
B tablica Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może być, null jeśli dla tokenu nie ma reprezentacji bajtów. Tak
top_logprobs tablica Lista najbardziej prawdopodobnych tokenów i ich prawdopodobieństwa dziennika na tej pozycji tokenu. W rzadkich przypadkach może być mniej niż liczba zwróconych żądań top_logprobs . Tak

chatCompletionResponseMessage

Komunikat ukończenia czatu wygenerowany przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
role chatCompletionResponseMessageRole Rola autora komunikatu odpowiedzi. Tak
odmowa string Komunikat o odmowie wygenerowany przez model. Tak
content string Zawartość wiadomości. Tak
tool_calls tablica Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. Nie.
function_call chatCompletionFunctionCall Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. Nie.
kontekst azureChatExtensionsMessageContext Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI
w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy
przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nie.

chatCompletionResponseMessageRole

Rola autora komunikatu odpowiedzi.

Opis: rola autora komunikatu odpowiedzi.

Typ: ciąg

Domyślnie:

Wartości wyliczenia:

  • asystent

chatCompletionToolChoiceOption

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia.

Ten składnik może być jednym z następujących elementów:

chatCompletionNamedToolChoice

Określa narzędzie, które ma być używane przez model. Użyj polecenia , aby wymusić wywołanie określonej funkcji przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.
Możliwe wartości: funkcja
Tak
function obiekt Tak

Właściwości funkcji

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa funkcji do wywołania.

ParallelToolCalls

Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.

Brak zdefiniowanych właściwości dla tego składnika.

chatCompletionMessageToolCalls

Wywołania narzędzia generowane przez model, takie jak wywołania funkcji.

Brak zdefiniowanych właściwości dla tego składnika.

chatCompletionFunctionCall

Przestarzałe i zastąpione przez tool_calls. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.

Nazwisko Pisz Opis Wymagani Wartość domyślna
nazwa string Nazwa funkcji do wywołania. Tak
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. Tak

completionUsage

Statystyki użycia dla żądania ukończenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
prompt_tokens integer Liczba tokenów w wierszu polecenia. Tak
completion_tokens integer Liczba tokenów w wygenerowanych ukończeniu. Tak
total_tokens integer Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). Tak
completion_tokens_details obiekt Podział tokenów używanych w zakończeniu. Nie.

Właściwości completion_tokens_details

reasoning_tokens

Nazwisko Pisz Opis Wartość domyślna
reasoning_tokens integer Tokeny generowane przez model z powodów.

chatCompletionTool

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.
Możliwe wartości: funkcja
Tak
function FunctionObject Tak

Parametry funkcji

Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.

Brak zdefiniowanych właściwości dla tego składnika.

FunctionObject

Nazwisko Pisz Opis Wymagani Wartość domyślna
opis string Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. Nie.
nazwa string Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. Tak
parameters Parametry funkcji Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu.

Pominięcie parameters definiuje funkcję z pustą listą parametrów.
Nie.
ściśle boolean Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Nie. Fałsz

ResponseFormatText

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ zdefiniowanego formatu odpowiedzi: text
Możliwe wartości: tekst
Tak

ResponseFormatJsonObject

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ zdefiniowanego formatu odpowiedzi: json_object
Możliwe wartości: json_object
Tak

ResponseFormatJsonSchemaSchema

Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.

Brak zdefiniowanych właściwości dla tego składnika.

ResponseFormatJsonSchema

Nazwisko Pisz Opis Wymagani Wartość domyślna
type wyliczenie Typ zdefiniowanego formatu odpowiedzi: json_schema
Możliwe wartości: json_schema
Tak
json_schema obiekt Tak

Właściwości json_schema

opis

Nazwa/nazwisko Pisz Opis Domyślny
opis string Opis formatu odpowiedzi używany przez model do określenia sposobu reagowania w formacie.

name

Nazwisko Pisz Opis Wartość domyślna
nazwa string Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64.

schema

Nazwisko Pisz Opis Wartość domyślna
schema ResponseFormatJsonSchemaSchema Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.

ściśle

Nazwisko Pisz Opis Wartość domyślna
ściśle boolean Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych. W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true. Fałsz

chatCompletionChoiceCommon

Nazwisko Pisz Opis Wymagani Wartość domyślna
index integer Nie.
finish_reason string Nie

createTranslationRequest

Żądanie tłumaczenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Plik audio do tłumaczenia. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0

audioResponse

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON

Nazwisko Pisz Opis Wymagani Wartość domyślna
text string Przetłumaczony lub transkrypowany tekst. Tak

audioVerboseResponse

Odpowiedź tłumaczenia lub transkrypcji, gdy response_format była verbose_json

Nazwisko Pisz Opis Wymagani Wartość domyślna
text string Przetłumaczony lub transkrypowany tekst. Tak
task string Typ zadania audio. Nie.
język string Język. Nie.
czas trwania Liczba Czas trwania. Nie.
segmenty tablica Nie.

audioResponseFormat

Definiuje format danych wyjściowych.

Opis: definiuje format danych wyjściowych.

Typ: ciąg

Domyślnie:

Wartości wyliczenia:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

Żądanie transkrypcji.

Nazwisko Pisz Opis Wymagani Wartość domyślna
plik string Obiekt pliku audio do transkrypcji. Tak
monit string Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. Nie.
response_format audioResponseFormat Definiuje format danych wyjściowych. Nie.
temperature Liczba Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. Nie. 0
język string Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. Nie.

audioSegment

Transkrypcja lub segment tłumaczenia.

Nazwisko Pisz Opis Wymagani Wartość domyślna
identyfikator integer Identyfikator segmentu. Nie.
szukać Liczba Przesunięcie segmentu. Nie.
start Liczba Przesunięcie rozpoczęcia segmentu. Nie.
end Liczba Przesunięcie końcowe segmentu. Nie.
text string Tekst segmentu. Nie.
Tokeny tablica Tokeny tekstu. Nie.
temperature Liczba Temperatura. Nie.
avg_logprob Liczba Średnie prawdopodobieństwo dziennika. Nie.
compression_ratio Liczba Sprężania. Nie.
no_speech_prob Liczba Prawdopodobieństwo wartości no speech. Nie.

imageQuality

Jakość obrazu, który zostanie wygenerowany.

Opis: jakość obrazu, który zostanie wygenerowany.

Typ: ciąg

Wartość domyślna: standardowa

Nazwa wyliczenia: Jakość

Wartości wyliczenia:

Wartość Opis
standardowa Standardowa jakość tworzy obrazy o standardowej jakości.
Hd Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie.

imagesResponseFormat

Format, w którym są zwracane wygenerowane obrazy.

Opis: format, w którym są zwracane wygenerowane obrazy.

Typ: ciąg

Ustawienie domyślne: adres URL

Nazwa wyliczenia: ImagesResponseFormat

Wartości wyliczenia:

Wartość Opis
Adres URL Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów.
b64_json Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64.

imageSize

Rozmiar wygenerowanych obrazów.

Opis: rozmiar wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: 1024x1024

Nazwa wyliczenia: rozmiar

Wartości wyliczenia:

Wartość Opis
1792x1024 Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli.
1024x1792 Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli.
1024x1024 Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli.

imageStyle

Styl wygenerowanych obrazów.

Opis: styl wygenerowanych obrazów.

Typ: ciąg

Ustawienie domyślne: żywe

Nazwa wyliczenia: styl

Wartości wyliczenia:

Wartość Opis
żywy Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne.
naturalny Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne.

imageGenerationsRequest

Nazwisko Pisz Opis Wymagani Wartość domyślna
monit string Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. Tak
n integer Liczba obrazów do wygenerowania. Nie. 1
size imageSize Rozmiar wygenerowanych obrazów. Nie. 1024x1024
response_format imagesResponseFormat Format, w którym są zwracane wygenerowane obrazy. Nie. Adres URL
Użytkownik string Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. Nie.
jakość imageQuality Jakość obrazu, który zostanie wygenerowany. Nie. standardowa
— styl imageStyle Styl wygenerowanych obrazów. Nie. żywy

generateImagesResponse

Nazwisko Pisz Opis Wymagani Wartość domyślna
utworzone integer Sygnatura czasowa systemu unix podczas tworzenia operacji. Tak
dane tablica Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie Tak

imageResult

Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.

Nazwisko Pisz Opis Wymagani Wartość domyślna
Adres URL string Adres URL obrazu. Nie.
b64_json string Obraz zakodowany w formacie base64 Nie.
content_filter_results dalleContentFilterResults Informacje o wynikach filtrowania zawartości. Nie.
revised_prompt string Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. Nie.
prompt_filter_results dalleFilterResults Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. Nie.

Rozszerzenia uzupełniania

Rozszerzenia uzupełniania nie są częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.

Czatmessage

Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.

Zamiana tekstu na mowę

Obecnie nie jest częścią najnowszej wersji ogólnodostępnej platformy Azure OpenAI w specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawcza tej funkcji.

Następne kroki

Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.