Dokumentacja interfejsu API REST usługi Azure OpenAI
Ten artykuł zawiera szczegółowe informacje na temat punktów końcowych interfejsu API REST wnioskowania dla usługi Azure OpenAI.
Specyfikacje interfejsu API
Zarządzanie modelami i zasobami platformy Azure OpenAI i zarządzanie nimi jest podzielone na trzy podstawowe powierzchnie interfejsu API:
- Płaszczyzna sterowania
- Płaszczyzna danych — tworzenie
- Płaszczyzna danych — wnioskowanie
Każda powierzchnia/specyfikacja interfejsu API hermetyzuje inny zestaw funkcji usługi Azure OpenAI. Każdy interfejs API ma swój własny unikatowy zestaw wersji zapoznawczych i stabilne/ogólnie dostępne wersje interfejsu API. Obecnie wersje zapoznawcza mają tendencję do śledzenia miesięcznego tempa.
interfejs API | Najnowsza wersja zapoznawcza | Najnowsza wersja ogólnie dostępna | Specyfikacje | opis |
---|---|---|---|---|
Płaszczyzna sterowania | 2024-06-01-preview |
2024-10-01 |
Pliki specyfikacji | Usługa Azure OpenAI udostępnia wspólną płaszczyznę sterowania wszystkim innym usługom Azure AI Services. Interfejs API płaszczyzny sterowania służy do tworzenia zasobów usługi Azure OpenAI, wdrażania modelu i innych zadań zarządzania zasobami wyższego poziomu. Płaszczyzna sterowania zarządza również możliwościami, takimi jak azure Resource Manager, Bicep, Terraform i interfejs wiersza polecenia platformy Azure. |
Płaszczyzna danych — tworzenie | 2024-10-01-preview |
2024-10-21 |
Pliki specyfikacji | Interfejs API tworzenia płaszczyzny danych steruje dostrajaniem, przekazywaniem plików, zadaniami pozyskiwania danych, zapytaniami na poziomie usługi Batch i określonymi zapytaniami na poziomie modelu |
Płaszczyzna danych — wnioskowanie | 2024-10-01-preview |
2024-10-21 |
Pliki specyfikacji | Interfejs API wnioskowania płaszczyzny danych zapewnia możliwości wnioskowania/punktów końcowych dla funkcji, takich jak ukończenie, ukończenie czatu, osadzanie, mowę/szepta, na danych, dall-e, asystentów itp. |
Uwierzytelnianie
Usługa Azure OpenAI udostępnia dwie metody uwierzytelniania. Możesz użyć kluczy interfejsu API lub identyfikatora entra firmy Microsoft.
Uwierzytelnianie klucza interfejsu API: w przypadku tego typu uwierzytelniania wszystkie żądania interfejsu API muszą zawierać klucz interfejsu API w nagłówku
api-key
HTTP. Przewodnik Szybki start zawiera wskazówki dotyczące wykonywania wywołań przy użyciu tego typu uwierzytelniania.Uwierzytelnianie identyfikatora Entra firmy Microsoft: możesz uwierzytelnić wywołanie interfejsu API przy użyciu tokenu Entra firmy Microsoft. Tokeny uwierzytelniania są dołączane do żądania jako nagłówka
Authorization
. Podany token musi być poprzedzony elementemBearer
, na przykładBearer YOUR_AUTH_TOKEN
. Możesz przeczytać nasz przewodnik z instrukcjami dotyczącymi uwierzytelniania za pomocą identyfikatora Entra firmy Microsoft.
Przechowywanie wersji interfejsu API REST
Interfejsy API usługi są wersjonowane przy użyciu parametru api-version
zapytania. Wszystkie wersje są zgodne ze strukturą dat RRRR-MM-DD. Na przykład:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Wnioskowanie płaszczyzny danych
W pozostałej części artykułu omówiono najnowszą wersję ogólnodostępną specyfikacji wnioskowania płaszczyzny danych platformy Azure OpenAI. 2024-10-21
Jeśli szukasz dokumentacji najnowszej wersji zapoznawczej interfejsu API, zapoznaj się z najnowszym interfejsem API wnioskowania płaszczyzny danych w wersji zapoznawczej
Uzupełnienia
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | ciąg lub tablica | Monity dotyczące generowania uzupełniania dla ciągów, tablicy ciągów, tablicy tokenów, tablicy tokenów lub tablicy tablicy tokenów. Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu. |
Tak | |
best_of | integer | Generuje uzupełnianie best_of po stronie serwera i zwraca wartość "best" (jedyną z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników.W przypadku użycia z elementem n best_of określa liczbę ukończonych kandydatów i n określa, ile należy zwrócić â € " best_of musi być większe niż n .Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop . |
Nie. | 1 |
echo | boolean | Powtórz ponownie monit oprócz ukończenia |
Nie. | Fałsz |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do skojarzonej wartości od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> . |
Nie. | Brak |
logprobs | integer | Uwzględnij prawdopodobieństwa dziennika dla logprobs najbardziej prawdopodobnych tokenów wyjściowych, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowy token, więc może istnieć maksymalnie logprobs+1 elementy w odpowiedzi.Maksymalna wartość parametru logprobs to 5. |
Nie. | Brak |
max_tokens | integer | Maksymalna liczba tokenów, które można wygenerować w zakończeniu. Liczba tokenów monitu plus max_tokens nie może przekraczać długości kontekstu modelu. |
Nie. | 16 |
n | integer | Ile uzupełniania ma być generowanych dla każdego monitu. Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop . |
Nie. | 1 |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. |
Nie. | 0 |
nasienie | integer | Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu. |
Nie. | |
zatrzymać | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania. |
Nie. | |
strumień | boolean | Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE] . |
Nie. | Fałsz |
przyrostek | string | Sufiks, który pojawia się po zakończeniu wstawionego tekstu. Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct . |
Nie. | Brak |
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | createCompletionResponse | Reprezentuje odpowiedź ukończenia z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i niestreamed mają ten sam kształt (w przeciwieństwie do punktu końcowego czatu). |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Type | Opis |
---|---|---|
application/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Osadzanie
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Uzyskaj wektorową reprezentację danych wejściowych, które mogą być łatwo używane przez modele i algorytmy uczenia maszynowego.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
input | ciąg lub tablica | Tekst wejściowy do osadzenia, zakodowany jako ciąg lub tablica tokenów. Aby osadzić wiele danych wejściowych w jednym żądaniu, przekaż tablicę ciągów lub tablicę tablic tokenów. Dane wejściowe nie mogą przekraczać maksymalnych tokenów wejściowych dla modelu (8192 tokenów dla text-embedding-ada-002 ), nie mogą być pustymi ciągami, a każda tablica musi mieć 2048 wymiarów lub mniej. |
Tak | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
input_type | string | typ danych wejściowych wyszukiwania osadzania do użycia | Nie. | |
encoding_format | string | Format umożliwiający zwrócenie osadzania. Może to być wartość float lub base64 . Wartość domyślna to float . |
Nie. | |
wymiary | integer | Liczba wymiarów, które powinny mieć wynikowe osadzanie danych wyjściowych. Obsługiwane tylko w text-embedding-3 modelach i nowszych. |
Nie. |
Odpowiedzi
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
obiekt | string | Tak | ||
model | string | Tak | ||
dane | tablica | Tak | ||
użycie | obiekt | Tak |
Właściwości użycia
prompt_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
total_tokens | integer |
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | obiekt |
Przykłady
Przykład
Zwróć osadzanie dla danego monitu.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Ukończenie czatu
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Tworzy ukończenie wiadomości na czacie
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. |
Nie. | |
max_tokens | integer | Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu. Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. |
Nie. | |
max_completion_tokens | integer | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. |
Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. |
Nie. | Brak |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. | |
wiadomości | tablica | Lista wiadomości składających się z konwersacji do tej pory. | Tak | |
data_sources | tablica | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
logprobs | boolean | Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message . |
Nie. | Fałsz |
top_logprobs | integer | Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. |
Nie. | |
n | integer | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. |
Nie. | 1 |
parallel_tool_calls | ParallelToolCalls | Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. | Nie. | Prawda |
response_format | ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema | Obiekt określający format, który musi zostać wygenerowany przez model. Zgodność z GPT-4o, GPT-4o mini, GPT-4 Turbo i wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106 . Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.Ustawienie w celu { "type": "json_object" } włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length" , co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu. |
Nie. | |
nasienie | integer | Ta funkcja jest dostępna w wersji beta. Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu. |
Nie. | |
tools | tablica | Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. |
Nie. | |
tool_choice | chatCompletionToolChoiceOption | Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. |
Nie. | |
function_call | ciąg lub czatCompletionFunctionCallOption | Przestarzałe na rzecz .tool_choice Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne. |
Nie. | |
— funkcje | tablica | Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | createChatCompletionResponse lub createChatCompletionStreamResponse |
Kod stanu: wartość domyślna
Opis: Usługa niedostępna
Typ zawartości | Type | Opis |
---|---|---|
application/json | errorResponse |
Przykłady
Przykład
Tworzy uzupełnianie dla podanego monitu, parametrów i wybranego modelu.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnianie na podstawie danych usługi Azure Search i przypisanej przez system tożsamości zarządzanej.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy uzupełnianie na podstawie danych wektora usługi Azure Search, poprzedniego komunikatu asystenta i tożsamości zarządzanej przypisanej przez użytkownika.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Przykład
Tworzy ukończenie dla podanej usługi Azure Cosmos DB.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transkrypcje — tworzenie
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transkrybuje dźwięk w języku wejściowym.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu szeptu. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: multipart/form-data
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Obiekt pliku audio do transkrypcji. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
język | string | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | audioResponse lub audioVerboseResponse | |
text/plain | string | Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrypcja tekstu i skojarzonych metadanych z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Tłumaczenia — tworzenie
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transkrybuje i tłumaczy dźwięk wejściowy na tekst w języku angielskim.
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu szeptu, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: multipart/form-data
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Plik audio do tłumaczenia. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
Odpowiedzi
Kod stanu: 200
Opis: OK
Typ zawartości | Type | Opis |
---|---|---|
application/json | audioResponse lub audioVerboseResponse | |
text/plain | string | Transkrypcja tekstu w formacie wyjściowym (gdy response_format był jednym z tekstu, vtt lub srt). |
Przykłady
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Przykład
Pobiera transkrybowany tekst w języku angielskim i skojarzone metadane z dostarczonych danych dźwiękowych mówionych.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Odpowiedzi: Kod stanu: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Generowanie obrazu
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Generuje partię obrazów na podstawie podpisu tekstowego dla danego wdrożenia modelu dall-e
Parametry identyfikatora URI
Nazwisko | W | Wymagania | Type | Opis |
---|---|---|---|---|
endpoint | path | Tak | string Adres URL |
Obsługiwane punkty końcowe usługi Azure OpenAI (protokół i nazwa hosta, na przykład: https://aoairesource.openai.azure.com . Zastąp ciąg "aoairesource" nazwą zasobu Azure OpenAI. https://{nazwa_zasobu}.openai.azure.com |
deployment-id | path | Tak | string | Identyfikator wdrożenia modelu dall-e, który został wdrożony. |
api-version | zapytanie | Tak | string | Wersja interfejsu API |
Nagłówek żądania
Nazwisko | Wymagania | Type | Opis |
---|---|---|---|
api-key | Prawda | string | Tutaj podaj klucz interfejsu API usługi Azure OpenAI |
Treść żądania
Typ zawartości: application/json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | string | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | integer | Liczba obrazów do wygenerowania. | Nie. | 1 |
size | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
response_format | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | Adres URL |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standardowa |
— styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
Odpowiedzi
Kod stanu: 200
Opis: Ok
Typ zawartości | Type | Opis |
---|---|---|
application/json | generateImagesResponse |
Kod stanu: wartość domyślna
Opis: Wystąpił błąd.
Typ zawartości | Type | Opis |
---|---|---|
application/json | dalleErrorResponse |
Przykłady
Przykład
Tworzy obrazy z monitem.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Odpowiedzi: Kod stanu: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Składniki
errorResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
error | błąd | Nie. |
errorBase
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | string | Nie | ||
wiadomość | string | Nie |
error
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Param | string | Nie | ||
type | string | Nie | ||
inner_error | innerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
innerError
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
content_filter_results | contentFilterPromptResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
innerErrorCode
Kody błędów dla obiektu błędu wewnętrznego.
Opis: Kody błędów dla wewnętrznego obiektu błędu.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: InnerErrorCode
Wartości wyliczenia:
Wartość | Opis |
---|---|
ResponsibleAIPolicyViolation | Monit naruszył jedną z więcej reguł filtrowania zawartości. |
dalleErrorResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
error | dalleError | Nie. |
dalleError
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Param | string | Nie | ||
type | string | Nie | ||
inner_error | dalleInnerError | Wewnętrzny błąd z dodatkowymi szczegółami. | Nie. |
dalleInnerError
Wewnętrzny błąd z dodatkowymi szczegółami.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
code | innerErrorCode | Kody błędów dla obiektu błędu wewnętrznego. | Nie. | |
content_filter_results | dalleFilterResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. | |
revised_prompt | string | Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. | Nie. |
contentFilterResultBase
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak |
contentFilterSeverityResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak | ||
ważność | string | Nie |
contentFilterDetectedResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Filtrowane | boolean | Tak | ||
Wykryte | boolean | Nie. |
contentFilterDetectedWithCitationResult
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
cytat | obiekt | Nie. |
Właściwości cytatu
URL
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
URL | string |
license (licencja)
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
license (licencja) | string |
contentFilterResultsBase
Informacje o wynikach filtrowania zawartości.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. |
contentFilterPromptResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. | ||
Jailbreak | contentFilterDetectedResult | Nie. |
contentFilterChoiceResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o tekście i wulgaryzmach innych firm, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
error | errorBase | Nie. | ||
protected_material_text | contentFilterDetectedResult | Nie. | ||
protected_material_code | contentFilterDetectedWithCitationResult | Nie. |
promptFilterResult
Wyniki filtrowania zawartości dla pojedynczego monitu w żądaniu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
prompt_index | integer | Nie. | ||
content_filter_results | contentFilterPromptResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
promptFilterResults
Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach.
Brak zdefiniowanych właściwości dla tego składnika.
dalleContentFilterResults
Informacje o wynikach filtrowania zawartości.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. |
dalleFilterResults
Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
seksualny | contentFilterSeverityResult | Nie. | ||
przemoc | contentFilterSeverityResult | Nie. | ||
nienawiść | contentFilterSeverityResult | Nie. | ||
self_harm | contentFilterSeverityResult | Nie. | ||
przekleństwo | contentFilterDetectedResult | Nie. | ||
Jailbreak | contentFilterDetectedResult | Nie. |
chatCompletionsRequestCommon
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatem data: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. | Nie. | |
max_tokens | integer | Maksymalna liczba tokenów dozwolonych dla wygenerowanej odpowiedzi. Domyślnie liczba tokenów, które może zwrócić model, to (4096 — tokeny monitu). Ta wartość jest teraz przestarzała na rzecz max_completion_tokens elementu i nie jest zgodna z modelami serii o1. |
Nie. | 4096 |
max_completion_tokens | integer | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. | Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. | Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. | Nie. | |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc usłudze Azure OpenAI w monitorowaniu i wykrywaniu nadużyć. | Nie. |
createCompletionRequest
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | ciąg lub tablica | Monity dotyczące generowania uzupełniania dla ciągów, tablicy ciągów, tablicy tokenów, tablicy tokenów lub tablicy tablicy tokenów. Należy pamiętać, że <|endoftext|> jest separatorem dokumentu, który widzi model podczas trenowania, więc jeśli monit nie zostanie określony, model zostanie wygenerowany tak, jakby od początku nowego dokumentu. |
Tak | |
best_of | integer | Generuje uzupełnianie best_of po stronie serwera i zwraca wartość "best" (jedyną z najwyższym prawdopodobieństwem dziennika na token). Nie można przesyłać strumieniowo wyników.W przypadku użycia z elementem n best_of określa liczbę ukończonych kandydatów i n określa, ile należy zwrócić â € " best_of musi być większe niż n .Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop . |
Nie. | 1 |
echo | boolean | Powtórz ponownie monit oprócz ukończenia |
Nie. | Fałsz |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON, który mapuje tokeny (określone przez ich identyfikator tokenu w tokenizatorze GPT) do skojarzonej wartości od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. Na przykład możesz przekazać polecenie {"50256": -100} , aby zapobiec wygenerowaniu tokenu <|endoftext|> . |
Nie. | Brak |
logprobs | integer | Uwzględnij prawdopodobieństwa dziennika dla logprobs najbardziej prawdopodobnych tokenów wyjściowych, a także wybrane tokeny. Jeśli na przykład logprobs ma wartość 5, interfejs API zwróci listę pięciu najbardziej prawdopodobnych tokenów. Interfejs API zawsze zwraca logprob przykładowy token, więc może istnieć maksymalnie logprobs+1 elementy w odpowiedzi.Maksymalna wartość parametru logprobs to 5. |
Nie. | Brak |
max_tokens | integer | Maksymalna liczba tokenów, które można wygenerować w zakończeniu. Liczba tokenów monitu plus max_tokens nie może przekraczać długości kontekstu modelu. |
Nie. | 16 |
n | integer | Ile uzupełniania ma być generowanych dla każdego monitu. Uwaga: ponieważ ten parametr generuje wiele uzupełniania, może szybko korzystać z limitu przydziału tokenu. Należy ostrożnie używać i upewnić się, że masz odpowiednie ustawienia dla max_tokens i stop . |
Nie. | 1 |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. |
Nie. | 0 |
nasienie | integer | Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu. |
Nie. | |
zatrzymać | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. Zwrócony tekst nie będzie zawierać sekwencji zatrzymania. |
Nie. | |
strumień | boolean | Czy przesyłać strumieniowo częściowy postęp. W przypadku ustawienia tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE] . |
Nie. | Fałsz |
przyrostek | string | Sufiks, który pojawia się po zakończeniu wstawionego tekstu. Ten parametr jest obsługiwany tylko dla programu gpt-3.5-turbo-instruct . |
Nie. | Brak |
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. |
createCompletionResponse
Reprezentuje odpowiedź ukończenia z interfejsu API. Uwaga: obiekty odpowiedzi przesyłane strumieniowo i niestreamed mają ten sam kształt (w przeciwieństwie do punktu końcowego czatu).
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Unikatowy identyfikator ukończenia. | Tak | |
Wyborów | tablica | Lista opcji uzupełniania dla modelu wygenerowanego dla monitu wejściowego. | Tak | |
utworzone | integer | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia ukończenia. | Tak | |
model | string | Model używany do ukończenia. | Tak | |
prompt_filter_results | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. | Nie. | |
system_fingerprint | string | Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model. Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze "text_completion" Możliwe wartości: text_completion |
Tak | |
użycie | completionUsage | Statystyki użycia dla żądania ukończenia. | Nie. |
createChatCompletionRequest
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
temperature | Liczba | Jaka temperatura próbkowania ma być używana z zakresu od 0 do 2. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Ogólnie zalecamy zmianę tego lub top_p nie obu tych elementów. |
Nie. | 1 |
top_p | Liczba | Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%. Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów. |
Nie. | 1 |
strumień | boolean | W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów, na przykład w module ChatGPT. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE] . |
Nie. | Fałsz |
zatrzymać | ciąg lub tablica | Maksymalnie cztery sekwencje, w których interfejs API przestanie generować kolejne tokeny. |
Nie. | |
max_tokens | integer | Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu. Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. |
Nie. | |
max_completion_tokens | integer | Górna granica liczby tokenów, które można wygenerować na potrzeby ukończenia, w tym widoczne tokeny wyjściowe i tokeny rozumowania. | Nie. | |
presence_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzą nowe tokeny na podstawie tego, czy są one wyświetlane w tekście do tej pory, zwiększając prawdopodobieństwo, że model będzie mówił o nowych tematach. |
Nie. | 0 |
frequency_penalty | Liczba | Liczba z zakresu od -2.0 do 2.0. Wartości dodatnie karzeją nowe tokeny na podstawie ich istniejącej częstotliwości w tekście do tej pory, zmniejszając prawdopodobieństwo powtórzeń tego samego wiersza. |
Nie. | 0 |
logit_bias | obiekt | Zmodyfikuj prawdopodobieństwo wyświetlania określonych tokenów w zakończeniu. Akceptuje obiekt JSON mapujący tokeny (określone przez ich identyfikator tokenu w tokenizatorze) na skojarzzoną wartość stronniczą z zakresu od -100 do 100. Matematycznie stronniczy jest dodawany do logitów wygenerowanych przez model przed próbkowaniem. Dokładny efekt będzie się różnić w zależności od modelu, ale wartości z zakresu od -1 do 1 powinny zmniejszyć lub zwiększyć prawdopodobieństwo wyboru; wartości takie jak -100 lub 100 powinny spowodować zakaz lub wyłączny wybór odpowiedniego tokenu. |
Nie. | Brak |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. |
Nie. | |
wiadomości | tablica | Lista wiadomości składających się z konwersacji do tej pory. | Tak | |
data_sources | tablica | Wpisy konfiguracji dla rozszerzeń czatu usługi Azure OpenAI, które ich używają. Ta dodatkowa specyfikacja jest zgodna tylko z usługą Azure OpenAI. |
Nie. | |
logprobs | boolean | Czy zwracać prawdopodobieństwo dziennika tokenów wyjściowych, czy nie. Jeśli wartość true, zwraca prawdopodobieństwo dziennika każdego tokenu wyjściowego zwróconego w elemecie content message . |
Nie. | Fałsz |
top_logprobs | integer | Liczba całkowita z zakresu od 0 do 20 określająca liczbę najbardziej prawdopodobnych tokenów do zwrócenia na każdej pozycji tokenu, z których każde ma skojarzone prawdopodobieństwo dziennika. logprobs musi być ustawiona na true wartość , jeśli ten parametr jest używany. |
Nie. | |
n | integer | Ile opcji ukończenia czatu ma być generowanych dla każdej wiadomości wejściowej. Pamiętaj, że opłaty będą naliczane na podstawie liczby wygenerowanych tokenów we wszystkich opcjach. Zachowaj n , 1 aby zminimalizować koszty. |
Nie. | 1 |
parallel_tool_calls | ParallelToolCalls | Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia. | Nie. | Prawda |
response_format | ResponseFormatText lub ResponseFormatJsonObject lub ResponseFormatJsonSchema | Obiekt określający format, który musi zostać wygenerowany przez model. Zgodność z GPT-4o, GPT-4o mini, GPT-4 Turbo i wszystkimi modelami GPT-3.5 Turbo nowszymi niż gpt-3.5-turbo-1106 . Ustawienie w celu { "type": "json_schema", "json_schema": {...} } włączenia danych wyjściowych ze strukturą, które gwarantuje, że model będzie zgodny z podanym schematem JSON.Ustawienie w celu { "type": "json_object" } włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.Ważne: w przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemowego lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length" , co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu. |
Nie. | |
nasienie | integer | Ta funkcja jest dostępna w wersji beta. Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik.Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu. |
Nie. | |
tools | tablica | Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Obsługiwane są maksymalnie 128 funkcji. |
Nie. | |
tool_choice | chatCompletionToolChoiceOption | Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model. none jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto jest wartością domyślną, jeśli istnieją narzędzia. |
Nie. | |
function_call | ciąg lub czatCompletionFunctionCallOption | Przestarzałe na rzecz .tool_choice Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji, a zamiast tego generuje komunikat.auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji.Określenie określonej funkcji za pośrednictwem {"name": "my_function"} wymusza wywołanie tej funkcji przez model.none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne. |
Nie. | |
— funkcje | tablica | Przestarzałe na rzecz .tools Lista funkcji, dla których model może generować dane wejściowe JSON. |
Nie. |
chatCompletionFunctions
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
opis | string | Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. | Nie. | |
nazwa | string | Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. | Tak | |
parameters | Parametry funkcji | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu. Pominięcie parameters definiuje funkcję z pustą listą parametrów. |
Nie. |
chatCompletionFunctionCallOption
Określenie określonej funkcji za pośrednictwem {"name": "my_function"}
wymusza wywołanie tej funkcji przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. | Tak |
chatCompletionRequestMessage
Ten składnik może być jednym z następujących elementów:
chatCompletionRequestSystemMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | ciąg lub tablica | Zawartość komunikatu systemowego. | Tak | |
role | wyliczenie | Rola autora komunikatów, w tym przypadku system .Możliwe wartości: system |
Tak | |
nazwa | string | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. |
chatCompletionRequestUserMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | ciąg lub tablica | Zawartość wiadomości użytkownika. |
Tak | |
role | wyliczenie | Rola autora komunikatów, w tym przypadku user .Możliwe wartości: użytkownik |
Tak | |
nazwa | string | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. |
chatCompletionRequestAssistantMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | ciąg lub tablica | Zawartość komunikatu asystenta. Wymagane, chyba że tool_calls określono wartość lub function_call . |
Nie. | |
odmowa | string | Wiadomość o odmowie asystenta. | Nie. | |
role | wyliczenie | Rola autora komunikatów, w tym przypadku assistant .Możliwe wartości: asystent |
Tak | |
nazwa | string | Opcjonalna nazwa uczestnika. Zawiera informacje o modelu umożliwiające rozróżnienie między uczestnikami tej samej roli. | Nie. | |
tool_calls | chatCompletionMessageToolCalls | Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. | Nie. | |
function_call | obiekt | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. |
Właściwości function_call
Argumenty
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
chatCompletionRequestToolMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | wyliczenie | Rola autora komunikatów, w tym przypadku tool .Możliwe wartości: narzędzie |
Tak | |
content | ciąg lub tablica | Zawartość komunikatu narzędzia. | Tak | |
tool_call_id | string | Wywołanie narzędzia, na które odpowiada ten komunikat. | Tak |
chatCompletionRequestFunctionMessage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | wyliczenie | Rola autora komunikatów, w tym przypadku function .Możliwe wartości: funkcja |
Tak | |
content | string | Zawartość komunikatu funkcji. | Tak | |
nazwa | string | Nazwa funkcji do wywołania. | Tak |
chatCompletionRequestSystemMessageContentPart
Ten składnik może być jednym z następujących elementów:
chatCompletionRequestUserMessageContentPart
Ten składnik może być jednym z następujących elementów:
chatCompletionRequestAssistantMessageContentPart
Ten składnik może być jednym z następujących elementów:
chatCompletionRequestToolMessageContentPart
Ten składnik może być jednym z następujących elementów:
chatCompletionRequestMessageContentPartText
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ części zawartości. Możliwe wartości: tekst |
Tak | |
text | string | Zawartość tekstowa. | Tak |
chatCompletionRequestMessageContentPartImage
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ części zawartości. Możliwe wartości: image_url |
Tak | |
image_url | obiekt | Tak |
Właściwości image_url
Adres URL
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Adres URL | string | Adres URL obrazu lub zakodowane w formacie base64 dane obrazu. |
szczegóły
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
szczegóły | string | Określa poziom szczegółowości obrazu. Dowiedz się więcej w przewodniku dotyczącym przetwarzania obrazów. | auto |
chatCompletionRequestMessageContentPartRefusal
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ części zawartości. Możliwe wartości: odmowa |
Tak | |
odmowa | string | Komunikat o odmowie wygenerowany przez model. | Tak |
azureChatExtensionConfiguration
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak |
azureChatExtensionType
Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Opis: reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez żądanie ukończenia czatu, które powinno używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: AzureChatExtensionType
Wartości wyliczenia:
Wartość | Opis |
---|---|
azure_search | Reprezentuje użycie usługi Azure Search jako rozszerzenia czatu usługi Azure OpenAI. |
azure_cosmos_db | Reprezentuje użycie usługi Azure Cosmos DB jako rozszerzenia czatu usługi Azure OpenAI. |
azureSearchChatExtensionConfiguration
Konkretna reprezentacja konfigurowalnych opcji usługi Azure Search podczas korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
parameters | azureSearchChatExtensionParameters | Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI. | Nie. |
azureSearchChatExtensionParameters
Parametry usługi Azure Search, gdy są używane jako rozszerzenie czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataApiKeyAuthenticationOptions lub onYourDataSystemAssignedManagedIdentityAuthenticationOptions lub onYourDataUserAssignedManagedIdentityAuthenticationOptions | Tak | ||
top_n_documents | integer | Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. | Nie. | |
in_scope | boolean | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | integer | Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
role_information | string | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. | Nie. | |
endpoint | string | Bezwzględna ścieżka punktu końcowego zasobu usługi Azure Search do użycia. | Tak | |
index_name | string | Nazwa indeksu, który ma być używany jako dostępny w przywoływowanym zasobie usługi Azure Search. | Tak | |
fields_mapping | azureSearchIndexFieldMappingOptions | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search. | Nie. | |
query_type | azureSearchQueryType | Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI. | Nie. | |
semantic_configuration | string | Dodatkowa konfiguracja semantyczna zapytania. | Nie. | |
filtr | string | Filtr wyszukiwania. | Nie. | |
embedding_dependency | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Nie. |
azureSearchIndexFieldMappingOptions
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól podczas korzystania ze skonfigurowanego zasobu usługi Azure Search.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
title_field | string | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | string | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
filepath_field | string | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
content_fields | tablica | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Nie. | |
content_fields_separator | string | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
vector_fields | tablica | Nazwy pól reprezentujących dane wektorowe. | Nie. |
azureSearchQueryType
Typ zapytania pobierania usługi Azure Search, który należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.
Opis: typ zapytania pobierania usługi Azure Search, które należy wykonać podczas korzystania z niego jako rozszerzenie czatu usługi Azure OpenAI.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: AzureSearchQueryType
Wartości wyliczenia:
Wartość | Opis |
---|---|
prosty | Reprezentuje domyślny, prosty analizator zapytań. |
semantyczne | Reprezentuje semantyczny analizator zapytań na potrzeby zaawansowanego modelowania semantycznego. |
wektor | Reprezentuje wyszukiwanie wektorów na podstawie obliczonych danych. |
vector_simple_hybrid | Reprezentuje kombinację prostej strategii zapytania z danymi wektorowymi. |
vector_semantic_hybrid | Reprezentuje kombinację semantycznego wyszukiwania i wykonywania zapytań dotyczących danych wektorowych. |
azureCosmosDBChatExtensionConfiguration
Konkretna reprezentacja konfigurowalnych opcji dla usługi Azure Cosmos DB w przypadku korzystania z niej jako rozszerzenia czatu usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | azureChatExtensionType | Reprezentacja danych konfiguracji dla pojedynczego rozszerzenia czatu usługi Azure OpenAI. Będzie to używane przez czat uzupełnianie żądań, które powinny używać rozszerzeń czatu usługi Azure OpenAI w celu rozszerzenia zachowania odpowiedzi. Użycie tej konfiguracji jest zgodne tylko z usługą Azure OpenAI. |
Tak | |
parameters | azureCosmosDBChatExtensionParameters | Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI w czacie danych podczas korzystania z usługi Azure Cosmos DB dla Rdzenie wirtualne bazy danych MongoDB. |
Nie. |
azureCosmosDBChatExtensionParameters
Parametry do użycia podczas konfigurowania rozszerzenia czatu usługi Azure OpenAI na czacie danych podczas korzystania z usługi Azure Cosmos DB dla rdzeni wirtualnych bazy danych MongoDB.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
uwierzytelnianie | onYourDataConnectionStringAuthenticationOptions | Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia. | Tak | |
top_n_documents | integer | Skonfigurowano maksymalną liczbę dokumentów do funkcji dla skonfigurowanego zapytania. | Nie. | |
in_scope | boolean | Czy zapytania powinny być ograniczone do używania indeksowanych danych. | Nie. | |
ścisłość | integer | Skonfigurowana ścisłość filtrowania istotności wyszukiwania. Im większa surowość, większa precyzja, ale niższa kompletność odpowiedzi. | Nie. | |
role_information | string | Przekaż instrukcje dotyczące sposobu działania modelu i dowolnego kontekstu, do którego powinien się odwoływać podczas generowania odpowiedzi. Możesz opisać osobowość asystenta i poinformować go, jak formatować odpowiedzi. Istnieje limit tokenu 100 i jest liczone względem ogólnego limitu tokenów. | Nie. | |
database_name | string | Nazwa bazy danych mongoDB z rdzeniami wirtualnymi do użycia z usługą Azure Cosmos DB. | Tak | |
container_name | string | Nazwa kontenera zasobów usługi Azure Cosmos DB. | Tak | |
index_name | string | Nazwa indeksu rdzeni wirtualnych bazy danych MongoDB do użycia z usługą Azure Cosmos DB. | Tak | |
fields_mapping | azureCosmosDBFieldMappingOptions | Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB. | Tak | |
embedding_dependency | onYourDataEndpointVectorizationSource lub onYourDataDeploymentNameVectorizationSource | Tak |
azureCosmosDBFieldMappingOptions
Opcjonalne ustawienia umożliwiające kontrolowanie sposobu przetwarzania pól przy użyciu skonfigurowanego zasobu usługi Azure Cosmos DB.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
title_field | string | Nazwa pola indeksu, które ma być używane jako tytuł. | Nie. | |
url_field | string | Nazwa pola indeksu, które ma być używane jako adres URL. | Nie. | |
filepath_field | string | Nazwa pola indeksu do użycia jako ścieżka pliku. | Nie. | |
content_fields | tablica | Nazwy pól indeksu, które powinny być traktowane jako zawartość. | Tak | |
content_fields_separator | string | Wzorzec separatora, którego powinny używać pola zawartości. | Nie. | |
vector_fields | tablica | Nazwy pól reprezentujących dane wektorowe. | Tak |
onYourDataAuthenticationOptions
Opcje uwierzytelniania dla usługi Azure OpenAI On Your Data.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak |
onYourDataAuthenticationType
Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.
Opis: Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataAuthenticationType
Wartości wyliczenia:
Wartość | Opis |
---|---|
api_key | Uwierzytelnianie za pośrednictwem klucza interfejsu API. |
connection_string | Uwierzytelnianie za pośrednictwem parametry połączenia. |
system_assigned_managed_identity | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez system. |
user_assigned_managed_identity | Uwierzytelnianie za pośrednictwem tożsamości zarządzanej przypisanej przez użytkownika. |
onYourDataApiKeyAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
klucz | string | Klucz interfejsu API do użycia do uwierzytelniania. | Nie. |
onYourDataConnectionStringAuthenticationOptions
Opcje uwierzytelniania dla usługi Azure OpenAI Na danych podczas korzystania z parametry połączenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
connection_string | string | Parametry połączenia do użycia do uwierzytelniania. | Nie. |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez system.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z tożsamości zarządzanej przypisanej przez użytkownika.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataAuthenticationType | Typy uwierzytelniania obsługiwane w usłudze Azure OpenAI na danych. | Tak | |
managed_identity_resource_id | string | Identyfikator zasobu tożsamości zarządzanej przypisanej przez użytkownika do użycia do uwierzytelniania. | Nie. |
onYourDataVectorizationSource
Abstrakcyjna reprezentacja źródła wektoryzacji dla usługi Azure OpenAI On Your Data z wyszukiwaniem wektorowym.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak |
onYourDataVectorizationSourceType
Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data może służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwaniem wektorowym.
Opis: Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z
wyszukiwanie wektorów.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: OnYourDataVectorizationSourceType
Wartości wyliczenia:
Wartość | Opis |
---|---|
endpoint | Reprezentuje wektoryzację wykonywaną przez wywołania usług publicznych do modelu osadzania usługi Azure OpenAI. |
deployment_name | Reprezentuje nazwę wdrożenia modelu Ada do użycia. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale Na danych użyje tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wektor wyszukiwanie nawet w sieciach prywatnych. |
onYourDataDeploymentNameVectorizationSource
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na wewnętrznej nazwie wdrożenia modelu osadzania w tym samym zasobie usługi Azure OpenAI.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak | |
deployment_name | string | Określa nazwę wdrożenia modelu do użycia na potrzeby wektoryzacji. To wdrożenie modelu musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych będzie używać tego wdrożenia modelu za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
onYourDataEndpointVectorizationSource
Szczegóły źródła wektoryzacji używanego przez usługę Azure OpenAI On Your Data podczas stosowania wyszukiwania wektorowego opartego na publicznym wywołaniu punktu końcowego usługi Azure OpenAI na potrzeby osadzania.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | onYourDataVectorizationSourceType | Reprezentuje dostępne źródła usługi Azure OpenAI On Your Data mogą służyć do konfigurowania wektoryzacji danych do użycia z wyszukiwanie wektorów. |
Tak | |
uwierzytelnianie | onYourDataApiKeyAuthenticationOptions | Opcje uwierzytelniania usługi Azure OpenAI na danych podczas korzystania z klucza interfejsu API. | Nie. | |
endpoint | string | Określa punkt końcowy, który ma być używany do wektoryzacji. Ten punkt końcowy musi znajdować się w tym samym zasobie usługi Azure OpenAI, ale w danych użyje tego punktu końcowego za pośrednictwem wywołania wewnętrznego, a nie publicznego, co umożliwia wyszukiwanie wektorów nawet w sieciach prywatnych. | Nie. |
azureChatExtensionsMessageContext
Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy rozszerzenia czatu usługi Azure OpenAI są zaangażowane w generowanie odpowiedniej odpowiedzi na czat. Te informacje kontekstowe są wypełniane tylko w przypadku używania żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Cytatów | tablica | Wynik pobierania źródła danych używany do generowania komunikatu asystenta w odpowiedzi. | Nie. | |
Intencja | string | Wykryta intencja z historii czatu użyta do przekazania do następnego kroku w celu przeniesienia kontekstu. | Nie. |
cytat
informacje o cytatach dla komunikatu odpowiedzi zakończenia czatu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | string | Zawartość cytatu. | Tak | |
title | string | Tytuł cytatu. | Nie. | |
Adres URL | string | Adres URL cytatu. | Nie. | |
ścieżka pliku | string | Ścieżka pliku cytatu. | Nie. | |
chunk_id | string | Identyfikator fragmentu cytatu. | Nie. |
chatCompletionMessageToolCall
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Identyfikator wywołania narzędzia. | Tak | |
type | toolCallType | W tym przypadku function typ wywołania narzędzia . |
Tak | |
function | obiekt | Funkcja wywoływana przez model. | Tak |
Właściwości funkcji
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
Argumenty
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
toolCallType
W tym przypadku function
typ wywołania narzędzia .
Opis: typ wywołania narzędzia, w tym przypadku function
.
Typ: ciąg
Domyślnie:
Nazwa wyliczenia: ToolCallType
Wartości wyliczenia:
Wartość | Opis |
---|---|
function | Typ wywołania narzędzia to funkcja. |
chatCompletionRequestMessageTool
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
tool_call_id | string | Wywołanie narzędzia, na które odpowiada ten komunikat. | Nie. | |
content | string | Zawartość wiadomości. | Nie. |
chatCompletionRequestMessageFunction
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | wyliczenie | Rola autora komunikatów, w tym przypadku function .Możliwe wartości: funkcja |
Nie. | |
nazwa | string | Zawartość wiadomości. | Nie. | |
content | string | Zawartość wiadomości. | Nie. |
createChatCompletionResponse
Reprezentuje odpowiedź ukończenia czatu zwróconą przez model na podstawie podanych danych wejściowych.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Unikatowy identyfikator ukończenia czatu. | Tak | |
prompt_filter_results | promptFilterResults | Wyniki filtrowania zawartości dla zera lub większej liczby monitów w żądaniu. W żądaniu przesyłania strumieniowego wyniki dla różnych monitów mogą pojawiać się w różnych porach lub w różnych zamówieniach. | Nie. | |
Wyborów | tablica | Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1. |
Tak | |
utworzone | integer | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. | Tak | |
model | string | Model używany do ukończenia czatu. | Tak | |
system_fingerprint | string | Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model. Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze chat.completion .Możliwe wartości: chat.completion |
Tak | |
użycie | completionUsage | Statystyki użycia dla żądania ukończenia. | Nie. |
createChatCompletionStreamResponse
Reprezentuje strumień fragmentu odpowiedzi ukończenia czatu zwróconej przez model na podstawie podanych danych wejściowych.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | string | Unikatowy identyfikator ukończenia czatu. Każdy fragment ma ten sam identyfikator. | Tak | |
Wyborów | tablica | Lista opcji ukończenia czatu. Może zawierać więcej niż jeden element, jeśli n jest większy niż 1. |
Tak | |
utworzone | integer | Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu. Każdy fragment ma ten sam znacznik czasu. | Tak | |
model | string | Model do wygenerowania ukończenia. | Tak | |
system_fingerprint | string | Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model. Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm. |
Nie. | |
obiekt | wyliczenie | Typ obiektu, który jest zawsze chat.completion.chunk .Możliwe wartości: chat.completion.chunk |
Tak |
chatCompletionStreamResponseDelta
Delta ukończenia czatu wygenerowana przez przesyłane strumieniowo odpowiedzi modelu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | string | Zawartość komunikatu fragmentu. | Nie. | |
function_call | obiekt | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. | |
tool_calls | tablica | Nie. | ||
role | wyliczenie | Rola autora tej wiadomości. Możliwe wartości: system, użytkownik, asystent, narzędzie |
Nie. | |
odmowa | string | Komunikat o odmowie wygenerowany przez model. | Nie. |
Właściwości function_call
Argumenty
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
chatCompletionMessageToolCallChunk
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
index | integer | Tak | ||
identyfikator | string | Identyfikator wywołania narzędzia. | Nie. | |
type | wyliczenie | Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.Możliwe wartości: funkcja |
Nie. | |
function | obiekt | Nie. |
Właściwości funkcji
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
Argumenty
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
chatCompletionStreamOptions
Opcje odpowiedzi przesyłania strumieniowego. Ustaw tę wartość tylko po ustawieniu .stream: true
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
include_usage | boolean | W przypadku ustawienia przed komunikatem data: [DONE] zostanie przesłany strumień dodatkowy fragment. Pole usage w tym fragmentzie pokazuje statystyki użycia tokenu dla całego żądania, a choices pole zawsze będzie pustą tablicą. Wszystkie inne fragmenty będą również zawierać usage pole, ale z wartością null. |
Nie. |
chatCompletionChoiceLogProbs
Informacje o prawdopodobieństwie rejestrowania dla wybranego elementu.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
content | tablica | Lista tokenów zawartości komunikatów z informacjami o prawdopodobieństwa dziennika. | Tak | |
odmowa | tablica | Lista tokenów odmowy wiadomości z informacjami o prawdopodobieństwa dziennika. | Nie. |
chatCompletionTokenLogprob
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
token | string | Token. | Tak | |
logprob | Liczba | Prawdopodobieństwo dziennika tego tokenu. | Tak | |
B | tablica | Lista liczb całkowitych reprezentujących reprezentację tokenu w bajtach UTF-8. Przydatne w wystąpieniach, w których znaki są reprezentowane przez wiele tokenów, a ich reprezentacje bajtów muszą być łączone, aby wygenerować poprawną reprezentację tekstu. Może być, null jeśli dla tokenu nie ma reprezentacji bajtów. |
Tak | |
top_logprobs | tablica | Lista najbardziej prawdopodobnych tokenów i ich prawdopodobieństwa dziennika na tej pozycji tokenu. W rzadkich przypadkach może być mniej niż liczba zwróconych żądań top_logprobs . |
Tak |
chatCompletionResponseMessage
Komunikat ukończenia czatu wygenerowany przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | Rola autora komunikatu odpowiedzi. | Tak | |
odmowa | string | Komunikat o odmowie wygenerowany przez model. | Tak | |
content | string | Zawartość wiadomości. | Tak | |
tool_calls | tablica | Wywołania narzędzia generowane przez model, takie jak wywołania funkcji. | Nie. | |
function_call | chatCompletionFunctionCall | Przestarzałe i zastąpione przez tool_calls . Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Nie. | |
kontekst | azureChatExtensionsMessageContext | Reprezentacja dodatkowych informacji kontekstowych dostępnych, gdy są zaangażowane rozszerzenia czatu usługi Azure OpenAI w generacji odpowiadającej odpowiedzi na ukończenie czatu. Te informacje kontekstowe są wypełniane tylko wtedy, gdy przy użyciu żądania usługi Azure OpenAI skonfigurowanego do używania zgodnego rozszerzenia. |
Nie. |
chatCompletionResponseMessageRole
Rola autora komunikatu odpowiedzi.
Opis: rola autora komunikatu odpowiedzi.
Typ: ciąg
Domyślnie:
Wartości wyliczenia:
- asystent
chatCompletionToolChoiceOption
Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model. none
oznacza, że model nie wywoła żadnego narzędzia, a zamiast tego generuje komunikat. auto
oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia. required
oznacza, że model musi wywoływać co najmniej jedno narzędzie. Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}}
wymusza wywołanie tego narzędzia przez model. none
jest ustawieniem domyślnym, gdy żadne narzędzia nie są obecne. auto
jest wartością domyślną, jeśli istnieją narzędzia.
Ten składnik może być jednym z następujących elementów:
chatCompletionNamedToolChoice
Określa narzędzie, które ma być używane przez model. Użyj polecenia , aby wymusić wywołanie określonej funkcji przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.Możliwe wartości: funkcja |
Tak | |
function | obiekt | Tak |
Właściwości funkcji
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. |
ParallelToolCalls
Czy włączyć równoległe wywoływanie funkcji podczas używania narzędzia.
Brak zdefiniowanych właściwości dla tego składnika.
chatCompletionMessageToolCalls
Wywołania narzędzia generowane przez model, takie jak wywołania funkcji.
Brak zdefiniowanych właściwości dla tego składnika.
chatCompletionFunctionCall
Przestarzałe i zastąpione przez tool_calls
. Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
nazwa | string | Nazwa funkcji do wywołania. | Tak | |
Argumenty | string | Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może generować parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. | Tak |
completionUsage
Statystyki użycia dla żądania ukończenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
prompt_tokens | integer | Liczba tokenów w wierszu polecenia. | Tak | |
completion_tokens | integer | Liczba tokenów w wygenerowanych ukończeniu. | Tak | |
total_tokens | integer | Łączna liczba tokenów używanych w żądaniu (monit + ukończenie). | Tak | |
completion_tokens_details | obiekt | Podział tokenów używanych w zakończeniu. | Nie. |
Właściwości completion_tokens_details
reasoning_tokens
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
reasoning_tokens | integer | Tokeny generowane przez model z powodów. |
chatCompletionTool
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.Możliwe wartości: funkcja |
Tak | |
function | FunctionObject | Tak |
Parametry funkcji
Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu.
Pominięcie parameters
definiuje funkcję z pustą listą parametrów.
Brak zdefiniowanych właściwości dla tego składnika.
FunctionObject
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
opis | string | Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję. | Nie. | |
nazwa | string | Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. | Tak | |
parameters | Parametry funkcji | Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Zapoznaj się z przewodnikiem , aby zapoznać się z przykładami i dokumentacją dotyczącą schematu JSON, aby uzyskać dokumentację dotyczącą formatu. Pominięcie parameters definiuje funkcję z pustą listą parametrów. |
Nie. | |
ściśle | boolean | Czy włączyć ścisłe przestrzeganie schematu podczas generowania wywołania funkcji. Jeśli ustawiono wartość true, model będzie postępować zgodnie z dokładnym schematem zdefiniowanym parameters w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true . |
Nie. | Fałsz |
ResponseFormatText
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: text Możliwe wartości: tekst |
Tak |
ResponseFormatJsonObject
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: json_object Możliwe wartości: json_object |
Tak |
ResponseFormatJsonSchemaSchema
Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON.
Brak zdefiniowanych właściwości dla tego składnika.
ResponseFormatJsonSchema
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
type | wyliczenie | Typ zdefiniowanego formatu odpowiedzi: json_schema Możliwe wartości: json_schema |
Tak | |
json_schema | obiekt | Tak |
Właściwości json_schema
opis
Nazwa/nazwisko | Pisz | Opis | Domyślny |
---|---|---|---|
opis | string | Opis formatu odpowiedzi używany przez model do określenia sposobu reagowania w formacie. |
name
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
nazwa | string | Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. |
schema
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
schema | ResponseFormatJsonSchemaSchema | Schemat formatu odpowiedzi, opisany jako obiekt schematu JSON. |
ściśle
Nazwisko | Pisz | Opis | Wartość domyślna |
---|---|---|---|
ściśle | boolean | Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych. W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego schema w polu. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict ma wartość true . |
Fałsz |
chatCompletionChoiceCommon
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
index | integer | Nie. | ||
finish_reason | string | Nie |
createTranslationRequest
Żądanie tłumaczenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Plik audio do tłumaczenia. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być w języku angielskim. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
audioResponse
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format był w formacie JSON
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
text | string | Przetłumaczony lub transkrypowany tekst. | Tak |
audioVerboseResponse
Odpowiedź tłumaczenia lub transkrypcji, gdy response_format była verbose_json
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
text | string | Przetłumaczony lub transkrypowany tekst. | Tak | |
task | string | Typ zadania audio. | Nie. | |
język | string | Język. | Nie. | |
czas trwania | Liczba | Czas trwania. | Nie. | |
segmenty | tablica | Nie. |
audioResponseFormat
Definiuje format danych wyjściowych.
Opis: definiuje format danych wyjściowych.
Typ: ciąg
Domyślnie:
Wartości wyliczenia:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Żądanie transkrypcji.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
plik | string | Obiekt pliku audio do transkrypcji. | Tak | |
monit | string | Opcjonalny tekst prowadzący do stylu modelu lub kontynuacji poprzedniego segmentu audio. Monit powinien być zgodny z językiem dźwięku. | Nie. | |
response_format | audioResponseFormat | Definiuje format danych wyjściowych. | Nie. | |
temperature | Liczba | Temperatura próbkowania z zakresu od 0 do 1. Wyższe wartości, takie jak 0,8, sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości, takie jak 0,2, sprawią, że będzie bardziej skoncentrowany i deterministyczny. Jeśli ustawiono wartość 0, model użyje prawdopodobieństwa dziennika, aby automatycznie zwiększyć temperaturę do momentu trafienia określonych progów. | Nie. | 0 |
język | string | Język wejściowego dźwięku. Podanie języka wejściowego w formacie ISO-639-1 poprawi dokładność i opóźnienie. | Nie. |
audioSegment
Transkrypcja lub segment tłumaczenia.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
identyfikator | integer | Identyfikator segmentu. | Nie. | |
szukać | Liczba | Przesunięcie segmentu. | Nie. | |
start | Liczba | Przesunięcie rozpoczęcia segmentu. | Nie. | |
end | Liczba | Przesunięcie końcowe segmentu. | Nie. | |
text | string | Tekst segmentu. | Nie. | |
Tokeny | tablica | Tokeny tekstu. | Nie. | |
temperature | Liczba | Temperatura. | Nie. | |
avg_logprob | Liczba | Średnie prawdopodobieństwo dziennika. | Nie. | |
compression_ratio | Liczba | Sprężania. | Nie. | |
no_speech_prob | Liczba | Prawdopodobieństwo wartości no speech . |
Nie. |
imageQuality
Jakość obrazu, który zostanie wygenerowany.
Opis: jakość obrazu, który zostanie wygenerowany.
Typ: ciąg
Wartość domyślna: standardowa
Nazwa wyliczenia: Jakość
Wartości wyliczenia:
Wartość | Opis |
---|---|
standardowa | Standardowa jakość tworzy obrazy o standardowej jakości. |
Hd | Jakość hd tworzy obrazy z bardziej szczegółowymi szczegółami i większą spójnością na obrazie. |
imagesResponseFormat
Format, w którym są zwracane wygenerowane obrazy.
Opis: format, w którym są zwracane wygenerowane obrazy.
Typ: ciąg
Ustawienie domyślne: adres URL
Nazwa wyliczenia: ImagesResponseFormat
Wartości wyliczenia:
Wartość | Opis |
---|---|
Adres URL | Adres URL, który zapewnia tymczasowy dostęp do pobierania wygenerowanych obrazów. |
b64_json | Wygenerowane obrazy są zwracane jako ciąg zakodowany w formacie base64. |
imageSize
Rozmiar wygenerowanych obrazów.
Opis: rozmiar wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: 1024x1024
Nazwa wyliczenia: rozmiar
Wartości wyliczenia:
Wartość | Opis |
---|---|
1792x1024 | Żądany rozmiar wygenerowanego obrazu to 1792 x 1024 pikseli. |
1024x1792 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1792 pikseli. |
1024x1024 | Żądany rozmiar wygenerowanego obrazu to 1024 x 1024 pikseli. |
imageStyle
Styl wygenerowanych obrazów.
Opis: styl wygenerowanych obrazów.
Typ: ciąg
Ustawienie domyślne: żywe
Nazwa wyliczenia: styl
Wartości wyliczenia:
Wartość | Opis |
---|---|
żywy | Vivid tworzy obrazy, które są hiperrealistyczne i dramatyczne. |
naturalny | Naturalne tworzy obrazy, które są bardziej naturalne i mniej hiperrealistyczne. |
imageGenerationsRequest
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
monit | string | Opis tekstu żądanych obrazów. Maksymalna długość to 4000 znaków. | Tak | |
n | integer | Liczba obrazów do wygenerowania. | Nie. | 1 |
size | imageSize | Rozmiar wygenerowanych obrazów. | Nie. | 1024x1024 |
response_format | imagesResponseFormat | Format, w którym są zwracane wygenerowane obrazy. | Nie. | Adres URL |
Użytkownik | string | Unikatowy identyfikator reprezentujący użytkownika końcowego, który może pomóc w monitorowaniu i wykrywaniu nadużyć. | Nie. | |
jakość | imageQuality | Jakość obrazu, który zostanie wygenerowany. | Nie. | standardowa |
— styl | imageStyle | Styl wygenerowanych obrazów. | Nie. | żywy |
generateImagesResponse
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
utworzone | integer | Sygnatura czasowa systemu unix podczas tworzenia operacji. | Tak | |
dane | tablica | Dane wynikowe operacji, jeśli operacja zakończyła się pomyślnie | Tak |
imageResult
Adres URL obrazu lub zakodowany obraz, jeśli się powiedzie, i błąd w przeciwnym razie.
Nazwisko | Pisz | Opis | Wymagani | Wartość domyślna |
---|---|---|---|---|
Adres URL | string | Adres URL obrazu. | Nie. | |
b64_json | string | Obraz zakodowany w formacie base64 | Nie. | |
content_filter_results | dalleContentFilterResults | Informacje o wynikach filtrowania zawartości. | Nie. | |
revised_prompt | string | Monit, który został użyty do wygenerowania obrazu, jeśli wystąpiła jakakolwiek poprawka do monitu. | Nie. | |
prompt_filter_results | dalleFilterResults | Informacje o kategorii filtrowania zawartości (nienawiść, przemoc seksualna, przemoc, self_harm), jeśli została wykryta, a także poziom ważności (very_low, niski, średni, wysoki, który określa intensywność i poziom ryzyka szkodliwej zawartości) i czy został przefiltrowany, czy nie. Informacje o zawartości jailbreaku i wulgaryzmach, jeśli zostały wykryte i czy zostały odfiltrowane, czy nie. Informacje o liście zablokowanych klientów, jeśli zostały odfiltrowane i jej identyfikator. | Nie. |
Rozszerzenia uzupełniania
Rozszerzenia uzupełniania nie są częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.
Czatmessage
Obiekt komunikatu czatu nie jest częścią najnowszej wersji ogólnie dostępnej specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI.
Zamiana tekstu na mowę
Obecnie nie jest częścią najnowszej wersji ogólnodostępnej platformy Azure OpenAI w specyfikacji wnioskowania płaszczyzny danych usługi Azure OpenAI. Zapoznaj się z najnowszą wersją zapoznawcza tej funkcji.
Następne kroki
Dowiedz się więcej o modelach i dostrajaniu za pomocą interfejsu API REST. Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.