Get Chat Completions - Get Chat Completions
Pobiera uzupełnianie czatów dla podanych wiadomości czatu.
Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu. Metoda wykonuje wywołanie interfejsu API REST do trasy /chat/completions
w danym punkcie końcowym.
POST https:///chat/completions?api-version=2024-05-01-preview
Parametry identyfikatora URI
Nazwa | W | Wymagane | Typ | Opis |
---|---|---|---|---|
api-version
|
query | True |
string minLength: 1 |
Wersja interfejsu API do użycia dla tej operacji. |
Nagłówek żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
extra-parameters |
Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON.
Spowoduje to ustawienie nagłówka żądania HTTP |
Treść żądania
Nazwa | Wymagane | Typ | Opis |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
Kolekcja wiadomości kontekstowych skojarzonych z tym żądaniem ukończenia czatu. Typowe użycie rozpoczyna się od wiadomości czatu dla roli systemowej, która zawiera instrukcje dotyczące zachowania asystenta, a następnie zmiany komunikatów między rolami Użytkownika i Asystenta. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich częstotliwości skumulowanej w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo powtórzenia tych samych instrukcji przez model. Obsługiwany zakres to [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
Maksymalna liczba tokenów do wygenerowania. |
|
modalities |
Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu. Domyślna modalność to |
||
model |
string |
Identyfikator określonego modelu sztucznej inteligencji do użycia, jeśli w punkcie końcowym jest dostępny więcej niż jeden model. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą wyświetlane, gdy już istnieją i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu. Obsługiwany zakres to [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Obiekt określający format, który musi zostać wygenerowany przez model. Ustawienie na Ustawienie
Ważne: w przypadku korzystania z trybu JSON również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli |
|
seed |
integer (int64) |
Jeśli zostanie określony, system podejmie najlepsze wysiłki, aby próbkować deterministycznie takie, że powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany. |
|
stop |
string[] |
Kolekcja sekwencji tekstowych, które zakończą generowanie uzupełniania. |
|
stream |
boolean |
Wartość wskazująca, czy ukończenia czatu powinny być przesyłane strumieniowo dla tego żądania. |
|
temperature |
number (float) minimum: 0maximum: 1 |
Temperatura próbkowania do użycia kontroluje pozorną kreatywność generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1]. |
|
tool_choice |
Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może używać do odpowiedzi na ukończenie czatu. |
||
tools |
Lista narzędzi, które model może zażądać wywołania. Obecnie tylko funkcje są obsługiwane jako narzędzie. Model może odpowiedź z żądaniem wywołania funkcji i podać argumenty wejściowe w formacie JSON dla tej funkcji. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje rozważenie tylko tokenów zawierających 15 pierwszych% masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1]. |
Odpowiedzi
Nazwa | Typ | Opis |
---|---|---|
200 OK |
Żądanie zakończyło się pomyślnie. |
|
Other Status Codes |
Nieoczekiwana odpowiedź na błąd. Nagłówki x-ms-error-code: string |
Zabezpieczenia
api-key
Typ:
apiKey
W:
header
OAuth2Auth
Typ:
oauth2
Flow:
implicit
Adres URL autoryzacji:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Zakresy
Nazwa | Opis |
---|---|
https://ml.azure.com/.default |
Przykłady
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Przykładowe żądanie
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Przykładowa odpowiedź
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Przykładowe żądanie
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Przykładowa odpowiedź
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Przykładowe żądanie
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Przykładowa odpowiedź
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definicje
Nazwa | Opis |
---|---|
Audio |
Reprezentacja możliwych formatów audio dla dźwięku. |
Azure. |
Obiekt błędu. |
Azure. |
Odpowiedź zawierająca szczegóły błędu. |
Azure. |
Obiekt zawierający bardziej szczegółowe informacje o błędzie. Zgodnie z wytycznymi dotyczącymi interfejsu MICROSOFT One API — https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
Reprezentacja pojedynczego ukończenia monitu w ramach ogólnego żądania ukończenia czatu.
Ogólnie rzecz biorąc, |
Chat |
Reprezentacja danych odpowiedzi z żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu. |
Chat |
Reprezentacja dźwięku wygenerowanego przez model. |
Chat |
Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu. |
Chat |
Informacje o konfiguracji żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu. |
Chat |
Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON. Należy pamiętać, że aby włączyć tryb JSON, niektóre modele sztucznej inteligencji mogą również wymagać poinstruowania modelu o utworzeniu kodu JSON za pośrednictwem komunikatu systemu lub użytkownika. |
Chat |
Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON ze schematem JSON określonym przez obiekt wywołujący. |
Chat |
Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych. |
Chat |
Format odpowiedzi dla uzupełniania czatu, który emituje odpowiedzi tekstowe. Jest to domyślny format odpowiedzi. |
Chat |
Wywołanie narzędzia funkcji żądane przez model AI. |
Chat |
Definicja narzędzia do uzupełniania czatów, które może wywoływać funkcję. |
Chat |
Wiadomość czatu żądania reprezentująca odpowiedź lub akcję asystenta. |
Chat |
Odwołanie do odpowiedzi audio wygenerowanej przez model. |
Chat |
Wiadomość czatu żądania zawierająca instrukcje systemowe wpływające na sposób generowania odpowiedzi przez model na zakończenie czatu. |
Chat |
Wiadomość czatu żądania reprezentująca żądane dane wyjściowe ze skonfigurowanego narzędzia. |
Chat |
Wiadomość czatu żądania reprezentująca dane wejściowe użytkownika asystenta. |
Chat |
Reprezentacja wiadomości na czacie odebrana w odpowiedzi. |
Chat |
Opis zamierzonego celu wiadomości w ramach interakcji z ukończeniami czatu. |
Completions |
Reprezentacja sposobu, w jaki zakończyła się odpowiedź na ukończenie. |
Completions |
Reprezentacja liczby tokenów przetworzonych dla żądania ukończenia. Liczby uwzględniają wszystkie tokeny w monitach, wyborach, alternatywnych opcjach, best_of generacjach i innych użytkownikach. |
Completions |
Podział tokenów używanych w zakończeniu. |
Extra |
Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON. |
Function |
Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model. |
Function |
Definicja funkcji określonej przez obiekt wywołujący, która może wywołać uzupełnianie czatu w odpowiedzi na pasujące dane wejściowe użytkownika. |
Prompt |
Podział tokenów używanych w historii monitu/czatu. |
AudioContentFormat
Reprezentacja możliwych formatów audio dla dźwięku.
Wartość | Opis |
---|---|
mp3 |
Określa dźwięk w formacie MP3. |
wav |
Określa dźwięk w formacie WAV. |
Azure.Core.Foundations.Error
Obiekt błędu.
Nazwa | Typ | Opis |
---|---|---|
code |
string |
Jeden z zdefiniowanych przez serwer zestaw kodów błędów. |
details |
Tablica szczegółów dotyczących określonych błędów, które doprowadziły do tego zgłoszonego błędu. |
|
innererror |
Obiekt zawierający bardziej szczegółowe informacje niż bieżący obiekt o błędzie. |
|
message |
string |
Czytelna dla człowieka reprezentacja błędu. |
target |
string |
Element docelowy błędu. |
Azure.Core.Foundations.ErrorResponse
Odpowiedź zawierająca szczegóły błędu.
Nazwa | Typ | Opis |
---|---|---|
error |
Obiekt błędu. |
Azure.Core.Foundations.InnerError
Obiekt zawierający bardziej szczegółowe informacje o błędzie. Zgodnie z wytycznymi dotyczącymi interfejsu MICROSOFT One API — https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
Nazwa | Typ | Opis |
---|---|---|
code |
string |
Jeden z zdefiniowanych przez serwer zestaw kodów błędów. |
innererror |
Błąd wewnętrzny. |
ChatChoice
Reprezentacja pojedynczego ukończenia monitu w ramach ogólnego żądania ukończenia czatu.
Ogólnie rzecz biorąc, n
opcje są generowane na podany monit z wartością domyślną 1.
Limity tokenów i inne ustawienia mogą ograniczać liczbę wygenerowanych opcji.
Nazwa | Typ | Opis |
---|---|---|
finish_reason |
Powód, dla którego wybór ukończenia czatu zakończył jego wygenerowanie. |
|
index |
integer (int32) |
Uporządkowany indeks skojarzony z wybranymi ukończeniami czatu. |
message |
Komunikat czatu dla danego monitu o ukończenie czatu. |
ChatCompletions
Reprezentacja danych odpowiedzi z żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.
Nazwa | Typ | Opis |
---|---|---|
choices |
Kolekcja opcji uzupełniania skojarzonych z tą odpowiedzią ukończenia.
Ogólnie rzecz biorąc, |
|
created |
integer (unixtime) |
Pierwszy znacznik czasu skojarzony z działaniem generowania dla tej odpowiedzi ukończenia, reprezentowany jako sekundy od początku epoki systemu Unix 00:00 w dniu 1 stycznia 1970 r. |
id |
string |
Unikatowy identyfikator skojarzony z tą odpowiedzią na ukończenie czatu. |
model |
string |
Model używany do ukończenia czatu. |
object |
enum:
chat. |
Typ obiektu odpowiedzi, który jest zawsze |
usage |
Informacje o użyciu tokenów przetworzonych i wygenerowanych w ramach tej operacji uzupełniania. |
ChatCompletionsAudio
Reprezentacja dźwięku wygenerowanego przez model.
Nazwa | Typ | Opis |
---|---|---|
data |
string |
Dane audio zakodowane w formacie Base64 |
expires_at |
integer (unixtime) |
Sygnatura czasowa systemu Unix (w sekundach), w której wygaśnie fragment audio i nie może być już przywoływała identyfikatora w konwersacjach wieloetrowych. |
format |
Format zawartości audio. Jeśli format nie zostanie podany, będzie on zgodny z formatem używanym w żądaniu dźwięku wejściowego. |
|
id |
string |
Unikatowy identyfikator odpowiedzi audio. Ta wartość może być używana w komunikatach historii czatów zamiast przekazywania pełnego obiektu audio. |
transcript |
string |
Transkrypcja pliku audio. |
ChatCompletionsModality
Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu.
Wartość | Opis |
---|---|
audio |
Model może generować dźwięk. |
text |
Model może generować tylko tekst. |
ChatCompletionsOptions
Informacje o konfiguracji żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.
Nazwa | Typ | Domyślna wartość | Opis |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich częstotliwości skumulowanej w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo powtórzenia tych samych instrukcji przez model. Obsługiwany zakres to [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
Maksymalna liczba tokenów do wygenerowania. |
|
messages | ChatRequestMessage[]: |
Kolekcja wiadomości kontekstowych skojarzonych z tym żądaniem ukończenia czatu. Typowe użycie rozpoczyna się od wiadomości czatu dla roli systemowej, która zawiera instrukcje dotyczące zachowania asystenta, a następnie zmiany komunikatów między rolami Użytkownika i Asystenta. |
|
modalities |
Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu. Domyślna modalność to |
||
model |
string |
Identyfikator określonego modelu sztucznej inteligencji do użycia, jeśli w punkcie końcowym jest dostępny więcej niż jeden model. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą wyświetlane, gdy już istnieją i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu. Obsługiwany zakres to [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Obiekt określający format, który musi zostać wygenerowany przez model. Ustawienie na Ustawienie
Ważne: w przypadku korzystania z trybu JSON również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli |
|
seed |
integer (int64) |
Jeśli zostanie określony, system podejmie najlepsze wysiłki, aby próbkować deterministycznie takie, że powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany. |
|
stop |
string[] |
Kolekcja sekwencji tekstowych, które zakończą generowanie uzupełniania. |
|
stream |
boolean |
Wartość wskazująca, czy ukończenia czatu powinny być przesyłane strumieniowo dla tego żądania. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
Temperatura próbkowania do użycia kontroluje pozorną kreatywność generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1]. |
tool_choice |
Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może używać do odpowiedzi na ukończenie czatu. |
||
tools |
Lista narzędzi, które model może zażądać wywołania. Obecnie tylko funkcje są obsługiwane jako narzędzie. Model może odpowiedź z żądaniem wywołania funkcji i podać argumenty wejściowe w formacie JSON dla tej funkcji. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje rozważenie tylko tokenów zawierających 15 pierwszych% masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON. Należy pamiętać, że aby włączyć tryb JSON, niektóre modele sztucznej inteligencji mogą również wymagać poinstruowania modelu o utworzeniu kodu JSON za pośrednictwem komunikatu systemu lub użytkownika.
Nazwa | Typ | Opis |
---|---|---|
type |
string:
json_object |
Typ formatu odpowiedzi, który ma być używany do ukończenia czatu. |
ChatCompletionsResponseFormatJsonSchema
Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON ze schematem JSON określonym przez obiekt wywołujący.
Nazwa | Typ | Opis |
---|---|---|
json_schema |
Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych. |
|
type |
string:
json_schema |
Typ formatu odpowiedzi, który ma być używany do ukończenia czatu. |
ChatCompletionsResponseFormatJsonSchemaDefinition
Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych.
Nazwa | Typ | Domyślna wartość | Opis |
---|---|---|---|
description |
string |
Opis formatu odpowiedzi używany przez model sztucznej inteligencji do określania sposobu generowania odpowiedzi w tym formacie. |
|
name |
string |
Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64. |
|
schema |
Definicja schematu JSON |
||
strict |
boolean |
False |
Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych.
W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego w polu |
ChatCompletionsResponseFormatText
Format odpowiedzi dla uzupełniania czatu, który emituje odpowiedzi tekstowe. Jest to domyślny format odpowiedzi.
Nazwa | Typ | Opis |
---|---|---|
type |
string:
text |
Typ formatu odpowiedzi, który ma być używany do ukończenia czatu. |
ChatCompletionsToolCall
Wywołanie narzędzia funkcji żądane przez model AI.
Nazwa | Typ | Opis |
---|---|---|
function |
Szczegóły wywołania funkcji żądanego przez model AI. |
|
id |
string |
Identyfikator wywołania narzędzia. |
type |
enum:
function |
Typ wywołania narzędzia. Obecnie obsługiwana jest tylko |
ChatCompletionsToolDefinition
Definicja narzędzia do uzupełniania czatów, które może wywoływać funkcję.
Nazwa | Typ | Opis |
---|---|---|
function |
Szczegóły definicji funkcji narzędzia funkcji. |
|
type |
enum:
function |
Typ narzędzia. Obecnie obsługiwana jest tylko |
ChatRequestAssistantMessage
Wiadomość czatu żądania reprezentująca odpowiedź lub akcję asystenta.
Nazwa | Typ | Opis |
---|---|---|
audio |
Dźwięk wygenerowany przez poprzednią odpowiedź w konwersacji obejmującej wiele kolei. |
|
content |
string |
Zawartość wiadomości. |
role |
string:
assistant |
Rola czatu skojarzona z tą wiadomością. |
tool_calls |
Wywołania narzędzi, które muszą zostać rozwiązane i mają swoje dane wyjściowe dołączone do kolejnych komunikatów wejściowych dla żądania ukończenia czatu, aby rozwiązać problem zgodnie z konfiguracją. |
ChatRequestAudioReference
Odwołanie do odpowiedzi audio wygenerowanej przez model.
Nazwa | Typ | Opis |
---|---|---|
id |
string |
Unikatowy identyfikator odpowiedzi audio. Ta wartość odpowiada identyfikatorowi poprzedniego ukończenia dźwięku. |
ChatRequestSystemMessage
Wiadomość czatu żądania zawierająca instrukcje systemowe wpływające na sposób generowania odpowiedzi przez model na zakończenie czatu.
Nazwa | Typ | Opis |
---|---|---|
content |
string |
Zawartość komunikatu systemowego. |
role |
string:
system |
Rola czatu skojarzona z tą wiadomością. |
ChatRequestToolMessage
Wiadomość czatu żądania reprezentująca żądane dane wyjściowe ze skonfigurowanego narzędzia.
Nazwa | Typ | Opis |
---|---|---|
content |
string |
Zawartość wiadomości. |
role |
string:
tool |
Rola czatu skojarzona z tą wiadomością. |
tool_call_id |
string |
Identyfikator wywołania narzędzia rozpoznany przez podaną zawartość. |
ChatRequestUserMessage
Wiadomość czatu żądania reprezentująca dane wejściowe użytkownika asystenta.
Nazwa | Typ | Opis |
---|---|---|
content |
Zawartość komunikatu użytkownika z dostępnymi typami wejściowymi różnią się w zależności od wybranego modelu. |
|
role |
string:
user |
Rola czatu skojarzona z tą wiadomością. |
ChatResponseMessage
Reprezentacja wiadomości na czacie odebrana w odpowiedzi.
Nazwa | Typ | Opis |
---|---|---|
audio |
Dźwięk wygenerowany przez model jako odpowiedź na komunikaty, jeśli model jest skonfigurowany do generowania dźwięku. |
|
content |
string |
Zawartość wiadomości. |
role |
Rola czatu skojarzona z wiadomością. |
|
tool_calls |
Wywołania narzędzi, które muszą zostać rozwiązane i mają swoje dane wyjściowe dołączone do kolejnych komunikatów wejściowych dla żądania ukończenia czatu, aby rozwiązać problem zgodnie z konfiguracją. |
ChatRole
Opis zamierzonego celu wiadomości w ramach interakcji z ukończeniami czatu.
Wartość | Opis |
---|---|
assistant |
Rola, która zapewnia odpowiedzi na dane wejściowe poinstruowane przez system. |
developer |
Rola, która udostępnia instrukcje dotyczące modelu z priorytetem przed komunikatami użytkownika. |
system |
Rola, która instruuje lub ustawia zachowanie asystenta. |
tool |
Rola reprezentująca działanie narzędzia rozszerzenia w ramach operacji uzupełniania czatu. |
user |
Rola, która udostępnia dane wejściowe na potrzeby uzupełniania czatu. |
CompletionsFinishReason
Reprezentacja sposobu, w jaki zakończyła się odpowiedź na ukończenie.
Wartość | Opis |
---|---|
content_filter |
Ukończenia wygenerowały odpowiedź, która została zidentyfikowana jako potencjalnie wrażliwa na zasady moderowania zawartości. |
length |
Ukończenie wyczerpane dostępne limity tokenów przed ukończeniem generowania. |
stop |
Ukończenie zakończyło się normalnie i osiągnęło koniec generowania tokenów. |
tool_calls |
Ukończenie zakończyło się wywołaniem modelu wywołującego dostarczone narzędzie dla danych wyjściowych. |
CompletionsUsage
Reprezentacja liczby tokenów przetworzonych dla żądania ukończenia. Liczby uwzględniają wszystkie tokeny w monitach, wyborach, alternatywnych opcjach, best_of generacjach i innych użytkownikach.
Nazwa | Typ | Opis |
---|---|---|
completion_tokens |
integer (int32) |
Liczba tokenów wygenerowanych we wszystkich emisjach ukończenia. |
completion_tokens_details |
Podział tokenów używanych w zakończeniu. |
|
prompt_tokens |
integer (int32) |
Liczba tokenów w podanych monitach dotyczących żądania ukończenia. |
prompt_tokens_details |
Podział tokenów używanych w historii monitów/czatów. |
|
total_tokens |
integer (int32) |
Łączna liczba tokenów przetworzonych na potrzeby żądania ukończenia i odpowiedzi. |
CompletionsUsageDetails
Podział tokenów używanych w zakończeniu.
Nazwa | Typ | Opis |
---|---|---|
audio_tokens |
integer (int32) |
Liczba tokenów odpowiadających wejściu audio. |
total_tokens |
integer (int32) |
Łączna liczba tokenów przetworzonych na potrzeby żądania ukończenia i odpowiedzi. |
ExtraParameters
Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON.
Wartość | Opis |
---|---|
drop |
Usługa zignoruje (upuść) dodatkowe parametry w ładunku żądania. Przekaże on tylko znane parametry do modelu AI zaplecza. |
error |
Jeśli usługa wykryje dodatkowe parametry w ładunku żądania, wystąpi błąd. Jest to domyślna usługa. |
pass-through |
Usługa przekaże dodatkowe parametry do modelu AI zaplecza. |
FunctionCall
Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.
Nazwa | Typ | Opis |
---|---|---|
arguments |
string |
Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie. |
name |
string |
Nazwa funkcji do wywołania. |
FunctionDefinition
Definicja funkcji określonej przez obiekt wywołujący, która może wywołać uzupełnianie czatu w odpowiedzi na pasujące dane wejściowe użytkownika.
Nazwa | Typ | Opis |
---|---|---|
description |
string |
Opis działania funkcji. Model użyje tego opisu podczas wybierania funkcji i interpretowania jego parametrów. |
name |
string |
Nazwa funkcji do wywołania. |
parameters |
Parametry akceptowane przez funkcję, opisane jako obiekt schematu JSON. |
PromptUsageDetails
Podział tokenów używanych w historii monitu/czatu.
Nazwa | Typ | Opis |
---|---|---|
audio_tokens |
integer (int32) |
Liczba tokenów odpowiadających wejściu audio. |
cached_tokens |
integer (int32) |
Łączna liczba buforowanych tokenów. |