Udostępnij za pośrednictwem


Get Chat Completions - Get Chat Completions

Pobiera uzupełnianie czatów dla podanych wiadomości czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu. Metoda wykonuje wywołanie interfejsu API REST do trasy /chat/completions w danym punkcie końcowym.

POST https:///chat/completions?api-version=2024-05-01-preview

Parametry identyfikatora URI

Nazwa W Wymagane Typ Opis
api-version
query True

string

minLength: 1

Wersja interfejsu API do użycia dla tej operacji.

Nagłówek żądania

Nazwa Wymagane Typ Opis
extra-parameters

ExtraParameters

Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON. Spowoduje to ustawienie nagłówka żądania HTTP extra-parameters.

Treść żądania

Nazwa Wymagane Typ Opis
messages True ChatRequestMessage[]:

Kolekcja wiadomości kontekstowych skojarzonych z tym żądaniem ukończenia czatu. Typowe użycie rozpoczyna się od wiadomości czatu dla roli systemowej, która zawiera instrukcje dotyczące zachowania asystenta, a następnie zmiany komunikatów między rolami Użytkownika i Asystenta.

frequency_penalty

number (float)

minimum: -2
maximum: 2

Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich częstotliwości skumulowanej w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo powtórzenia tych samych instrukcji przez model. Obsługiwany zakres to [-2, 2].

max_tokens

integer (int32)

minimum: 0

Maksymalna liczba tokenów do wygenerowania.

modalities

ChatCompletionsModality[]

Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu. Domyślna modalność to text. Oznaczanie nieobsługiwanej kombinacji modalności powoduje błąd 422.

model

string

Identyfikator określonego modelu sztucznej inteligencji do użycia, jeśli w punkcie końcowym jest dostępny więcej niż jeden model.

presence_penalty

number (float)

minimum: -2
maximum: 2

Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą wyświetlane, gdy już istnieją i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu. Obsługiwany zakres to [-2, 2].

response_format ChatCompletionsResponseFormat:

Obiekt określający format, który musi zostać wygenerowany przez model.

Ustawienie na { "type": "json_schema", "json_schema": {...} } włącza dane wyjściowe ze strukturą, co gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.

seed

integer (int64)

Jeśli zostanie określony, system podejmie najlepsze wysiłki, aby próbkować deterministycznie takie, że powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany.

stop

string[]

Kolekcja sekwencji tekstowych, które zakończą generowanie uzupełniania.

stream

boolean

Wartość wskazująca, czy ukończenia czatu powinny być przesyłane strumieniowo dla tego żądania.

temperature

number (float)

minimum: 0
maximum: 1

Temperatura próbkowania do użycia kontroluje pozorną kreatywność generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1].

tool_choice

Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może używać do odpowiedzi na ukończenie czatu.

tools

ChatCompletionsToolDefinition[]

Lista narzędzi, które model może zażądać wywołania. Obecnie tylko funkcje są obsługiwane jako narzędzie. Model może odpowiedź z żądaniem wywołania funkcji i podać argumenty wejściowe w formacie JSON dla tej funkcji.

top_p

number (float)

minimum: 0
maximum: 1

Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje rozważenie tylko tokenów zawierających 15 pierwszych% masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1].

Odpowiedzi

Nazwa Typ Opis
200 OK

ChatCompletions

Żądanie zakończyło się pomyślnie.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Nieoczekiwana odpowiedź na błąd.

Nagłówki

x-ms-error-code: string

Zabezpieczenia

api-key

Typ: apiKey
W: header

OAuth2Auth

Typ: oauth2
Flow: implicit
Adres URL autoryzacji: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Zakresy

Nazwa Opis
https://ml.azure.com/.default

Przykłady

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Przykładowe żądanie

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Przykładowa odpowiedź

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Przykładowe żądanie

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Przykładowa odpowiedź

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Przykładowe żądanie

POST https:///chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Przykładowa odpowiedź

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definicje

Nazwa Opis
AudioContentFormat

Reprezentacja możliwych formatów audio dla dźwięku.

Azure.Core.Foundations.Error

Obiekt błędu.

Azure.Core.Foundations.ErrorResponse

Odpowiedź zawierająca szczegóły błędu.

Azure.Core.Foundations.InnerError

Obiekt zawierający bardziej szczegółowe informacje o błędzie. Zgodnie z wytycznymi dotyczącymi interfejsu MICROSOFT One API — https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

ChatChoice

Reprezentacja pojedynczego ukończenia monitu w ramach ogólnego żądania ukończenia czatu. Ogólnie rzecz biorąc, n opcje są generowane na podany monit z wartością domyślną 1. Limity tokenów i inne ustawienia mogą ograniczać liczbę wygenerowanych opcji.

ChatCompletions

Reprezentacja danych odpowiedzi z żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.

ChatCompletionsAudio

Reprezentacja dźwięku wygenerowanego przez model.

ChatCompletionsModality

Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu.

ChatCompletionsOptions

Informacje o konfiguracji żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.

ChatCompletionsResponseFormatJsonObject

Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON. Należy pamiętać, że aby włączyć tryb JSON, niektóre modele sztucznej inteligencji mogą również wymagać poinstruowania modelu o utworzeniu kodu JSON za pośrednictwem komunikatu systemu lub użytkownika.

ChatCompletionsResponseFormatJsonSchema

Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON ze schematem JSON określonym przez obiekt wywołujący.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych.

ChatCompletionsResponseFormatText

Format odpowiedzi dla uzupełniania czatu, który emituje odpowiedzi tekstowe. Jest to domyślny format odpowiedzi.

ChatCompletionsToolCall

Wywołanie narzędzia funkcji żądane przez model AI.

ChatCompletionsToolDefinition

Definicja narzędzia do uzupełniania czatów, które może wywoływać funkcję.

ChatRequestAssistantMessage

Wiadomość czatu żądania reprezentująca odpowiedź lub akcję asystenta.

ChatRequestAudioReference

Odwołanie do odpowiedzi audio wygenerowanej przez model.

ChatRequestSystemMessage

Wiadomość czatu żądania zawierająca instrukcje systemowe wpływające na sposób generowania odpowiedzi przez model na zakończenie czatu.

ChatRequestToolMessage

Wiadomość czatu żądania reprezentująca żądane dane wyjściowe ze skonfigurowanego narzędzia.

ChatRequestUserMessage

Wiadomość czatu żądania reprezentująca dane wejściowe użytkownika asystenta.

ChatResponseMessage

Reprezentacja wiadomości na czacie odebrana w odpowiedzi.

ChatRole

Opis zamierzonego celu wiadomości w ramach interakcji z ukończeniami czatu.

CompletionsFinishReason

Reprezentacja sposobu, w jaki zakończyła się odpowiedź na ukończenie.

CompletionsUsage

Reprezentacja liczby tokenów przetworzonych dla żądania ukończenia. Liczby uwzględniają wszystkie tokeny w monitach, wyborach, alternatywnych opcjach, best_of generacjach i innych użytkownikach.

CompletionsUsageDetails

Podział tokenów używanych w zakończeniu.

ExtraParameters

Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON.

FunctionCall

Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.

FunctionDefinition

Definicja funkcji określonej przez obiekt wywołujący, która może wywołać uzupełnianie czatu w odpowiedzi na pasujące dane wejściowe użytkownika.

PromptUsageDetails

Podział tokenów używanych w historii monitu/czatu.

AudioContentFormat

Reprezentacja możliwych formatów audio dla dźwięku.

Wartość Opis
mp3

Określa dźwięk w formacie MP3.

wav

Określa dźwięk w formacie WAV.

Azure.Core.Foundations.Error

Obiekt błędu.

Nazwa Typ Opis
code

string

Jeden z zdefiniowanych przez serwer zestaw kodów błędów.

details

Azure.Core.Foundations.Error[]

Tablica szczegółów dotyczących określonych błędów, które doprowadziły do tego zgłoszonego błędu.

innererror

Azure.Core.Foundations.InnerError

Obiekt zawierający bardziej szczegółowe informacje niż bieżący obiekt o błędzie.

message

string

Czytelna dla człowieka reprezentacja błędu.

target

string

Element docelowy błędu.

Azure.Core.Foundations.ErrorResponse

Odpowiedź zawierająca szczegóły błędu.

Nazwa Typ Opis
error

Azure.Core.Foundations.Error

Obiekt błędu.

Azure.Core.Foundations.InnerError

Obiekt zawierający bardziej szczegółowe informacje o błędzie. Zgodnie z wytycznymi dotyczącymi interfejsu MICROSOFT One API — https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Nazwa Typ Opis
code

string

Jeden z zdefiniowanych przez serwer zestaw kodów błędów.

innererror

Azure.Core.Foundations.InnerError

Błąd wewnętrzny.

ChatChoice

Reprezentacja pojedynczego ukończenia monitu w ramach ogólnego żądania ukończenia czatu. Ogólnie rzecz biorąc, n opcje są generowane na podany monit z wartością domyślną 1. Limity tokenów i inne ustawienia mogą ograniczać liczbę wygenerowanych opcji.

Nazwa Typ Opis
finish_reason

CompletionsFinishReason

Powód, dla którego wybór ukończenia czatu zakończył jego wygenerowanie.

index

integer (int32)

Uporządkowany indeks skojarzony z wybranymi ukończeniami czatu.

message

ChatResponseMessage

Komunikat czatu dla danego monitu o ukończenie czatu.

ChatCompletions

Reprezentacja danych odpowiedzi z żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.

Nazwa Typ Opis
choices

ChatChoice[]

Kolekcja opcji uzupełniania skojarzonych z tą odpowiedzią ukończenia. Ogólnie rzecz biorąc, n opcje są generowane na podany monit z wartością domyślną 1. Limity tokenów i inne ustawienia mogą ograniczać liczbę wygenerowanych opcji.

created

integer (unixtime)

Pierwszy znacznik czasu skojarzony z działaniem generowania dla tej odpowiedzi ukończenia, reprezentowany jako sekundy od początku epoki systemu Unix 00:00 w dniu 1 stycznia 1970 r.

id

string

Unikatowy identyfikator skojarzony z tą odpowiedzią na ukończenie czatu.

model

string

Model używany do ukończenia czatu.

object enum:

chat.completion

Typ obiektu odpowiedzi, który jest zawsze chat.completion.

usage

CompletionsUsage

Informacje o użyciu tokenów przetworzonych i wygenerowanych w ramach tej operacji uzupełniania.

ChatCompletionsAudio

Reprezentacja dźwięku wygenerowanego przez model.

Nazwa Typ Opis
data

string

Dane audio zakodowane w formacie Base64

expires_at

integer (unixtime)

Sygnatura czasowa systemu Unix (w sekundach), w której wygaśnie fragment audio i nie może być już przywoływała identyfikatora w konwersacjach wieloetrowych.

format

AudioContentFormat

Format zawartości audio. Jeśli format nie zostanie podany, będzie on zgodny z formatem używanym w żądaniu dźwięku wejściowego.

id

string

Unikatowy identyfikator odpowiedzi audio. Ta wartość może być używana w komunikatach historii czatów zamiast przekazywania pełnego obiektu audio.

transcript

string

Transkrypcja pliku audio.

ChatCompletionsModality

Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu.

Wartość Opis
audio

Model może generować dźwięk.

text

Model może generować tylko tekst.

ChatCompletionsOptions

Informacje o konfiguracji żądania ukończenia czatu. Ukończenia obsługują szeroką gamę zadań i generują tekst, który kontynuuje działanie lub "kończy" podane dane monitu.

Nazwa Typ Domyślna wartość Opis
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich częstotliwości skumulowanej w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny staną się mniej prawdopodobne, ponieważ ich częstotliwość wzrasta i zmniejsza prawdopodobieństwo powtórzenia tych samych instrukcji przez model. Obsługiwany zakres to [-2, 2].

max_tokens

integer (int32)

minimum: 0

Maksymalna liczba tokenów do wygenerowania.

messages ChatRequestMessage[]:

Kolekcja wiadomości kontekstowych skojarzonych z tym żądaniem ukończenia czatu. Typowe użycie rozpoczyna się od wiadomości czatu dla roli systemowej, która zawiera instrukcje dotyczące zachowania asystenta, a następnie zmiany komunikatów między rolami Użytkownika i Asystenta.

modalities

ChatCompletionsModality[]

Modalności, których model może używać na potrzeby odpowiedzi na ukończenie czatu. Domyślna modalność to text. Oznaczanie nieobsługiwanej kombinacji modalności powoduje błąd 422.

model

string

Identyfikator określonego modelu sztucznej inteligencji do użycia, jeśli w punkcie końcowym jest dostępny więcej niż jeden model.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Wartość, która wpływa na prawdopodobieństwo pojawienia się wygenerowanych tokenów na podstawie ich istniejącej obecności w wygenerowanym tekście. Wartości dodatnie sprawią, że tokeny będą wyświetlane, gdy już istnieją i zwiększą prawdopodobieństwo pojawienia się nowych tematów modelu. Obsługiwany zakres to [-2, 2].

response_format ChatCompletionsResponseFormat:

Obiekt określający format, który musi zostać wygenerowany przez model.

Ustawienie na { "type": "json_schema", "json_schema": {...} } włącza dane wyjściowe ze strukturą, co gwarantuje, że model będzie zgodny z podanym schematem JSON.

Ustawienie { "type": "json_object" } włącza tryb JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON.

Ważne: w przypadku korzystania z trybu JSON również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Bez tego model może wygenerować niekończący się strumień białych znaków, dopóki generowanie nie osiągnie limitu tokenu, co spowoduje długotrwałe i pozornie "zablokowane" żądanie. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.

seed

integer (int64)

Jeśli zostanie określony, system podejmie najlepsze wysiłki, aby próbkować deterministycznie takie, że powtarzające się żądania z tym samym inicjatorem i parametrami powinny zwrócić ten sam wynik. Determinizm nie jest gwarantowany.

stop

string[]

Kolekcja sekwencji tekstowych, które zakończą generowanie uzupełniania.

stream

boolean

Wartość wskazująca, czy ukończenia czatu powinny być przesyłane strumieniowo dla tego żądania.

temperature

number (float)

minimum: 0
maximum: 1
0.7

Temperatura próbkowania do użycia kontroluje pozorną kreatywność generowanych zakończeń. Wyższe wartości sprawią, że dane wyjściowe będą bardziej losowe, a niższe wartości sprawią, że wyniki będą bardziej skoncentrowane i deterministyczne. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1].

tool_choice

Jeśli zostanie określony, model skonfiguruje, które z dostarczonych narzędzi może używać do odpowiedzi na ukończenie czatu.

tools

ChatCompletionsToolDefinition[]

Lista narzędzi, które model może zażądać wywołania. Obecnie tylko funkcje są obsługiwane jako narzędzie. Model może odpowiedź z żądaniem wywołania funkcji i podać argumenty wejściowe w formacie JSON dla tej funkcji.

top_p

number (float)

minimum: 0
maximum: 1
1

Alternatywą dla próbkowania z temperaturą nazywaną próbkowaniem jądra. Ta wartość powoduje, że model uwzględnia wyniki tokenów z podaną masą prawdopodobieństwa. Na przykład wartość 0,15 spowoduje rozważenie tylko tokenów zawierających 15 pierwszych% masy prawdopodobieństwa. Nie zaleca się modyfikowania temperatury i top_p dla tego samego żądania ukończenia, ponieważ interakcja tych dwóch ustawień jest trudna do przewidzenia. Obsługiwany zakres to [0, 1].

ChatCompletionsResponseFormatJsonObject

Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON. Należy pamiętać, że aby włączyć tryb JSON, niektóre modele sztucznej inteligencji mogą również wymagać poinstruowania modelu o utworzeniu kodu JSON za pośrednictwem komunikatu systemu lub użytkownika.

Nazwa Typ Opis
type string:

json_object

Typ formatu odpowiedzi, który ma być używany do ukończenia czatu.

ChatCompletionsResponseFormatJsonSchema

Format odpowiedzi dla uzupełniania czatu, który ogranicza odpowiedzi do emitowania prawidłowych obiektów JSON ze schematem JSON określonym przez obiekt wywołujący.

Nazwa Typ Opis
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych.

type string:

json_schema

Typ formatu odpowiedzi, który ma być używany do ukończenia czatu.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definicja wymaganego schematu JSON w odpowiedzi i skojarzonych metadanych.

Nazwa Typ Domyślna wartość Opis
description

string

Opis formatu odpowiedzi używany przez model sztucznej inteligencji do określania sposobu generowania odpowiedzi w tym formacie.

name

string

Nazwa formatu odpowiedzi. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64.

schema

Definicja schematu JSON

strict

boolean

False

Czy włączyć ścisłe przestrzeganie schematu podczas generowania danych wyjściowych. W przypadku ustawienia wartości true model będzie zawsze przestrzegał dokładnego schematu zdefiniowanego w polu schema. Tylko podzbiór schematu JSON jest obsługiwany, gdy strict jest true.

ChatCompletionsResponseFormatText

Format odpowiedzi dla uzupełniania czatu, który emituje odpowiedzi tekstowe. Jest to domyślny format odpowiedzi.

Nazwa Typ Opis
type string:

text

Typ formatu odpowiedzi, który ma być używany do ukończenia czatu.

ChatCompletionsToolCall

Wywołanie narzędzia funkcji żądane przez model AI.

Nazwa Typ Opis
function

FunctionCall

Szczegóły wywołania funkcji żądanego przez model AI.

id

string

Identyfikator wywołania narzędzia.

type enum:

function

Typ wywołania narzędzia. Obecnie obsługiwana jest tylko function.

ChatCompletionsToolDefinition

Definicja narzędzia do uzupełniania czatów, które może wywoływać funkcję.

Nazwa Typ Opis
function

FunctionDefinition

Szczegóły definicji funkcji narzędzia funkcji.

type enum:

function

Typ narzędzia. Obecnie obsługiwana jest tylko function.

ChatRequestAssistantMessage

Wiadomość czatu żądania reprezentująca odpowiedź lub akcję asystenta.

Nazwa Typ Opis
audio

ChatRequestAudioReference

Dźwięk wygenerowany przez poprzednią odpowiedź w konwersacji obejmującej wiele kolei.

content

string

Zawartość wiadomości.

role string:

assistant

Rola czatu skojarzona z tą wiadomością.

tool_calls

ChatCompletionsToolCall[]

Wywołania narzędzi, które muszą zostać rozwiązane i mają swoje dane wyjściowe dołączone do kolejnych komunikatów wejściowych dla żądania ukończenia czatu, aby rozwiązać problem zgodnie z konfiguracją.

ChatRequestAudioReference

Odwołanie do odpowiedzi audio wygenerowanej przez model.

Nazwa Typ Opis
id

string

Unikatowy identyfikator odpowiedzi audio. Ta wartość odpowiada identyfikatorowi poprzedniego ukończenia dźwięku.

ChatRequestSystemMessage

Wiadomość czatu żądania zawierająca instrukcje systemowe wpływające na sposób generowania odpowiedzi przez model na zakończenie czatu.

Nazwa Typ Opis
content

string

Zawartość komunikatu systemowego.

role string:

system

Rola czatu skojarzona z tą wiadomością.

ChatRequestToolMessage

Wiadomość czatu żądania reprezentująca żądane dane wyjściowe ze skonfigurowanego narzędzia.

Nazwa Typ Opis
content

string

Zawartość wiadomości.

role string:

tool

Rola czatu skojarzona z tą wiadomością.

tool_call_id

string

Identyfikator wywołania narzędzia rozpoznany przez podaną zawartość.

ChatRequestUserMessage

Wiadomość czatu żądania reprezentująca dane wejściowe użytkownika asystenta.

Nazwa Typ Opis
content

Zawartość komunikatu użytkownika z dostępnymi typami wejściowymi różnią się w zależności od wybranego modelu.

role string:

user

Rola czatu skojarzona z tą wiadomością.

ChatResponseMessage

Reprezentacja wiadomości na czacie odebrana w odpowiedzi.

Nazwa Typ Opis
audio

ChatCompletionsAudio

Dźwięk wygenerowany przez model jako odpowiedź na komunikaty, jeśli model jest skonfigurowany do generowania dźwięku.

content

string

Zawartość wiadomości.

role

ChatRole

Rola czatu skojarzona z wiadomością.

tool_calls

ChatCompletionsToolCall[]

Wywołania narzędzi, które muszą zostać rozwiązane i mają swoje dane wyjściowe dołączone do kolejnych komunikatów wejściowych dla żądania ukończenia czatu, aby rozwiązać problem zgodnie z konfiguracją.

ChatRole

Opis zamierzonego celu wiadomości w ramach interakcji z ukończeniami czatu.

Wartość Opis
assistant

Rola, która zapewnia odpowiedzi na dane wejściowe poinstruowane przez system.

developer

Rola, która udostępnia instrukcje dotyczące modelu z priorytetem przed komunikatami użytkownika.

system

Rola, która instruuje lub ustawia zachowanie asystenta.

tool

Rola reprezentująca działanie narzędzia rozszerzenia w ramach operacji uzupełniania czatu.

user

Rola, która udostępnia dane wejściowe na potrzeby uzupełniania czatu.

CompletionsFinishReason

Reprezentacja sposobu, w jaki zakończyła się odpowiedź na ukończenie.

Wartość Opis
content_filter

Ukończenia wygenerowały odpowiedź, która została zidentyfikowana jako potencjalnie wrażliwa na zasady moderowania zawartości.

length

Ukończenie wyczerpane dostępne limity tokenów przed ukończeniem generowania.

stop

Ukończenie zakończyło się normalnie i osiągnęło koniec generowania tokenów.

tool_calls

Ukończenie zakończyło się wywołaniem modelu wywołującego dostarczone narzędzie dla danych wyjściowych.

CompletionsUsage

Reprezentacja liczby tokenów przetworzonych dla żądania ukończenia. Liczby uwzględniają wszystkie tokeny w monitach, wyborach, alternatywnych opcjach, best_of generacjach i innych użytkownikach.

Nazwa Typ Opis
completion_tokens

integer (int32)

Liczba tokenów wygenerowanych we wszystkich emisjach ukończenia.

completion_tokens_details

CompletionsUsageDetails

Podział tokenów używanych w zakończeniu.

prompt_tokens

integer (int32)

Liczba tokenów w podanych monitach dotyczących żądania ukończenia.

prompt_tokens_details

PromptUsageDetails

Podział tokenów używanych w historii monitów/czatów.

total_tokens

integer (int32)

Łączna liczba tokenów przetworzonych na potrzeby żądania ukończenia i odpowiedzi.

CompletionsUsageDetails

Podział tokenów używanych w zakończeniu.

Nazwa Typ Opis
audio_tokens

integer (int32)

Liczba tokenów odpowiadających wejściu audio.

total_tokens

integer (int32)

Łączna liczba tokenów przetworzonych na potrzeby żądania ukończenia i odpowiedzi.

ExtraParameters

Określa, co się stanie, jeśli dodatkowe parametry, niezdefiniowane przez interfejs API REST, są przekazywane w ładunku żądania JSON.

Wartość Opis
drop

Usługa zignoruje (upuść) dodatkowe parametry w ładunku żądania. Przekaże on tylko znane parametry do modelu AI zaplecza.

error

Jeśli usługa wykryje dodatkowe parametry w ładunku żądania, wystąpi błąd. Jest to domyślna usługa.

pass-through

Usługa przekaże dodatkowe parametry do modelu AI zaplecza.

FunctionCall

Nazwa i argumenty funkcji, które powinny być wywoływane, generowane przez model.

Nazwa Typ Opis
arguments

string

Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może mieć niezdefiniowane parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.

name

string

Nazwa funkcji do wywołania.

FunctionDefinition

Definicja funkcji określonej przez obiekt wywołujący, która może wywołać uzupełnianie czatu w odpowiedzi na pasujące dane wejściowe użytkownika.

Nazwa Typ Opis
description

string

Opis działania funkcji. Model użyje tego opisu podczas wybierania funkcji i interpretowania jego parametrów.

name

string

Nazwa funkcji do wywołania.

parameters

Parametry akceptowane przez funkcję, opisane jako obiekt schematu JSON.

PromptUsageDetails

Podział tokenów używanych w historii monitu/czatu.

Nazwa Typ Opis
audio_tokens

integer (int32)

Liczba tokenów odpowiadających wejściu audio.

cached_tokens

integer (int32)

Łączna liczba buforowanych tokenów.