Udostępnij za pośrednictwem


Dokumentacja: Ukończenie czatu | Azure AI Studio

Ważne

Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.

Tworzy odpowiedź modelu dla danej konwersacji na czacie.

POST /chat/completions?api-version=2024-04-01-preview

Parametry identyfikatora URI

Nazwisko W Wymagania Type Opis
api-version zapytanie Prawda string Wersja interfejsu API w formacie "RRRR-MM-DD" lub "RRRR-MM-DD-preview".

Nagłówek żądania

Nazwisko Wymagania Type Opis
dodatkowe parametry string Zachowanie interfejsu API w przypadku wskazania dodatkowych parametrów w ładunku. Użycie pass-through polecenia sprawia, że interfejs API przekazuje parametr do bazowego modelu. Użyj tej wartości, jeśli chcesz przekazać parametry, które wiesz, że bazowy model może obsługiwać. Użycie ignore polecenia sprawia, że interfejs API usuwa dowolny nieobsługiwany parametr. Użyj tej wartości, jeśli musisz użyć tego samego ładunku w różnych modelach, ale jeden z dodatkowych parametrów może spowodować błąd modelu, jeśli nie jest obsługiwany. Użycie error polecenia sprawia, że interfejs API odrzuca dowolny dodatkowy parametr w ładunku. Można wskazać tylko parametry określone w tym interfejsie API lub zwracany jest błąd 400.
azureml-model-deployment string Nazwa wdrożenia, do którego chcesz skierować żądanie. Obsługiwane w przypadku punktów końcowych obsługujących wiele wdrożeń.

Treść żądania

Nazwisko Wymagania Type Opis
model string Nazwa modelu. Ten parametr jest ignorowany, jeśli punkt końcowy obsługuje tylko jeden model.
wiadomości Prawda ChatCompletionRequestMessage Lista wiadomości składających się z konwersacji do tej pory. Zwraca błąd 422, jeśli co najmniej niektóre komunikaty nie mogą być zrozumiałe dla modelu.
frequency_penalty Liczba Pomaga zapobiegać powtórzeniom wyrazów, zmniejszając prawdopodobieństwo wybrania wyrazu, jeśli został już użyty. Im większa jest kara za częstotliwość, tym mniej prawdopodobne jest powtórzenie tych samych słów w danych wyjściowych modelu. Zwróć błąd 422, jeśli wartość lub parametr nie jest obsługiwany przez model.
max_tokens integer Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. Przekazywanie wartości null powoduje, że model używa maksymalnej długości kontekstu.
presence_penalty Liczba Pomaga zapobiec powtarzaniu tych samych tematów, karując słowo, jeśli już istnieje, nawet raz. Zwróć błąd 422, jeśli wartość lub parametr nie jest obsługiwany przez model.
response_format ChatCompletionResponseFormat
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
zatrzymać Sekwencje, w których interfejs API przestanie generować kolejne tokeny.
strumień boolean W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE].
temperature Liczba Liczba nieujemna. Zwróć wartość 422, jeśli wartość nie jest obsługiwana przez model.
tool_choice ChatCompletionToolChoiceOption Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne. Zwraca błąd 422, jeśli narzędzie nie jest obsługiwane przez model.
tools ChatCompletionTool[] Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Zwraca błąd 422, jeśli narzędzie nie jest obsługiwane przez model.
top_p Liczba Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.

Odpowiedzi

Nazwisko Pisz Opis
200 OK CreateChatCompletionResponse OK
401 Brak autoryzacji Brak autoryzacji Brak tokenu dostępu lub jest on nieprawidłowy

Nagłówki

x-ms-error-code: ciąg
404 Nie znaleziono NotFoundError Modalność nie jest obsługiwana przez model. Zapoznaj się z dokumentacją modelu, aby sprawdzić, które trasy są dostępne.

Nagłówki

x-ms-error-code: ciąg
422 Jednostka nieprzetworzona UnprocessableContentError Żądanie zawiera nieprzetworzoną zawartość

Nagłówki

x-ms-error-code: ciąg
429 Zbyt wiele żądań TooManyRequestsError Przekroczono przypisany limit szybkości, a żądanie musi zostać przekroczone.

Nagłówki

x-ms-error-code: ciąg
Inne kody stanu ContentFilterError Nieprawidłowe żądanie

Nagłówki

x-ms-error-code: ciąg

Zabezpieczenia

Autoryzacja

Token z prefiksem Bearer: , np. Bearer abcde12345

Typ: apiKey
W: nagłówek

AADToken

Uwierzytelnianie OAuth2 w usłudze Azure Active Directory

Typ: oauth2
Przepływ: aplikacja
Adres URL tokenu: https://login.microsoftonline.com/common/oauth2/v2.0/token

Przykłady

Tworzy odpowiedź modelu dla danej konwersacji na czacie

Przykładowe żądanie

POST /chat/completions?api-version=2024-04-01-preview

{
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "max_tokens": 256,
  "seed": 42,
  "stop": "<|endoftext|>",
  "stream": false,
  "temperature": 0,
  "top_p": 1,
  "response_format": { "type": "text" }
}

Przykładowa odpowiedź

Kod stanu: 200

{
  "id": "1234567890",
  "model": "llama2-70b-chat",
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "No, it has never been proved"
      }
    }
  ],
  "created": 1234567890,
  "object": "chat.completion",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  }
}

Definicje

Nazwa/nazwisko opis
ChatCompletionRequestMessage
ChatCompletionMessageContentPart
ChatCompletionMessageContentPartType
ChatCompletionToolChoiceOption Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne. Zwraca błąd 422, jeśli narzędzie nie jest obsługiwane przez model.
ChatCompletionFinishReason Przyczyna, dla którego model przestał generować tokeny. Będzie to miało miejsce stop , jeśli model osiągnie naturalny punkt zatrzymania lub podaną sekwencję zatrzymania, length jeśli osiągnięto maksymalną liczbę tokenów określonych w żądaniu, content_filter jeśli zawartość została pominięta z powodu flagi z filtrów zawartości, tool_calls jeśli model nazwał narzędzie.
ChatCompletionMessageToolCall
ChatCompletionObject Typ obiektu, który jest zawsze chat.completion.
ChatCompletionResponseFormat Format odpowiedzi dla modelu. Ustawienie w celu json_object włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. W przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.
ChatCompletionResponseFormatType Typ formatu odpowiedzi.
ChatCompletionResponseMessage Komunikat ukończenia czatu wygenerowany przez model.
ChatCompletionTool
ChatMessageRole Rola autora tej wiadomości.
Choices Lista opcji ukończenia czatu.
UkończenieUsage Statystyki użycia dla żądania ukończenia.
ContentFilterError Wywołanie interfejsu API kończy się niepowodzeniem, gdy monit wyzwoli filtr zawartości zgodnie z konfiguracją. Zmodyfikuj monit i spróbuj ponownie.
CreateChatCompletionRequest
CreateChatCompletionResponse Reprezentuje odpowiedź ukończenia czatu zwróconą przez model na podstawie podanych danych wejściowych.
Szczegół Szczegóły błędu UnprocessableContentError .
Funkcja Funkcja wywoływana przez model.
FunctionObject Definicja funkcji, do których ma dostęp model.
ImageDetail Określa poziom szczegółowości obrazu.
NotFoundError Trasa jest nieprawidłowa dla wdrożonego modelu.
ToolType Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.
TooManyRequestsError Przekroczono przypisany limit szybkości, a żądania muszą być realizowane.
Brak autoryzacji Brak uwierzytelniania lub jest on nieprawidłowy.
UnprocessableContentError Żądanie zawiera nieprzetworzoną zawartość. Błąd jest zwracany, gdy wskazany ładunek jest prawidłowy zgodnie z tą specyfikacją. Jednak niektóre instrukcje wskazane w ładunku nie są obsługiwane przez bazowy model. Skorzystaj z details sekcji , aby zrozumieć parametr obraźliwy.

ChatCompletionFinishReason

Przyczyna, dla którego model przestał generować tokeny. Będzie to miało miejsce stop , jeśli model osiągnie naturalny punkt zatrzymania lub podaną sekwencję zatrzymania, length jeśli osiągnięto maksymalną liczbę tokenów określonych w żądaniu, content_filter jeśli zawartość została pominięta z powodu flagi z filtrów zawartości, tool_calls jeśli model nazwał narzędzie.

Nazwisko Pisz Opis
content_filter string
length string
zatrzymać string
tool_calls string

ChatCompletionMessageToolCall

Nazwisko Pisz Opis
function Funkcja Funkcja wywoływana przez model.
IDENTYFIKATOR string Identyfikator wywołania narzędzia.
type ToolType Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.

ChatCompletionObject

Typ obiektu, który jest zawsze chat.completion.

Nazwisko Pisz Opis
chat.completion string

ChatCompletionResponseFormat

Format odpowiedzi dla modelu. Ustawienie w celu json_object włączenia trybu JSON, co gwarantuje, że komunikat generowany przez model jest prawidłowym kodem JSON. W przypadku korzystania z trybu JSON należy również poinstruować model, aby samodzielnie wygenerował kod JSON za pośrednictwem komunikatu systemu lub użytkownika. Należy również zauważyć, że zawartość wiadomości może być częściowo odcięta, jeśli finish_reason="length", co wskazuje, że generacja przekroczyła max_tokens lub konwersacja przekroczyła maksymalną długość kontekstu.

Nazwisko Pisz Opis
type ChatCompletionResponseFormatType Typ formatu odpowiedzi.

ChatCompletionResponseFormatType

Typ formatu odpowiedzi.

Nazwisko Pisz Opis
json_object string
text string

ChatCompletionResponseMessage

Komunikat ukończenia czatu wygenerowany przez model.

Nazwisko Pisz Opis
content string Zawartość wiadomości.
role ChatMessageRole Rola autora tej wiadomości.
tool_calls ChatCompletionMessageToolCall[] Wywołania narzędzia generowane przez model, takie jak wywołania funkcji.

ChatCompletionTool

Nazwisko Pisz Opis
function FunctionObject
type ToolType Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.

ChatMessageRole

Rola autora tej wiadomości.

Nazwisko Pisz Opis
asystent string
sterowana string
narzędzie string
Użytkownik string

Opcje wyboru

Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1.

Nazwisko Pisz Opis
finish_reason ChatCompletionFinishReason Przyczyna, dla którego model przestał generować tokeny. Będzie to miało miejsce stop , jeśli model osiągnie naturalny punkt zatrzymania lub podaną sekwencję zatrzymania, length jeśli osiągnięto maksymalną liczbę tokenów określonych w żądaniu, content_filter jeśli zawartość została pominięta z powodu flagi z filtrów zawartości, tool_calls jeśli model nazwał narzędzie.
index integer Indeks wybranego elementu na liście opcji.
wiadomość ChatCompletionResponseMessage Komunikat ukończenia czatu wygenerowany przez model.

UkończenieUsage

Statystyki użycia dla żądania ukończenia.

Nazwisko Pisz Opis
completion_tokens integer Liczba tokenów w wygenerowanych ukończeniu.
prompt_tokens integer Liczba tokenów w wierszu polecenia.
total_tokens integer Łączna liczba tokenów używanych w żądaniu (monit + ukończenie).

ContentFilterError

Wywołanie interfejsu API kończy się niepowodzeniem, gdy monit wyzwoli filtr zawartości zgodnie z konfiguracją. Zmodyfikuj monit i spróbuj ponownie.

Nazwisko Pisz Opis
code string Kod błędu.
error string Opis błędu.
wiadomość string Komunikat o błędzie.
Param string Parametr, który wyzwolił filtr zawartości.
status integer Kod stanu HTTP.

CreateChatCompletionRequest

Nazwisko Type Wartość domyślna opis
frequency_penalty Liczba 0 Pomaga zapobiegać powtórzeniom wyrazów, zmniejszając prawdopodobieństwo wybrania wyrazu, jeśli został już użyty. Im większa jest kara za częstotliwość, tym mniej prawdopodobne jest powtórzenie tych samych słów w danych wyjściowych modelu. Zwróć błąd 422, jeśli wartość lub parametr nie jest obsługiwany przez model.
max_tokens integer Maksymalna liczba tokenów, które można wygenerować podczas kończenia czatu.

Łączna długość tokenów wejściowych i wygenerowanych tokenów jest ograniczona przez długość kontekstu modelu. Przekazywanie wartości null powoduje, że model używa maksymalnej długości kontekstu.
wiadomości ChatCompletionRequestMessage[] Lista wiadomości składających się z konwersacji do tej pory. Zwraca błąd 422, jeśli co najmniej niektóre komunikaty nie mogą być zrozumiałe dla modelu.
presence_penalty Liczba 0 Pomaga zapobiec powtarzaniu tych samych tematów, karując słowo, jeśli już istnieje, nawet raz. Zwróć błąd 422, jeśli wartość lub parametr nie jest obsługiwany przez model.
response_format ChatCompletionResponseFormat text
nasienie integer Jeśli zostanie określony, nasz system podejmie najlepsze wysiłki, aby próbkować deterministycznie, tak aby powtarzające się żądania z tymi samymi seed parametrami zwracały ten sam wynik. Determinizm nie jest gwarantowany i należy odwołać się do parametru system_fingerprint odpowiedzi w celu monitorowania zmian w zapleczu.
zatrzymać Sekwencje, w których interfejs API przestanie generować kolejne tokeny.
strumień boolean Fałsz W przypadku ustawienia zostaną wysłane częściowe różnice komunikatów. Tokeny będą wysyłane jako zdarzenia wysyłane tylko do serwera, gdy staną się dostępne, a strumień zostanie zakończony komunikatemdata: [DONE].
temperature Liczba 1 Liczba nieujemna. Zwróć wartość 422, jeśli wartość nie jest obsługiwana przez model.
tool_choice ChatCompletionToolChoiceOption Określa, która (jeśli istnieje) funkcja jest wywoływana przez model. none oznacza, że model nie wywoła funkcji i zamiast tego generuje komunikat. auto oznacza, że model może wybierać między generowaniem komunikatu lub wywoływaniem funkcji. Określenie określonej funkcji za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tej funkcji przez model.

none jest wartością domyślną, gdy nie ma żadnych funkcji. auto jest wartością domyślną, jeśli funkcje są obecne. Zwraca błąd 422, jeśli narzędzie nie jest obsługiwane przez model.
tools ChatCompletionTool[] Lista narzędzi, które może wywołać model. Obecnie tylko funkcje są obsługiwane jako narzędzie. Służy do udostępniania listy funkcji, dla których model może generować dane wejściowe JSON. Zwraca błąd 422, jeśli narzędzie nie jest obsługiwane przez model.
top_p Liczba 1 Alternatywą dla próbkowania z temperaturą, nazywaną próbkowaniem jądra, gdzie model uwzględnia wyniki tokenów z top_p masą prawdopodobieństwa. Dlatego 0,1 oznacza, że uwzględniane są tylko tokeny składające się z pierwszej masy prawdopodobieństwa o 10%.

Ogólnie zalecamy zmianę tego lub temperature nie obu tych elementów.

ChatCompletionRequestMessage

Nazwisko Pisz Opis
content ciąg lub ChatCompletionMessageContentPart[] Zawartość wiadomości.
role ChatMessageRole Rola autora tej wiadomości.
tool_calls ChatCompletionMessageToolCall[] Wywołania narzędzia generowane przez model, takie jak wywołania funkcji.

ChatCompletionMessageContentPart

Nazwisko Pisz Opis
content string Adres URL obrazu lub zakodowane w formacie base64 dane obrazu.
szczegóły ImageDetail Określa poziom szczegółowości obrazu.
type ChatCompletionMessageContentPartType Typ części zawartości.

ChatCompletionMessageContentPartType

Nazwisko Pisz Opis
text string
obraz string
image_url string

ChatCompletionToolChoiceOption

Określa, które narzędzie (jeśli istnieje) jest wywoływane przez model.

Nazwisko Pisz Opis
Brak string Model nie wywoła żadnego narzędzia i zamiast tego wygeneruje komunikat.
auto string Model może wybierać między generowaniem komunikatu lub wywoływaniem co najmniej jednego narzędzia.
wymagane string Model musi wywoływać co najmniej jedno narzędzie.
string Określenie określonego narzędzia za pośrednictwem {"type": "function", "function": {"name": "my_function"}} wymusza wywołanie tego narzędzia przez model.

ImageDetail

Określa poziom szczegółowości obrazu.

Nazwisko Pisz Opis
auto string
 Niski string
wysoki string

CreateChatCompletionResponse

Reprezentuje odpowiedź ukończenia czatu zwróconą przez model na podstawie podanych danych wejściowych.

Nazwisko Pisz Opis
Wyborów Wybory[] Lista opcji ukończenia czatu. Może być więcej niż jeden, jeśli n jest większy niż 1.
utworzone integer Sygnatura czasowa systemu Unix (w sekundach) czasu utworzenia czatu.
IDENTYFIKATOR string Unikatowy identyfikator ukończenia czatu.
model string Model używany do ukończenia czatu.
obiekt ChatCompletionObject Typ obiektu, który jest zawsze chat.completion.
system_fingerprint string Ten odcisk palca reprezentuje konfigurację zaplecza, z którą działa model.

Można użyć w połączeniu z parametrem seed żądania, aby zrozumieć, kiedy wprowadzono zmiany zaplecza, które mogą mieć wpływ na determinizm.
użycie UkończenieUsage Statystyki użycia dla żądania ukończenia.

Szczegół

Szczegóły błędu UnprocessableContentError .

Nazwisko Pisz Opis
Loc string[] Parametr powodujący problem
wartość string Wartość przekazana do parametru powoduje problemy.

Function

Funkcja wywoływana przez model.

Nazwisko Pisz Opis
Argumenty string Argumenty do wywołania funkcji za pomocą , wygenerowane przez model w formacie JSON. Należy pamiętać, że model nie zawsze generuje prawidłowy kod JSON i może wygenerować niepoprawne parametry niezdefiniowane przez schemat funkcji. Przed wywołaniem funkcji zweryfikuj argumenty w kodzie.
nazwa string Nazwa funkcji do wywołania.

FunctionObject

Definicja funkcji, do których ma dostęp model.

Nazwisko Pisz Opis
opis string Opis działania funkcji używanej przez model do wyboru, kiedy i jak wywołać funkcję.
nazwa string Nazwa funkcji do wywołania. Musi być a-z, A-Z, 0-9 lub zawierać podkreślenia i kreski o maksymalnej długości 64.
parameters obiekt Parametry akceptowane przez funkcje, opisane jako obiekt schematu JSON. Pominięcie parameters definiuje funkcję z pustą listą parametrów.

NotFoundError

Nazwisko Pisz Opis
error string Opis błędu.
wiadomość string Komunikat o błędzie.
status integer Kod stanu HTTP.

ToolType

Typ narzędzia. Obecnie obsługiwane są tylko function te elementy.

Nazwisko Pisz Opis
function string

TooManyRequestsError

Nazwisko Pisz Opis
error string Opis błędu.
wiadomość string Komunikat o błędzie.
status integer Kod stanu HTTP.

Brak autoryzacji

Nazwisko Pisz Opis
error string Opis błędu.
wiadomość string Komunikat o błędzie.
status integer Kod stanu HTTP.

UnprocessableContentError

Żądanie zawiera nieprzetworzoną zawartość. Błąd jest zwracany, gdy wskazany ładunek jest prawidłowy zgodnie z tą specyfikacją. Jednak niektóre instrukcje wskazane w ładunku nie są obsługiwane przez bazowy model. Skorzystaj z details sekcji , aby zrozumieć parametr obraźliwy.

Nazwisko Pisz Opis
code string Kod błędu.
szczegóły Szczegół
error string Opis błędu.
wiadomość string Komunikat o błędzie.
status integer Kod stanu HTTP.