Get Chat Completions - Get Chat Completions
Hiermee worden chatvoltooiingen voor de opgegeven chatberichten ontvangen.
Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens. De methode maakt een REST API-aanroep naar de /chat/completions
route op het opgegeven eindpunt.
POST https:///chat/completions?api-version=2024-05-01-preview
URI-parameters
Name | In | Vereist | Type | Description |
---|---|---|---|---|
api-version
|
query | True |
string minLength: 1 |
De API-versie die voor deze bewerking moet worden gebruikt. |
Aanvraagkoptekst
Name | Vereist | Type | Description |
---|---|---|---|
extra-parameters |
Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag.
Hiermee stelt u de HTTP-aanvraagheader in |
Aanvraagbody
Name | Vereist | Type | Description |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
De verzameling contextberichten die zijn gekoppeld aan deze chat-voltooiingsaanvraag. Normaal gebruik begint met een chatbericht voor de systeemrol die instructies biedt voor het gedrag van de assistent, gevolgd door afwisselende berichten tussen de rollen Gebruiker en Assistent. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Een waarde die van invloed is op de kans dat gegenereerde tokens worden weergegeven op basis van hun cumulatieve frequentie in gegenereerde tekst. Positieve waarden zorgen ervoor dat tokens minder waarschijnlijk worden weergegeven als hun frequentie toeneemt en de kans vermindert dat het model dezelfde exacte instructies herhaalt. Ondersteund bereik is [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
Het maximum aantal tokens dat moet worden gegenereerd. |
|
modalities |
De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat. De standaard modaliteit is |
||
model |
string |
Id van het specifieke AI-model dat moet worden gebruikt, als er meer dan één model beschikbaar is op het eindpunt. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Een waarde die de kans beïnvloedt dat gegenereerde tokens worden weergegeven op basis van hun bestaande aanwezigheid in gegenereerde tekst. Met positieve waarden worden tokens minder waarschijnlijk weergegeven wanneer ze al bestaan en vergroten de kans dat het model nieuwe onderwerpen uitvoert. Ondersteund bereik is [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Een object dat de indeling aangeeft die het model moet uitvoeren. Instelling voor Als u de instelling voor
Belangrijk: wanneer u de JSON-modus gebruikt, moet u ook het model instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als |
|
seed |
integer (int64) |
Indien opgegeven, doet het systeem er alles aan om een steekproef te nemen op een deterministische wijze, zodat herhaalde aanvragen met dezelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd. |
|
stop |
string[] |
Een verzameling tekstreeksen die het genereren van voltooiingen beëindigen. |
|
stream |
boolean |
Een waarde die aangeeft of chatvoltooiingen moeten worden gestreamd voor deze aanvraag. |
|
temperature |
number (float) minimum: 0maximum: 1 |
De steekproeftemperatuur die moet worden gebruikt om de schijnbare creativiteit van gegenereerde voltooiingen te regelen. Hogere waarden zorgen ervoor dat uitvoer willekeuriger wordt, terwijl lagere waarden resultaten meer gericht en deterministisch maken. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
|
tool_choice |
Indien opgegeven, configureert het model welke van de beschikbare hulpprogramma's die het kan gebruiken voor het antwoord op het voltooien van de chat. |
||
tools |
Een lijst met hulpprogramma's die het model kan aanvragen om aan te roepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Het model kan reageren met een aanvraag voor een functieoproep en de invoerargumenten voor die functie opgeven in JSON-indeling. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Een alternatief voor steekproeven met temperatuur genaamd kernsampling. Deze waarde zorgt ervoor dat het model rekening houdt met de resultaten van tokens met de opgegeven waarschijnlijkheidsmassa. Een voorbeeld: een waarde van 0,15 zorgt ervoor dat alleen de tokens die de top 15% van waarschijnlijkheidsmassa bevatten, worden overwogen. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
Antwoorden
Name | Type | Description |
---|---|---|
200 OK |
De aanvraag is voltooid. |
|
Other Status Codes |
Een onverwachte foutreactie. Kopteksten x-ms-error-code: string |
Beveiliging
api-key
Type:
apiKey
In:
header
OAuth2Auth
Type:
oauth2
Stroom:
implicit
Autorisatie-URL:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Bereiken
Name | Description |
---|---|
https://ml.azure.com/.default |
Voorbeelden
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Voorbeeldaanvraag
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Voorbeeldrespons
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Voorbeeldaanvraag
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Voorbeeldrespons
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Voorbeeldaanvraag
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Voorbeeldrespons
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definities
Name | Description |
---|---|
Audio |
Een weergave van de mogelijke audio-indelingen voor audio. |
Azure. |
Het foutobject. |
Azure. |
Een antwoord met foutdetails. |
Azure. |
Een object met meer specifieke informatie over de fout. Volgens de richtlijnen voor Microsoft One-API- https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
De weergave van één promptvoltooiing als onderdeel van een algemene aanvraag voor het voltooien van chats.
Over het algemeen worden |
Chat |
Weergave van de antwoordgegevens van een aanvraag voor het voltooien van chats. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens. |
Chat |
Een weergave van de audio die door het model wordt gegenereerd. |
Chat |
De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat. |
Chat |
De configuratiegegevens voor een aanvraag voor het voltooien van een chatgesprek. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens. |
Chat |
Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten. Als u de JSON-modus wilt inschakelen, moet u voor sommige AI-modellen mogelijk ook het model instrueren om JSON te produceren via een systeem- of gebruikersbericht. |
Chat |
Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten, met een JSON-schema dat is opgegeven door de beller. |
Chat |
De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens. |
Chat |
Een antwoordindeling voor chatvoltooiingen waarmee tekstantwoorden worden verzonden. Dit is de standaardopmaak voor antwoorden. |
Chat |
Een functiehulpprogramma-aanroep aangevraagd door het AI-model. |
Chat |
De definitie van een hulpprogramma voor chatvoltooiingen waarmee een functie kan worden aangeroepen. |
Chat |
Een chatbericht aanvragen dat antwoord of actie van de assistent vertegenwoordigt. |
Chat |
Een verwijzing naar een audioantwoord dat door het model wordt gegenereerd. |
Chat |
Een aanvraagchatbericht met systeeminstructies die van invloed zijn op de wijze waarop het model een antwoord op voltooiing van een chat genereert. |
Chat |
Een chatbericht voor aanvragen dat de aangevraagde uitvoer van een geconfigureerd hulpprogramma vertegenwoordigt. |
Chat |
Een chatbericht aanvragen dat gebruikersinvoer aan de assistent vertegenwoordigt. |
Chat |
Een weergave van een chatbericht zoals ontvangen in een antwoord. |
Chat |
Een beschrijving van het beoogde doel van een bericht binnen een chatinteractie. |
Completions |
Weergave van de manier waarop een voltooiingsreactie werd afgesloten. |
Completions |
Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten. |
Completions |
Een uitsplitsing van tokens die worden gebruikt in een voltooiing. |
Extra |
Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag. |
Function |
De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model. |
Function |
De definitie van een door een beller opgegeven functie die chatvoltooiingen kan aanroepen als reactie op overeenkomende gebruikersinvoer. |
Prompt |
Een uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis. |
AudioContentFormat
Een weergave van de mogelijke audio-indelingen voor audio.
Waarde | Description |
---|---|
mp3 |
Hiermee geeft u audio in MP3-indeling. |
wav |
Hiermee geeft u audio in WAV-indeling. |
Azure.Core.Foundations.Error
Het foutobject.
Name | Type | Description |
---|---|---|
code |
string |
Een van een door de server gedefinieerde set foutcodes. |
details |
Een matrix met details over specifieke fouten die hebben geleid tot deze gemelde fout. |
|
innererror |
Een object met meer specifieke informatie dan het huidige object over de fout. |
|
message |
string |
Een leesbare weergave van de fout. |
target |
string |
Het doel van de fout. |
Azure.Core.Foundations.ErrorResponse
Een antwoord met foutdetails.
Name | Type | Description |
---|---|---|
error |
Het foutobject. |
Azure.Core.Foundations.InnerError
Een object met meer specifieke informatie over de fout. Volgens de richtlijnen voor Microsoft One-API- https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
Name | Type | Description |
---|---|---|
code |
string |
Een van een door de server gedefinieerde set foutcodes. |
innererror |
Interne fout. |
ChatChoice
De weergave van één promptvoltooiing als onderdeel van een algemene aanvraag voor het voltooien van chats.
Over het algemeen worden n
keuzes gegenereerd per opgegeven prompt met een standaardwaarde van 1.
Tokenlimieten en andere instellingen kunnen het aantal gegenereerde keuzes beperken.
Name | Type | Description |
---|---|---|
finish_reason |
De reden waarom deze chat is voltooid, is de gegenereerde keuze voltooid. |
|
index |
integer (int32) |
De geordende index die is gekoppeld aan deze chat-voltooiingskeuze. |
message |
Het chatbericht voor een bepaalde chat-voltooiingsprompt. |
ChatCompletions
Weergave van de antwoordgegevens van een aanvraag voor het voltooien van chats. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.
Name | Type | Description |
---|---|---|
choices |
De verzameling voltooiingskeuzen die zijn gekoppeld aan dit voltooiingsantwoord.
Over het algemeen worden |
|
created |
integer (unixtime) |
De eerste tijdstempel die is gekoppeld aan de generatieactiviteit voor dit voltooiingsantwoord, weergegeven als seconden sinds het begin van het Unix-epoch van 00:00 op 1 januari 1970. |
id |
string |
Een unieke id die aan deze chat is gekoppeld, reageert. |
model |
string |
Het model dat wordt gebruikt voor het voltooien van de chat. |
object |
enum:
chat. |
Het antwoordobjecttype, dat altijd |
usage |
Gebruiksgegevens voor tokens die worden verwerkt en gegenereerd als onderdeel van deze voltooiingsbewerking. |
ChatCompletionsAudio
Een weergave van de audio die door het model wordt gegenereerd.
Name | Type | Description |
---|---|---|
data |
string |
Met Base64 gecodeerde audiogegevens |
expires_at |
integer (unixtime) |
De Unix-tijdstempel (in seconden) waarop het audiostuk verloopt en waarnaar niet meer kan worden verwezen door de id in gesprekken met meerdere paden. |
format |
De indeling van de audio-inhoud. Als er geen indeling is opgegeven, komt deze overeen met de indeling die wordt gebruikt in de invoeraudioaanvraag. |
|
id |
string |
Unieke id voor het audioantwoord. Deze waarde kan worden gebruikt in chatgeschiedenisberichten in plaats van het volledige audioobject door te geven. |
transcript |
string |
Het transcript van het audiobestand. |
ChatCompletionsModality
De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat.
Waarde | Description |
---|---|
audio |
Het model mag audio genereren. |
text |
Het model mag alleen tekst genereren. |
ChatCompletionsOptions
De configuratiegegevens voor een aanvraag voor het voltooien van een chatgesprek. Voltooiingen ondersteunen een groot aantal taken en genereren tekst die wordt voortgezet van of voltooide promptgegevens.
Name | Type | Default value | Description |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Een waarde die van invloed is op de kans dat gegenereerde tokens worden weergegeven op basis van hun cumulatieve frequentie in gegenereerde tekst. Positieve waarden zorgen ervoor dat tokens minder waarschijnlijk worden weergegeven als hun frequentie toeneemt en de kans vermindert dat het model dezelfde exacte instructies herhaalt. Ondersteund bereik is [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
Het maximum aantal tokens dat moet worden gegenereerd. |
|
messages | ChatRequestMessage[]: |
De verzameling contextberichten die zijn gekoppeld aan deze chat-voltooiingsaanvraag. Normaal gebruik begint met een chatbericht voor de systeemrol die instructies biedt voor het gedrag van de assistent, gevolgd door afwisselende berichten tussen de rollen Gebruiker en Assistent. |
|
modalities |
De modaliteiten die het model mag gebruiken voor het antwoord op het voltooien van de chat. De standaard modaliteit is |
||
model |
string |
Id van het specifieke AI-model dat moet worden gebruikt, als er meer dan één model beschikbaar is op het eindpunt. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Een waarde die de kans beïnvloedt dat gegenereerde tokens worden weergegeven op basis van hun bestaande aanwezigheid in gegenereerde tekst. Met positieve waarden worden tokens minder waarschijnlijk weergegeven wanneer ze al bestaan en vergroten de kans dat het model nieuwe onderwerpen uitvoert. Ondersteund bereik is [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Een object dat de indeling aangeeft die het model moet uitvoeren. Instelling voor Als u de instelling voor
Belangrijk: wanneer u de JSON-modus gebruikt, moet u ook het model instrueren om zelf JSON te produceren via een systeem- of gebruikersbericht. Zonder dit kan het model een onverwerkte witruimtestroom genereren totdat de generatie de tokenlimiet bereikt, wat resulteert in een langlopende en schijnbaar 'vastgelopen' aanvraag. Houd er ook rekening mee dat de inhoud van het bericht gedeeltelijk kan worden afgekapt als |
|
seed |
integer (int64) |
Indien opgegeven, doet het systeem er alles aan om een steekproef te nemen op een deterministische wijze, zodat herhaalde aanvragen met dezelfde seed en parameters hetzelfde resultaat moeten retourneren. Determinisme is niet gegarandeerd. |
|
stop |
string[] |
Een verzameling tekstreeksen die het genereren van voltooiingen beëindigen. |
|
stream |
boolean |
Een waarde die aangeeft of chatvoltooiingen moeten worden gestreamd voor deze aanvraag. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
De steekproeftemperatuur die moet worden gebruikt om de schijnbare creativiteit van gegenereerde voltooiingen te regelen. Hogere waarden zorgen ervoor dat uitvoer willekeuriger wordt, terwijl lagere waarden resultaten meer gericht en deterministisch maken. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
tool_choice |
Indien opgegeven, configureert het model welke van de beschikbare hulpprogramma's die het kan gebruiken voor het antwoord op het voltooien van de chat. |
||
tools |
Een lijst met hulpprogramma's die het model kan aanvragen om aan te roepen. Op dit moment worden alleen functies ondersteund als hulpprogramma. Het model kan reageren met een aanvraag voor een functieoproep en de invoerargumenten voor die functie opgeven in JSON-indeling. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Een alternatief voor steekproeven met temperatuur genaamd kernsampling. Deze waarde zorgt ervoor dat het model rekening houdt met de resultaten van tokens met de opgegeven waarschijnlijkheidsmassa. Een voorbeeld: een waarde van 0,15 zorgt ervoor dat alleen de tokens die de top 15% van waarschijnlijkheidsmassa bevatten, worden overwogen. Het wordt niet aanbevolen om temperatuur en top_p te wijzigen voor dezelfde voltooiingsaanvraag als de interactie van deze twee instellingen is moeilijk te voorspellen. Ondersteund bereik is [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten. Als u de JSON-modus wilt inschakelen, moet u voor sommige AI-modellen mogelijk ook het model instrueren om JSON te produceren via een systeem- of gebruikersbericht.
Name | Type | Description |
---|---|---|
type |
string:
json_object |
Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats. |
ChatCompletionsResponseFormatJsonSchema
Een antwoordindeling voor chatvoltooiingen waarmee reacties worden beperkt tot het verzenden van geldige JSON-objecten, met een JSON-schema dat is opgegeven door de beller.
Name | Type | Description |
---|---|---|
json_schema |
De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens. |
|
type |
string:
json_schema |
Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats. |
ChatCompletionsResponseFormatJsonSchemaDefinition
De definitie van het vereiste JSON-schema in het antwoord en de bijbehorende metagegevens.
Name | Type | Default value | Description |
---|---|---|---|
description |
string |
Een beschrijving van de antwoordindeling die door het AI-model wordt gebruikt om te bepalen hoe antwoorden in deze indeling moeten worden gegenereerd. |
|
name |
string |
De naam van de antwoordindeling. Moet a-z, A-Z, 0-9 of onderstrepingstekens en streepjes bevatten, met een maximale lengte van 64. |
|
schema |
De definitie van het JSON-schema |
||
strict |
boolean |
False |
Of u strikte schema-naleving wilt inschakelen bij het genereren van de uitvoer.
Als dit is ingesteld op true, volgt het model altijd het exacte schema dat is gedefinieerd in het veld |
ChatCompletionsResponseFormatText
Een antwoordindeling voor chatvoltooiingen waarmee tekstantwoorden worden verzonden. Dit is de standaardopmaak voor antwoorden.
Name | Type | Description |
---|---|---|
type |
string:
text |
Het type antwoordindeling dat moet worden gebruikt voor het voltooien van chats. |
ChatCompletionsToolCall
Een functiehulpprogramma-aanroep aangevraagd door het AI-model.
Name | Type | Description |
---|---|---|
function |
De details van de functie-aanroep die is aangevraagd door het AI-model. |
|
id |
string |
De id van de aanroep van het hulpprogramma. |
type |
enum:
function |
Het type aanroep van het hulpprogramma. Op dit moment wordt alleen |
ChatCompletionsToolDefinition
De definitie van een hulpprogramma voor chatvoltooiingen waarmee een functie kan worden aangeroepen.
Name | Type | Description |
---|---|---|
function |
De details van de functiedefinitie voor het functiehulpprogramma. |
|
type |
enum:
function |
Het type hulpprogramma. Op dit moment wordt alleen |
ChatRequestAssistantMessage
Een chatbericht aanvragen dat antwoord of actie van de assistent vertegenwoordigt.
Name | Type | Description |
---|---|---|
audio |
De audio die wordt gegenereerd door een eerder antwoord in een gesprek met meerdere paden. |
|
content |
string |
De inhoud van het bericht. |
role |
string:
assistant |
De chatrol die aan dit bericht is gekoppeld. |
tool_calls |
De hulpprogramma-aanroepen die moeten worden opgelost en hun uitvoer moet worden toegevoegd aan volgende invoerberichten voor de aanvraag voor het voltooien van de chat om op te lossen zoals geconfigureerd. |
ChatRequestAudioReference
Een verwijzing naar een audioantwoord dat door het model wordt gegenereerd.
Name | Type | Description |
---|---|---|
id |
string |
Unieke id voor het audioantwoord. Deze waarde komt overeen met de id van een eerdere audio-voltooiing. |
ChatRequestSystemMessage
Een aanvraagchatbericht met systeeminstructies die van invloed zijn op de wijze waarop het model een antwoord op voltooiing van een chat genereert.
Name | Type | Description |
---|---|---|
content |
string |
De inhoud van het systeembericht. |
role |
string:
system |
De chatrol die aan dit bericht is gekoppeld. |
ChatRequestToolMessage
Een chatbericht voor aanvragen dat de aangevraagde uitvoer van een geconfigureerd hulpprogramma vertegenwoordigt.
Name | Type | Description |
---|---|---|
content |
string |
De inhoud van het bericht. |
role |
string:
tool |
De chatrol die aan dit bericht is gekoppeld. |
tool_call_id |
string |
De id van de aanroep van het hulpprogramma die is opgelost door de opgegeven inhoud. |
ChatRequestUserMessage
Een chatbericht aanvragen dat gebruikersinvoer aan de assistent vertegenwoordigt.
Name | Type | Description |
---|---|---|
content |
De inhoud van het gebruikersbericht, met beschikbare invoertypen die variëren per geselecteerd model. |
|
role |
string:
user |
De chatrol die aan dit bericht is gekoppeld. |
ChatResponseMessage
Een weergave van een chatbericht zoals ontvangen in een antwoord.
Name | Type | Description |
---|---|---|
audio |
De audio die door het model wordt gegenereerd als reactie op de berichten als het model is geconfigureerd voor het genereren van audio. |
|
content |
string |
De inhoud van het bericht. |
role |
De chatrol die aan het bericht is gekoppeld. |
|
tool_calls |
De hulpprogramma-aanroepen die moeten worden opgelost en hun uitvoer moet worden toegevoegd aan volgende invoerberichten voor de aanvraag voor het voltooien van de chat om op te lossen zoals geconfigureerd. |
ChatRole
Een beschrijving van het beoogde doel van een bericht binnen een chatinteractie.
Waarde | Description |
---|---|
assistant |
De rol die antwoorden biedt op door het systeem geïnstrueerde, door de gebruiker gevraagd invoer. |
developer |
De rol die instructies biedt voor het model dat prioriteit geeft aan gebruikersberichten. |
system |
De rol waarmee het gedrag van de assistent wordt geïnstrueerd of ingesteld. |
tool |
De rol die de activiteit van het extensiehulpprogramma vertegenwoordigt binnen een bewerking voor het voltooien van een chat. |
user |
De rol die invoer biedt voor het voltooien van chatgesprekken. |
CompletionsFinishReason
Weergave van de manier waarop een voltooiingsreactie werd afgesloten.
Waarde | Description |
---|---|
content_filter |
Voltooiingen hebben een antwoord gegenereerd dat is geïdentificeerd als mogelijk gevoelig per beleid voor inhoudsbeheer. |
length |
Voltooiingen uitgeputte beschikbare tokenlimieten voordat het genereren kon worden voltooid. |
stop |
Voltooiingen eindigden normaal en bereikten het einde van het genereren van tokens. |
tool_calls |
Voltooiing is beëindigd met het model dat een opgegeven hulpprogramma aanroept voor uitvoer. |
CompletionsUsage
Weergave van het aantal tokens dat is verwerkt voor een voltooiingsaanvraag. Aantallen houden rekening met alle tokens voor prompts, keuzes, keuze-alternatieven, best_of generaties en andere consumenten.
Name | Type | Description |
---|---|---|
completion_tokens |
integer (int32) |
Het aantal tokens dat wordt gegenereerd voor alle voltooiingsemissies. |
completion_tokens_details |
Uitsplitsing van tokens die worden gebruikt in een voltooiing. |
|
prompt_tokens |
integer (int32) |
Het aantal tokens in de opgegeven prompts voor de voltooiingsaanvraag. |
prompt_tokens_details |
Uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis. |
|
total_tokens |
integer (int32) |
Het totale aantal tokens dat is verwerkt voor de voltooiingsaanvraag en het antwoord. |
CompletionsUsageDetails
Een uitsplitsing van tokens die worden gebruikt in een voltooiing.
Name | Type | Description |
---|---|---|
audio_tokens |
integer (int32) |
Het aantal tokens dat overeenkomt met audio-invoer. |
total_tokens |
integer (int32) |
Het totale aantal tokens dat is verwerkt voor de voltooiingsaanvraag en het antwoord. |
ExtraParameters
Hiermee bepaalt u wat er gebeurt als extra parameters, die niet zijn gedefinieerd door de REST API, worden doorgegeven in de nettolading van de JSON-aanvraag.
Waarde | Description |
---|---|
drop |
De service negeert extra parameters (drop) in de nettolading van de aanvraag. Hiermee worden alleen de bekende parameters doorgegeven aan het AI-model van de back-end. |
error |
De service treedt op als er extra parameters zijn gedetecteerd in de nettolading van de aanvraag. Dit is de standaardservice. |
pass-through |
De service geeft extra parameters door aan het AI-model van de back-end. |
FunctionCall
De naam en argumenten van een functie die moet worden aangeroepen, zoals gegenereerd door het model.
Name | Type | Description |
---|---|---|
arguments |
string |
De argumenten waarmee de functie moet worden aangeroepen, zoals gegenereerd door het model in JSON-indeling. Houd er rekening mee dat het model niet altijd geldige JSON genereert en parameters die niet door uw functieschema zijn gedefinieerd, halluvalideert. Valideer de argumenten in uw code voordat u de functie aanroept. |
name |
string |
De naam van de functie die moet worden aangeroepen. |
FunctionDefinition
De definitie van een door een beller opgegeven functie die chatvoltooiingen kan aanroepen als reactie op overeenkomende gebruikersinvoer.
Name | Type | Description |
---|---|---|
description |
string |
Een beschrijving van wat de functie doet. Het model gebruikt deze beschrijving bij het selecteren van de functie en het interpreteren van de parameters. |
name |
string |
De naam van de functie die moet worden aangeroepen. |
parameters |
De parameters die de functie accepteert, zoals beschreven als een JSON-schemaobject. |
PromptUsageDetails
Een uitsplitsing van tokens die worden gebruikt in de prompt-/chatgeschiedenis.
Name | Type | Description |
---|---|---|
audio_tokens |
integer (int32) |
Het aantal tokens dat overeenkomt met audio-invoer. |
cached_tokens |
integer (int32) |
Het totale aantal tokens dat in de cache is opgeslagen. |