Get Chat Completions - Get Chat Completions
Obtient les achèvements de conversation pour les messages de conversation fournis.
Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies. La méthode effectue un appel d’API REST à l’itinéraire /chat/completions
sur le point de terminaison donné.
POST https:///chat/completions?api-version=2024-05-01-preview
Paramètres URI
Nom | Dans | Obligatoire | Type | Description |
---|---|---|---|---|
api-version
|
query | True |
string |
Version de l’API à utiliser pour cette opération. |
En-tête de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
extra-parameters |
Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON.
Cela définit l’en-tête de requête HTTP |
Corps de la demande
Nom | Obligatoire | Type | Description |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
Collection de messages de contexte associés à cette demande de saisie semi-automatique de conversation. L’utilisation classique commence par un message de conversation pour le rôle Système qui fournit des instructions pour le comportement de l’Assistant, suivi d’un échange de messages entre les rôles Utilisateur et Assistant. |
frequency_penalty |
number |
Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur fréquence cumulative dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminue la probabilité que le modèle répète les mêmes instructions verbatim. La plage prise en charge est [-2, 2]. |
|
max_tokens |
integer |
Nombre maximal de jetons à générer. |
|
modalities |
Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation. La modalité par défaut est |
||
model |
string |
ID du modèle IA spécifique à utiliser, si plusieurs modèles sont disponibles sur le point de terminaison. |
|
presence_penalty |
number |
Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques. La plage prise en charge est [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Objet spécifiant le format que le modèle doit générer. Le paramètre sur Le paramètre sur
Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même JSON vous-même via un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si |
|
seed |
integer |
S’il est spécifié, le système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres doivent retourner le même résultat. Le déterminisme n’est pas garanti. |
|
stop |
string[] |
Collection de séquences textuelles qui terminent la génération d’achèvements. |
|
stream |
boolean |
Valeur indiquant si les saisies semi-automatiques de conversation doivent être diffusées en continu pour cette demande. |
|
temperature |
number |
Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus concentrés et déterministes. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1]. |
|
tool_choice |
Si spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de saisie semi-automatique de conversation. |
||
tools |
Une liste d’outils que le modèle peut demander à appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Le modèle peut répondre avec une demande d’appel de fonction et fournir les arguments d’entrée au format JSON pour cette fonction. |
||
top_p |
number |
Alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne uniquement la prise en compte des jetons comprenant les 15 premières% de masse de probabilité. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1]. |
Réponses
Nom | Type | Description |
---|---|---|
200 OK |
La demande a réussi. |
|
Other Status Codes |
Réponse d’erreur inattendue. En-têtes x-ms-error-code: string |
Sécurité
api-key
Type:
apiKey
Dans:
header
OAuth2Auth
Type:
oauth2
Flux:
implicit
URL d’autorisation:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Étendues
Nom | Description |
---|---|
https://ml.azure.com/.default |
Exemples
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Exemple de requête
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Exemple de réponse
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Exemple de requête
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Exemple de réponse
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Exemple de requête
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Exemple de réponse
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Définitions
Nom | Description |
---|---|
Audio |
Représentation des formats audio possibles pour l’audio. |
Azure. |
Objet d’erreur. |
Azure. |
Réponse contenant les détails de l’erreur. |
Azure. |
Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
Représentation d’une seule saisie semi-automatique d’invite dans le cadre d’une demande globale de saisie semi-automatique de conversation.
En règle générale, |
Chat |
Représentation des données de réponse à partir d’une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies. |
Chat |
Représentation de l’audio généré par le modèle. |
Chat |
Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation. |
Chat |
Informations de configuration pour une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies. |
Chat |
Format de réponse pour les saisies semi-automatiques de conversation qui restreint les réponses à l’émission d’objets JSON valides. Notez que pour activer le mode JSON, certains modèles IA peuvent également vous obliger à indiquer au modèle de produire json via un message système ou utilisateur. |
Chat |
Format de réponse pour les saisies semi-automatiques de conversation qui limite les réponses à l’émission d’objets JSON valides, avec un schéma JSON spécifié par l’appelant. |
Chat |
Définition du schéma JSON requis dans la réponse et des métadonnées associées. |
Chat |
Format de réponse pour les saisies semi-automatiques de conversation qui émet des réponses de texte. Il s’agit du format de réponse par défaut. |
Chat |
Un appel d’outil de fonction demandé par le modèle IA. |
Chat |
Définition d’un outil de saisie semi-automatique de conversation qui peut appeler une fonction. |
Chat |
Message de conversation de demande représentant la réponse ou l’action de l’Assistant. |
Chat |
Référence à une réponse audio générée par le modèle. |
Chat |
Message de conversation de demande contenant des instructions système qui influencent la façon dont le modèle génère une réponse d’achèvement de conversation. |
Chat |
Message de conversation de demande représentant la sortie demandée d’un outil configuré. |
Chat |
Message de conversation de demande représentant l’entrée de l’utilisateur à l’Assistant. |
Chat |
Représentation d’un message de conversation tel qu’il a été reçu dans une réponse. |
Chat |
Description de l’objectif prévu d’un message dans une interaction d’achèvement de conversation. |
Completions |
Représentation de la façon dont une réponse d’achèvement s’est terminée. |
Completions |
Représentation du nombre de jetons traités pour une demande d’achèvement. Les nombres prennent en compte tous les jetons des invites, des choix, des alternatives de choix, des générations best_of et d’autres consommateurs. |
Completions |
Répartition des jetons utilisés dans une saisie semi-automatique. |
Extra |
Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON. |
Function |
Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle. |
Function |
Définition d’une fonction spécifiée par l’appelant que les achèvements de conversation peuvent appeler en réponse à une entrée utilisateur correspondante. |
Prompt |
Répartition des jetons utilisés dans l’historique des invites/conversations. |
AudioContentFormat
Représentation des formats audio possibles pour l’audio.
Valeur | Description |
---|---|
mp3 |
Spécifie l’audio au format MP3. |
wav |
Spécifie l’audio au format WAV. |
Azure.Core.Foundations.Error
Objet d’erreur.
Nom | Type | Description |
---|---|---|
code |
string |
Un ensemble de codes d’erreur définis par le serveur. |
details |
Tableau de détails sur des erreurs spécifiques qui ont conduit à cette erreur signalée. |
|
innererror |
Objet contenant des informations plus spécifiques que l’objet actuel sur l’erreur. |
|
message |
string |
Représentation lisible par l’homme de l’erreur. |
target |
string |
Cible de l’erreur. |
Azure.Core.Foundations.ErrorResponse
Réponse contenant les détails de l’erreur.
Nom | Type | Description |
---|---|---|
error |
Objet d’erreur. |
Azure.Core.Foundations.InnerError
Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
Nom | Type | Description |
---|---|---|
code |
string |
Un ensemble de codes d’erreur définis par le serveur. |
innererror |
Erreur interne. |
ChatChoice
Représentation d’une seule saisie semi-automatique d’invite dans le cadre d’une demande globale de saisie semi-automatique de conversation.
En règle générale, n
choix sont générés par invite fournie avec une valeur par défaut de 1.
Les limites de jeton et d’autres paramètres peuvent limiter le nombre de choix générés.
Nom | Type | Description |
---|---|---|
finish_reason |
La raison pour laquelle ce choix de conversation est terminé a terminé sa génération. |
|
index |
integer |
Index ordonné associé à ce choix de saisie semi-automatique de conversation. |
message |
Message de conversation pour une invite de saisie semi-automatique de conversation donnée. |
ChatCompletions
Représentation des données de réponse à partir d’une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.
Nom | Type | Description |
---|---|---|
choices |
Collection de choix d’achèvements associés à cette réponse d’achèvement.
En règle générale, |
|
created |
integer |
Le premier horodatage associé à l’activité de génération pour cette réponse d’achèvement, représenté sous forme de secondes depuis le début de l’époque Unix de 00:00 le 1er janvier 1970. |
id |
string |
Identificateur unique associé à cette réponse de saisie semi-automatique de conversation. |
model |
string |
Modèle utilisé pour la saisie semi-automatique de conversation. |
object |
enum:
chat. |
Type d’objet response, qui est toujours |
usage |
Informations d’utilisation pour les jetons traités et générés dans le cadre de cette opération d’achèvement. |
ChatCompletionsAudio
Représentation de l’audio généré par le modèle.
Nom | Type | Description |
---|---|---|
data |
string |
Données audio encodées en base64 |
expires_at |
integer |
Horodatage Unix (en secondes) auquel l’élément audio expire et ne peut plus être référencé par son ID dans les conversations à plusieurs tours. |
format |
Format du contenu audio. Si le format n’est pas fourni, il correspond au format utilisé dans la demande audio d’entrée. |
|
id |
string |
Identificateur unique de la réponse audio. Cette valeur peut être utilisée dans les messages d’historique des conversations au lieu de transmettre l’objet audio complet. |
transcript |
string |
Transcription du fichier audio. |
ChatCompletionsModality
Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation.
Valeur | Description |
---|---|
audio |
Le modèle est autorisé à générer de l’audio. |
text |
Le modèle est uniquement autorisé à générer du texte. |
ChatCompletionsOptions
Informations de configuration pour une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
frequency_penalty |
number |
0 |
Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur fréquence cumulative dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminue la probabilité que le modèle répète les mêmes instructions verbatim. La plage prise en charge est [-2, 2]. |
max_tokens |
integer |
Nombre maximal de jetons à générer. |
|
messages | ChatRequestMessage[]: |
Collection de messages de contexte associés à cette demande de saisie semi-automatique de conversation. L’utilisation classique commence par un message de conversation pour le rôle Système qui fournit des instructions pour le comportement de l’Assistant, suivi d’un échange de messages entre les rôles Utilisateur et Assistant. |
|
modalities |
Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation. La modalité par défaut est |
||
model |
string |
ID du modèle IA spécifique à utiliser, si plusieurs modèles sont disponibles sur le point de terminaison. |
|
presence_penalty |
number |
0 |
Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques. La plage prise en charge est [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Objet spécifiant le format que le modèle doit générer. Le paramètre sur Le paramètre sur
Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même JSON vous-même via un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si |
|
seed |
integer |
S’il est spécifié, le système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres doivent retourner le même résultat. Le déterminisme n’est pas garanti. |
|
stop |
string[] |
Collection de séquences textuelles qui terminent la génération d’achèvements. |
|
stream |
boolean |
Valeur indiquant si les saisies semi-automatiques de conversation doivent être diffusées en continu pour cette demande. |
|
temperature |
number |
0.7 |
Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus concentrés et déterministes. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1]. |
tool_choice |
Si spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de saisie semi-automatique de conversation. |
||
tools |
Une liste d’outils que le modèle peut demander à appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Le modèle peut répondre avec une demande d’appel de fonction et fournir les arguments d’entrée au format JSON pour cette fonction. |
||
top_p |
number |
1 |
Alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne uniquement la prise en compte des jetons comprenant les 15 premières% de masse de probabilité. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Format de réponse pour les saisies semi-automatiques de conversation qui restreint les réponses à l’émission d’objets JSON valides. Notez que pour activer le mode JSON, certains modèles IA peuvent également vous obliger à indiquer au modèle de produire json via un message système ou utilisateur.
Nom | Type | Description |
---|---|---|
type |
string:
json_object |
Type de format de réponse à utiliser pour les achèvements de conversation. |
ChatCompletionsResponseFormatJsonSchema
Format de réponse pour les saisies semi-automatiques de conversation qui limite les réponses à l’émission d’objets JSON valides, avec un schéma JSON spécifié par l’appelant.
Nom | Type | Description |
---|---|---|
json_schema |
Définition du schéma JSON requis dans la réponse et des métadonnées associées. |
|
type |
string:
json_schema |
Type de format de réponse à utiliser pour les achèvements de conversation. |
ChatCompletionsResponseFormatJsonSchemaDefinition
Définition du schéma JSON requis dans la réponse et des métadonnées associées.
Nom | Type | Valeur par défaut | Description |
---|---|---|---|
description |
string |
Description du format de réponse utilisé par le modèle IA pour déterminer comment générer des réponses dans ce format. |
|
name |
string |
Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64. |
|
schema |
Définition du schéma JSON |
||
strict |
boolean |
False |
Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie.
Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ |
ChatCompletionsResponseFormatText
Format de réponse pour les saisies semi-automatiques de conversation qui émet des réponses de texte. Il s’agit du format de réponse par défaut.
Nom | Type | Description |
---|---|---|
type |
string:
text |
Type de format de réponse à utiliser pour les achèvements de conversation. |
ChatCompletionsToolCall
Un appel d’outil de fonction demandé par le modèle IA.
Nom | Type | Description |
---|---|---|
function |
Détails de l’appel de fonction demandé par le modèle IA. |
|
id |
string |
ID de l’appel de l’outil. |
type |
enum:
function |
Type d’appel d’outil. Actuellement, seule |
ChatCompletionsToolDefinition
Définition d’un outil de saisie semi-automatique de conversation qui peut appeler une fonction.
Nom | Type | Description |
---|---|---|
function |
Détails de la définition de fonction pour l’outil de fonction. |
|
type |
enum:
function |
Type de l’outil. Actuellement, seule |
ChatRequestAssistantMessage
Message de conversation de demande représentant la réponse ou l’action de l’Assistant.
Nom | Type | Description |
---|---|---|
audio |
Audio généré par une réponse précédente dans une conversation multitours. |
|
content |
string |
Contenu du message. |
role |
string:
assistant |
Rôle de conversation associé à ce message. |
tool_calls |
Les appels d’outil qui doivent être résolus et dont les sorties sont ajoutées aux messages d’entrée suivants pour la demande de saisie semi-automatique de conversation afin de résoudre le problème tel qu’il est configuré. |
ChatRequestAudioReference
Référence à une réponse audio générée par le modèle.
Nom | Type | Description |
---|---|---|
id |
string |
Identificateur unique de la réponse audio. Cette valeur correspond à l’ID d’une saisie semi-automatique audio précédente. |
ChatRequestSystemMessage
Message de conversation de demande contenant des instructions système qui influencent la façon dont le modèle génère une réponse d’achèvement de conversation.
Nom | Type | Description |
---|---|---|
content |
string |
Contenu du message système. |
role |
string:
system |
Rôle de conversation associé à ce message. |
ChatRequestToolMessage
Message de conversation de demande représentant la sortie demandée d’un outil configuré.
Nom | Type | Description |
---|---|---|
content |
string |
Contenu du message. |
role |
string:
tool |
Rôle de conversation associé à ce message. |
tool_call_id |
string |
ID de l’appel d’outil résolu par le contenu fourni. |
ChatRequestUserMessage
Message de conversation de demande représentant l’entrée de l’utilisateur à l’Assistant.
Nom | Type | Description |
---|---|---|
content |
Contenu du message utilisateur, avec les types d’entrée disponibles variables par modèle sélectionné. |
|
role |
string:
user |
Rôle de conversation associé à ce message. |
ChatResponseMessage
Représentation d’un message de conversation tel qu’il a été reçu dans une réponse.
Nom | Type | Description |
---|---|---|
audio |
Audio généré par le modèle en réponse aux messages si le modèle est configuré pour générer de l’audio. |
|
content |
string |
Contenu du message. |
role |
Rôle de conversation associé au message. |
|
tool_calls |
Les appels d’outil qui doivent être résolus et dont les sorties sont ajoutées aux messages d’entrée suivants pour la demande de saisie semi-automatique de conversation afin de résoudre le problème tel qu’il est configuré. |
ChatRole
Description de l’objectif prévu d’un message dans une interaction d’achèvement de conversation.
Valeur | Description |
---|---|
assistant |
Rôle qui fournit des réponses à l’entrée à l’invite de l’utilisateur, indiquée par le système. |
developer |
Rôle qui fournit des instructions au modèle hiérarchisé avant les messages utilisateur. |
system |
Rôle qui indique ou définit le comportement de l’Assistant. |
tool |
Rôle qui représente l’activité de l’outil d’extension au sein d’une opération d’achèvement de conversation. |
user |
Rôle qui fournit une entrée pour les achèvements de conversation. |
CompletionsFinishReason
Représentation de la façon dont une réponse d’achèvement s’est terminée.
Valeur | Description |
---|---|
content_filter |
Les achèvements ont généré une réponse qui a été identifiée comme potentiellement sensible par stratégie de modération de contenu. |
length |
Les limites de jeton disponibles épuisées avant la fin de la génération. |
stop |
Les achèvements se sont terminés normalement et ont atteint sa fin de génération de jetons. |
tool_calls |
L’achèvement s’est terminé avec le modèle appelant un outil fourni pour la sortie. |
CompletionsUsage
Représentation du nombre de jetons traités pour une demande d’achèvement. Les nombres prennent en compte tous les jetons des invites, des choix, des alternatives de choix, des générations best_of et d’autres consommateurs.
Nom | Type | Description |
---|---|---|
completion_tokens |
integer |
Nombre de jetons générés sur toutes les émissions d’achèvement. |
completion_tokens_details |
Répartition des jetons utilisés dans une saisie semi-automatique. |
|
prompt_tokens |
integer |
Nombre de jetons dans les invites fournies pour la demande d’achèvement. |
prompt_tokens_details |
Répartition des jetons utilisés dans l’historique des invites/conversations. |
|
total_tokens |
integer |
Nombre total de jetons traités pour la demande et la réponse de saisie semi-automatique. |
CompletionsUsageDetails
Répartition des jetons utilisés dans une saisie semi-automatique.
Nom | Type | Description |
---|---|---|
audio_tokens |
integer |
Nombre de jetons correspondant à l’entrée audio. |
total_tokens |
integer |
Nombre total de jetons traités pour la demande et la réponse de saisie semi-automatique. |
ExtraParameters
Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON.
Valeur | Description |
---|---|
drop |
Le service ignore (supprime) les paramètres supplémentaires dans la charge utile de la requête. Il transmet uniquement les paramètres connus au modèle IA back-end. |
error |
Le service s’affiche si des paramètres supplémentaires ont été détectés dans la charge utile de la requête. Il s’agit de la valeur par défaut du service. |
pass-through |
Le service transmet des paramètres supplémentaires au modèle IA back-end. |
FunctionCall
Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.
Nom | Type | Description |
---|---|---|
arguments |
string |
Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction. |
name |
string |
Nom de la fonction à appeler. |
FunctionDefinition
Définition d’une fonction spécifiée par l’appelant que les achèvements de conversation peuvent appeler en réponse à une entrée utilisateur correspondante.
Nom | Type | Description |
---|---|---|
description |
string |
Description de ce que fait la fonction. Le modèle utilise cette description lors de la sélection de la fonction et de l’interprétation de ses paramètres. |
name |
string |
Nom de la fonction à appeler. |
parameters |
Les paramètres que la fonction accepte, décrits en tant qu’objet json Schema. |
PromptUsageDetails
Répartition des jetons utilisés dans l’historique des invites/conversations.
Nom | Type | Description |
---|---|---|
audio_tokens |
integer |
Nombre de jetons correspondant à l’entrée audio. |
cached_tokens |
integer |
Nombre total de jetons mis en cache. |