Partager via


Get Chat Completions - Get Chat Completions

Obtient les achèvements de conversation pour les messages de conversation fournis. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies. La méthode effectue un appel d’API REST à l’itinéraire /chat/completions sur le point de terminaison donné.

POST https:///chat/completions?api-version=2024-05-01-preview

Paramètres URI

Nom Dans Obligatoire Type Description
api-version
query True

string

Version de l’API à utiliser pour cette opération.

En-tête de la demande

Nom Obligatoire Type Description
extra-parameters

ExtraParameters

Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON. Cela définit l’en-tête de requête HTTP extra-parameters.

Corps de la demande

Nom Obligatoire Type Description
messages True ChatRequestMessage[]:

Collection de messages de contexte associés à cette demande de saisie semi-automatique de conversation. L’utilisation classique commence par un message de conversation pour le rôle Système qui fournit des instructions pour le comportement de l’Assistant, suivi d’un échange de messages entre les rôles Utilisateur et Assistant.

frequency_penalty

number

Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur fréquence cumulative dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminue la probabilité que le modèle répète les mêmes instructions verbatim. La plage prise en charge est [-2, 2].

max_tokens

integer

Nombre maximal de jetons à générer.

modalities

ChatCompletionsModality[]

Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation. La modalité par défaut est text. L’indication d’une combinaison de modalité non prise en charge entraîne une erreur 422.

model

string

ID du modèle IA spécifique à utiliser, si plusieurs modèles sont disponibles sur le point de terminaison.

presence_penalty

number

Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques. La plage prise en charge est [-2, 2].

response_format ChatCompletionsResponseFormat:

Objet spécifiant le format que le modèle doit générer.

Le paramètre sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même JSON vous-même via un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

seed

integer

S’il est spécifié, le système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres doivent retourner le même résultat. Le déterminisme n’est pas garanti.

stop

string[]

Collection de séquences textuelles qui terminent la génération d’achèvements.

stream

boolean

Valeur indiquant si les saisies semi-automatiques de conversation doivent être diffusées en continu pour cette demande.

temperature

number

Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus concentrés et déterministes. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1].

tool_choice

Si spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de saisie semi-automatique de conversation.

tools

ChatCompletionsToolDefinition[]

Une liste d’outils que le modèle peut demander à appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Le modèle peut répondre avec une demande d’appel de fonction et fournir les arguments d’entrée au format JSON pour cette fonction.

top_p

number

Alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne uniquement la prise en compte des jetons comprenant les 15 premières% de masse de probabilité. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1].

Réponses

Nom Type Description
200 OK

ChatCompletions

La demande a réussi.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Réponse d’erreur inattendue.

En-têtes

x-ms-error-code: string

Sécurité

api-key

Type: apiKey
Dans: header

OAuth2Auth

Type: oauth2
Flux: implicit
URL d’autorisation: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Étendues

Nom Description
https://ml.azure.com/.default

Exemples

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Exemple de requête

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Exemple de réponse

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Exemple de requête

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Exemple de réponse

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Exemple de requête

POST https:///chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Exemple de réponse

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Définitions

Nom Description
AudioContentFormat

Représentation des formats audio possibles pour l’audio.

Azure.Core.Foundations.Error

Objet d’erreur.

Azure.Core.Foundations.ErrorResponse

Réponse contenant les détails de l’erreur.

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

ChatChoice

Représentation d’une seule saisie semi-automatique d’invite dans le cadre d’une demande globale de saisie semi-automatique de conversation. En règle générale, n choix sont générés par invite fournie avec une valeur par défaut de 1. Les limites de jeton et d’autres paramètres peuvent limiter le nombre de choix générés.

ChatCompletions

Représentation des données de réponse à partir d’une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.

ChatCompletionsAudio

Représentation de l’audio généré par le modèle.

ChatCompletionsModality

Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation.

ChatCompletionsOptions

Informations de configuration pour une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.

ChatCompletionsResponseFormatJsonObject

Format de réponse pour les saisies semi-automatiques de conversation qui restreint les réponses à l’émission d’objets JSON valides. Notez que pour activer le mode JSON, certains modèles IA peuvent également vous obliger à indiquer au modèle de produire json via un message système ou utilisateur.

ChatCompletionsResponseFormatJsonSchema

Format de réponse pour les saisies semi-automatiques de conversation qui limite les réponses à l’émission d’objets JSON valides, avec un schéma JSON spécifié par l’appelant.

ChatCompletionsResponseFormatJsonSchemaDefinition

Définition du schéma JSON requis dans la réponse et des métadonnées associées.

ChatCompletionsResponseFormatText

Format de réponse pour les saisies semi-automatiques de conversation qui émet des réponses de texte. Il s’agit du format de réponse par défaut.

ChatCompletionsToolCall

Un appel d’outil de fonction demandé par le modèle IA.

ChatCompletionsToolDefinition

Définition d’un outil de saisie semi-automatique de conversation qui peut appeler une fonction.

ChatRequestAssistantMessage

Message de conversation de demande représentant la réponse ou l’action de l’Assistant.

ChatRequestAudioReference

Référence à une réponse audio générée par le modèle.

ChatRequestSystemMessage

Message de conversation de demande contenant des instructions système qui influencent la façon dont le modèle génère une réponse d’achèvement de conversation.

ChatRequestToolMessage

Message de conversation de demande représentant la sortie demandée d’un outil configuré.

ChatRequestUserMessage

Message de conversation de demande représentant l’entrée de l’utilisateur à l’Assistant.

ChatResponseMessage

Représentation d’un message de conversation tel qu’il a été reçu dans une réponse.

ChatRole

Description de l’objectif prévu d’un message dans une interaction d’achèvement de conversation.

CompletionsFinishReason

Représentation de la façon dont une réponse d’achèvement s’est terminée.

CompletionsUsage

Représentation du nombre de jetons traités pour une demande d’achèvement. Les nombres prennent en compte tous les jetons des invites, des choix, des alternatives de choix, des générations best_of et d’autres consommateurs.

CompletionsUsageDetails

Répartition des jetons utilisés dans une saisie semi-automatique.

ExtraParameters

Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON.

FunctionCall

Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.

FunctionDefinition

Définition d’une fonction spécifiée par l’appelant que les achèvements de conversation peuvent appeler en réponse à une entrée utilisateur correspondante.

PromptUsageDetails

Répartition des jetons utilisés dans l’historique des invites/conversations.

AudioContentFormat

Représentation des formats audio possibles pour l’audio.

Valeur Description
mp3

Spécifie l’audio au format MP3.

wav

Spécifie l’audio au format WAV.

Azure.Core.Foundations.Error

Objet d’erreur.

Nom Type Description
code

string

Un ensemble de codes d’erreur définis par le serveur.

details

Azure.Core.Foundations.Error[]

Tableau de détails sur des erreurs spécifiques qui ont conduit à cette erreur signalée.

innererror

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques que l’objet actuel sur l’erreur.

message

string

Représentation lisible par l’homme de l’erreur.

target

string

Cible de l’erreur.

Azure.Core.Foundations.ErrorResponse

Réponse contenant les détails de l’erreur.

Nom Type Description
error

Azure.Core.Foundations.Error

Objet d’erreur.

Azure.Core.Foundations.InnerError

Objet contenant des informations plus spécifiques sur l’erreur. Conformément aux instructions de l’API Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Nom Type Description
code

string

Un ensemble de codes d’erreur définis par le serveur.

innererror

Azure.Core.Foundations.InnerError

Erreur interne.

ChatChoice

Représentation d’une seule saisie semi-automatique d’invite dans le cadre d’une demande globale de saisie semi-automatique de conversation. En règle générale, n choix sont générés par invite fournie avec une valeur par défaut de 1. Les limites de jeton et d’autres paramètres peuvent limiter le nombre de choix générés.

Nom Type Description
finish_reason

CompletionsFinishReason

La raison pour laquelle ce choix de conversation est terminé a terminé sa génération.

index

integer

Index ordonné associé à ce choix de saisie semi-automatique de conversation.

message

ChatResponseMessage

Message de conversation pour une invite de saisie semi-automatique de conversation donnée.

ChatCompletions

Représentation des données de réponse à partir d’une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.

Nom Type Description
choices

ChatChoice[]

Collection de choix d’achèvements associés à cette réponse d’achèvement. En règle générale, n choix sont générés par invite fournie avec une valeur par défaut de 1. Les limites de jeton et d’autres paramètres peuvent limiter le nombre de choix générés.

created

integer

Le premier horodatage associé à l’activité de génération pour cette réponse d’achèvement, représenté sous forme de secondes depuis le début de l’époque Unix de 00:00 le 1er janvier 1970.

id

string

Identificateur unique associé à cette réponse de saisie semi-automatique de conversation.

model

string

Modèle utilisé pour la saisie semi-automatique de conversation.

object enum:

chat.completion

Type d’objet response, qui est toujours chat.completion.

usage

CompletionsUsage

Informations d’utilisation pour les jetons traités et générés dans le cadre de cette opération d’achèvement.

ChatCompletionsAudio

Représentation de l’audio généré par le modèle.

Nom Type Description
data

string

Données audio encodées en base64

expires_at

integer

Horodatage Unix (en secondes) auquel l’élément audio expire et ne peut plus être référencé par son ID dans les conversations à plusieurs tours.

format

AudioContentFormat

Format du contenu audio. Si le format n’est pas fourni, il correspond au format utilisé dans la demande audio d’entrée.

id

string

Identificateur unique de la réponse audio. Cette valeur peut être utilisée dans les messages d’historique des conversations au lieu de transmettre l’objet audio complet.

transcript

string

Transcription du fichier audio.

ChatCompletionsModality

Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation.

Valeur Description
audio

Le modèle est autorisé à générer de l’audio.

text

Le modèle est uniquement autorisé à générer du texte.

ChatCompletionsOptions

Informations de configuration pour une demande de saisie semi-automatique de conversation. Les achèvements prennent en charge un large éventail de tâches et génèrent du texte qui se poursuit à partir ou « terminé » des données d’invite fournies.

Nom Type Valeur par défaut Description
frequency_penalty

number

0

Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur fréquence cumulative dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître à mesure que leur fréquence augmente et diminue la probabilité que le modèle répète les mêmes instructions verbatim. La plage prise en charge est [-2, 2].

max_tokens

integer

Nombre maximal de jetons à générer.

messages ChatRequestMessage[]:

Collection de messages de contexte associés à cette demande de saisie semi-automatique de conversation. L’utilisation classique commence par un message de conversation pour le rôle Système qui fournit des instructions pour le comportement de l’Assistant, suivi d’un échange de messages entre les rôles Utilisateur et Assistant.

modalities

ChatCompletionsModality[]

Les modalités que le modèle est autorisé à utiliser pour la réponse d’achèvement de conversation. La modalité par défaut est text. L’indication d’une combinaison de modalité non prise en charge entraîne une erreur 422.

model

string

ID du modèle IA spécifique à utiliser, si plusieurs modèles sont disponibles sur le point de terminaison.

presence_penalty

number

0

Valeur qui influence la probabilité de jetons générés apparaissant en fonction de leur présence existante dans le texte généré. Les valeurs positives rendent les jetons moins susceptibles d’apparaître lorsqu’ils existent déjà et augmentent la probabilité que le modèle génère de nouvelles rubriques. La plage prise en charge est [-2, 2].

response_format ChatCompletionsResponseFormat:

Objet spécifiant le format que le modèle doit générer.

Le paramètre sur { "type": "json_schema", "json_schema": {...} } active les sorties structurées, ce qui garantit que le modèle correspond à votre schéma JSON fourni.

Le paramètre sur { "type": "json_object" } active le mode JSON, ce qui garantit que le message généré par le modèle est un JSON valide.

Important : lors de l’utilisation du mode JSON, vous devez également indiquer au modèle de produire vous-même JSON vous-même via un message système ou utilisateur. Sans cela, le modèle peut générer un flux d’espace blanc sans fin jusqu’à ce que la génération atteigne la limite de jetons, ce qui entraîne une demande longue et apparemment « bloquée ». Notez également que le contenu du message peut être partiellement coupé si finish_reason="length", ce qui indique que la génération a dépassé max_tokens ou que la conversation a dépassé la longueur maximale du contexte.

seed

integer

S’il est spécifié, le système fera le meilleur effort pour échantillonner de façon déterministe, de sorte que les requêtes répétées avec la même valeur initiale et les mêmes paramètres doivent retourner le même résultat. Le déterminisme n’est pas garanti.

stop

string[]

Collection de séquences textuelles qui terminent la génération d’achèvements.

stream

boolean

Valeur indiquant si les saisies semi-automatiques de conversation doivent être diffusées en continu pour cette demande.

temperature

number

0.7

Température d’échantillonnage à utiliser qui contrôle la créativité apparente des achèvements générés. Les valeurs plus élevées rendent la sortie plus aléatoire, tandis que les valeurs inférieures rendent les résultats plus concentrés et déterministes. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1].

tool_choice

Si spécifié, le modèle configure les outils fournis qu’il peut utiliser pour la réponse de saisie semi-automatique de conversation.

tools

ChatCompletionsToolDefinition[]

Une liste d’outils que le modèle peut demander à appeler. Actuellement, seules les fonctions sont prises en charge en tant qu’outil. Le modèle peut répondre avec une demande d’appel de fonction et fournir les arguments d’entrée au format JSON pour cette fonction.

top_p

number

1

Alternative à l’échantillonnage avec la température appelée échantillonnage de noyau. Cette valeur amène le modèle à prendre en compte les résultats des jetons avec la masse de probabilité fournie. Par exemple, une valeur de 0,15 entraîne uniquement la prise en compte des jetons comprenant les 15 premières% de masse de probabilité. Il n’est pas recommandé de modifier la température et les top_p pour la même demande d’achèvement que l’interaction de ces deux paramètres est difficile à prédire. La plage prise en charge est [0, 1].

ChatCompletionsResponseFormatJsonObject

Format de réponse pour les saisies semi-automatiques de conversation qui restreint les réponses à l’émission d’objets JSON valides. Notez que pour activer le mode JSON, certains modèles IA peuvent également vous obliger à indiquer au modèle de produire json via un message système ou utilisateur.

Nom Type Description
type string:

json_object

Type de format de réponse à utiliser pour les achèvements de conversation.

ChatCompletionsResponseFormatJsonSchema

Format de réponse pour les saisies semi-automatiques de conversation qui limite les réponses à l’émission d’objets JSON valides, avec un schéma JSON spécifié par l’appelant.

Nom Type Description
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

Définition du schéma JSON requis dans la réponse et des métadonnées associées.

type string:

json_schema

Type de format de réponse à utiliser pour les achèvements de conversation.

ChatCompletionsResponseFormatJsonSchemaDefinition

Définition du schéma JSON requis dans la réponse et des métadonnées associées.

Nom Type Valeur par défaut Description
description

string

Description du format de réponse utilisé par le modèle IA pour déterminer comment générer des réponses dans ce format.

name

string

Nom du format de réponse. Doit être a-z, A-Z, 0-9 ou contenir des traits de soulignement et des tirets, avec une longueur maximale de 64.

schema

Définition du schéma JSON

strict

boolean

False

Indique s’il faut activer l’adhésion stricte au schéma lors de la génération de la sortie. Si la valeur est true, le modèle suit toujours le schéma exact défini dans le champ schema. Seul un sous-ensemble de schéma JSON est pris en charge lorsque strict est true.

ChatCompletionsResponseFormatText

Format de réponse pour les saisies semi-automatiques de conversation qui émet des réponses de texte. Il s’agit du format de réponse par défaut.

Nom Type Description
type string:

text

Type de format de réponse à utiliser pour les achèvements de conversation.

ChatCompletionsToolCall

Un appel d’outil de fonction demandé par le modèle IA.

Nom Type Description
function

FunctionCall

Détails de l’appel de fonction demandé par le modèle IA.

id

string

ID de l’appel de l’outil.

type enum:

function

Type d’appel d’outil. Actuellement, seule function est prise en charge.

ChatCompletionsToolDefinition

Définition d’un outil de saisie semi-automatique de conversation qui peut appeler une fonction.

Nom Type Description
function

FunctionDefinition

Détails de la définition de fonction pour l’outil de fonction.

type enum:

function

Type de l’outil. Actuellement, seule function est prise en charge.

ChatRequestAssistantMessage

Message de conversation de demande représentant la réponse ou l’action de l’Assistant.

Nom Type Description
audio

ChatRequestAudioReference

Audio généré par une réponse précédente dans une conversation multitours.

content

string

Contenu du message.

role string:

assistant

Rôle de conversation associé à ce message.

tool_calls

ChatCompletionsToolCall[]

Les appels d’outil qui doivent être résolus et dont les sorties sont ajoutées aux messages d’entrée suivants pour la demande de saisie semi-automatique de conversation afin de résoudre le problème tel qu’il est configuré.

ChatRequestAudioReference

Référence à une réponse audio générée par le modèle.

Nom Type Description
id

string

Identificateur unique de la réponse audio. Cette valeur correspond à l’ID d’une saisie semi-automatique audio précédente.

ChatRequestSystemMessage

Message de conversation de demande contenant des instructions système qui influencent la façon dont le modèle génère une réponse d’achèvement de conversation.

Nom Type Description
content

string

Contenu du message système.

role string:

system

Rôle de conversation associé à ce message.

ChatRequestToolMessage

Message de conversation de demande représentant la sortie demandée d’un outil configuré.

Nom Type Description
content

string

Contenu du message.

role string:

tool

Rôle de conversation associé à ce message.

tool_call_id

string

ID de l’appel d’outil résolu par le contenu fourni.

ChatRequestUserMessage

Message de conversation de demande représentant l’entrée de l’utilisateur à l’Assistant.

Nom Type Description
content

Contenu du message utilisateur, avec les types d’entrée disponibles variables par modèle sélectionné.

role string:

user

Rôle de conversation associé à ce message.

ChatResponseMessage

Représentation d’un message de conversation tel qu’il a été reçu dans une réponse.

Nom Type Description
audio

ChatCompletionsAudio

Audio généré par le modèle en réponse aux messages si le modèle est configuré pour générer de l’audio.

content

string

Contenu du message.

role

ChatRole

Rôle de conversation associé au message.

tool_calls

ChatCompletionsToolCall[]

Les appels d’outil qui doivent être résolus et dont les sorties sont ajoutées aux messages d’entrée suivants pour la demande de saisie semi-automatique de conversation afin de résoudre le problème tel qu’il est configuré.

ChatRole

Description de l’objectif prévu d’un message dans une interaction d’achèvement de conversation.

Valeur Description
assistant

Rôle qui fournit des réponses à l’entrée à l’invite de l’utilisateur, indiquée par le système.

developer

Rôle qui fournit des instructions au modèle hiérarchisé avant les messages utilisateur.

system

Rôle qui indique ou définit le comportement de l’Assistant.

tool

Rôle qui représente l’activité de l’outil d’extension au sein d’une opération d’achèvement de conversation.

user

Rôle qui fournit une entrée pour les achèvements de conversation.

CompletionsFinishReason

Représentation de la façon dont une réponse d’achèvement s’est terminée.

Valeur Description
content_filter

Les achèvements ont généré une réponse qui a été identifiée comme potentiellement sensible par stratégie de modération de contenu.

length

Les limites de jeton disponibles épuisées avant la fin de la génération.

stop

Les achèvements se sont terminés normalement et ont atteint sa fin de génération de jetons.

tool_calls

L’achèvement s’est terminé avec le modèle appelant un outil fourni pour la sortie.

CompletionsUsage

Représentation du nombre de jetons traités pour une demande d’achèvement. Les nombres prennent en compte tous les jetons des invites, des choix, des alternatives de choix, des générations best_of et d’autres consommateurs.

Nom Type Description
completion_tokens

integer

Nombre de jetons générés sur toutes les émissions d’achèvement.

completion_tokens_details

CompletionsUsageDetails

Répartition des jetons utilisés dans une saisie semi-automatique.

prompt_tokens

integer

Nombre de jetons dans les invites fournies pour la demande d’achèvement.

prompt_tokens_details

PromptUsageDetails

Répartition des jetons utilisés dans l’historique des invites/conversations.

total_tokens

integer

Nombre total de jetons traités pour la demande et la réponse de saisie semi-automatique.

CompletionsUsageDetails

Répartition des jetons utilisés dans une saisie semi-automatique.

Nom Type Description
audio_tokens

integer

Nombre de jetons correspondant à l’entrée audio.

total_tokens

integer

Nombre total de jetons traités pour la demande et la réponse de saisie semi-automatique.

ExtraParameters

Contrôle ce qui se passe si des paramètres supplémentaires, non définis par l’API REST, sont transmis dans la charge utile de requête JSON.

Valeur Description
drop

Le service ignore (supprime) les paramètres supplémentaires dans la charge utile de la requête. Il transmet uniquement les paramètres connus au modèle IA back-end.

error

Le service s’affiche si des paramètres supplémentaires ont été détectés dans la charge utile de la requête. Il s’agit de la valeur par défaut du service.

pass-through

Le service transmet des paramètres supplémentaires au modèle IA back-end.

FunctionCall

Nom et arguments d’une fonction qui doit être appelée, comme généré par le modèle.

Nom Type Description
arguments

string

Arguments à utiliser pour appeler la fonction, comme généré par le modèle au format JSON. Notez que le modèle ne génère pas toujours de JSON valide et peut halluciner les paramètres non définis par votre schéma de fonction. Validez les arguments dans votre code avant d’appeler votre fonction.

name

string

Nom de la fonction à appeler.

FunctionDefinition

Définition d’une fonction spécifiée par l’appelant que les achèvements de conversation peuvent appeler en réponse à une entrée utilisateur correspondante.

Nom Type Description
description

string

Description de ce que fait la fonction. Le modèle utilise cette description lors de la sélection de la fonction et de l’interprétation de ses paramètres.

name

string

Nom de la fonction à appeler.

parameters

Les paramètres que la fonction accepte, décrits en tant qu’objet json Schema.

PromptUsageDetails

Répartition des jetons utilisés dans l’historique des invites/conversations.

Nom Type Description
audio_tokens

integer

Nombre de jetons correspondant à l’entrée audio.

cached_tokens

integer

Nombre total de jetons mis en cache.