Compartir a través de


Get Chat Completions - Get Chat Completions

Obtiene finalizaciones de chat para los mensajes de chat proporcionados. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos". El método realiza una llamada API REST a la ruta /chat/completions en el punto de conexión especificado.

POST https:///chat/completions?api-version=2024-05-01-preview

Parámetros de identificador URI

Nombre En Requerido Tipo Description
api-version
query True

string

minLength: 1

Versión de la API que se va a usar para esta operación.

Encabezado de la solicitud

Nombre Requerido Tipo Description
extra-parameters

ExtraParameters

Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON. Esto establece el encabezado de solicitud HTTP extra-parameters.

Cuerpo de la solicitud

Nombre Requerido Tipo Description
messages True ChatRequestMessage[]:

La colección de mensajes de contexto asociados a esta solicitud de finalizaciones de chat. El uso típico comienza con un mensaje de chat para el rol Sistema que proporciona instrucciones para el comportamiento del asistente, seguido de mensajes alternados entre los roles Usuario y Asistente.

frequency_penalty

number (float)

minimum: -2
maximum: 2

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que su frecuencia aumente y disminuya la probabilidad de que el modelo repita las mismas instrucciones textualmente. El intervalo admitido es [-2, 2].

max_tokens

integer (int32)

minimum: 0

Número máximo de tokens que se van a generar.

modalities

ChatCompletionsModality[]

Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat. La modalidad predeterminada es text. Si se indica una combinación de modalidad no admitida, se produce un error 422.

model

string

Identificador del modelo de IA específico que se va a usar, si hay más de un modelo disponible en el punto de conexión.

presence_penalty

number (float)

minimum: -2
maximum: 2

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens aparezcan menos cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas. El intervalo admitido es [-2, 2].

response_format ChatCompletionsResponseFormat:

Objeto que especifica el formato que debe generar el modelo.

Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado.

Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.

Importante: al usar el modo JSON, debe indicar también al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.

seed

integer (int64)

Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros deben devolver el mismo resultado. No se garantiza el determinismo.

stop

string[]

Colección de secuencias textuales que finalizarán la generación de finalizaciones.

stream

boolean

Valor que indica si se deben transmitir finalizaciones de chat para esta solicitud.

temperature

number (float)

minimum: 0
maximum: 1

Temperatura de muestreo que se va a usar que controla la aparente creatividad de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1].

tool_choice

Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat.

tools

ChatCompletionsToolDefinition[]

Una lista de herramientas a las que el modelo puede solicitar llamar. Actualmente, solo se admiten funciones como una herramienta. El modelo puede responder con una solicitud de llamada de función y proporcionar los argumentos de entrada en formato JSON para esa función.

top_p

number (float)

minimum: 0
maximum: 1

Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen los 15 primeros% de masa de probabilidad. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1].

Respuestas

Nombre Tipo Description
200 OK

ChatCompletions

La solicitud se ha realizado correctamente.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Una respuesta de error inesperada.

Encabezados

x-ms-error-code: string

Seguridad

api-key

Tipo: apiKey
En: header

OAuth2Auth

Tipo: oauth2
Flujo: implicit
Dirección URL de autorización: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Ámbitos

Nombre Description
https://ml.azure.com/.default

Ejemplos

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Solicitud de ejemplo

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Respuesta de muestra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Solicitud de ejemplo

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Respuesta de muestra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Solicitud de ejemplo

POST https:///chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Respuesta de muestra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definiciones

Nombre Description
AudioContentFormat

Representación de los posibles formatos de audio para audio.

Azure.Core.Foundations.Error

Objeto de error.

Azure.Core.Foundations.ErrorResponse

Respuesta que contiene los detalles del error.

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

ChatChoice

Representación de una única finalización de solicitud como parte de una solicitud general de finalización de chat. Por lo general, las opciones de n se generan por mensaje proporcionado con un valor predeterminado de 1. Los límites de token y otras opciones pueden limitar el número de opciones generadas.

ChatCompletions

Representación de los datos de respuesta de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".

ChatCompletionsAudio

Representación del audio generado por el modelo.

ChatCompletionsModality

Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat.

ChatCompletionsOptions

La información de configuración de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".

ChatCompletionsResponseFormatJsonObject

Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos. Tenga en cuenta que para habilitar el modo JSON, algunos modelos de IA también pueden requerir que indique al modelo que genere JSON a través de un mensaje de usuario o sistema.

ChatCompletionsResponseFormatJsonSchema

Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos, con un esquema JSON especificado por el autor de la llamada.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definición del esquema JSON necesario en la respuesta y metadatos asociados.

ChatCompletionsResponseFormatText

Formato de respuesta para finalizaciones de chat que emite respuestas de texto. Este es el formato de respuesta predeterminado.

ChatCompletionsToolCall

Una llamada a la herramienta de función solicitada por el modelo de IA.

ChatCompletionsToolDefinition

Definición de una herramienta de finalizaciones de chat que puede llamar a una función.

ChatRequestAssistantMessage

Mensaje de chat de solicitud que representa la respuesta o la acción del asistente.

ChatRequestAudioReference

Referencia a una respuesta de audio generada por el modelo.

ChatRequestSystemMessage

Mensaje de chat de solicitud que contiene instrucciones del sistema que influyen en cómo el modelo generará una respuesta de finalizaciones de chat.

ChatRequestToolMessage

Mensaje de chat de solicitud que representa la salida solicitada de una herramienta configurada.

ChatRequestUserMessage

Mensaje de chat de solicitud que representa la entrada del usuario al asistente.

ChatResponseMessage

Representación de un mensaje de chat tal como se recibió en una respuesta.

ChatRole

Descripción del propósito previsto de un mensaje dentro de una interacción de finalizaciones de chat.

CompletionsFinishReason

Representación de la manera en que se concluyó una respuesta de finalización.

CompletionsUsage

Representación de los recuentos de tokens procesados para una solicitud de finalización. Los recuentos consideran todos los tokens en mensajes, opciones, alternativas de elección, generaciones de best_of y otros consumidores.

CompletionsUsageDetails

Desglose de los tokens usados en una finalización.

ExtraParameters

Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON.

FunctionCall

Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.

FunctionDefinition

La definición de una función especificada por el autor de la llamada que las finalizaciones de chat pueden invocar en respuesta a la coincidencia de entrada del usuario.

PromptUsageDetails

Desglose de los tokens usados en el historial de mensajes o chats.

AudioContentFormat

Representación de los posibles formatos de audio para audio.

Valor Description
mp3

Especifica el audio en formato MP3.

wav

Especifica el audio en formato WAV.

Azure.Core.Foundations.Error

Objeto de error.

Nombre Tipo Description
code

string

Uno de un conjunto definido por el servidor de códigos de error.

details

Azure.Core.Foundations.Error[]

Matriz de detalles sobre errores específicos que llevaron a este error notificado.

innererror

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica que el objeto actual sobre el error.

message

string

Representación legible del error.

target

string

Destino del error.

Azure.Core.Foundations.ErrorResponse

Respuesta que contiene los detalles del error.

Nombre Tipo Description
error

Azure.Core.Foundations.Error

Objeto de error.

Azure.Core.Foundations.InnerError

Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Nombre Tipo Description
code

string

Uno de un conjunto definido por el servidor de códigos de error.

innererror

Azure.Core.Foundations.InnerError

Error interno.

ChatChoice

Representación de una única finalización de solicitud como parte de una solicitud general de finalización de chat. Por lo general, las opciones de n se generan por mensaje proporcionado con un valor predeterminado de 1. Los límites de token y otras opciones pueden limitar el número de opciones generadas.

Nombre Tipo Description
finish_reason

CompletionsFinishReason

La razón por la que esta elección de finalizaciones de chat completó su generación.

index

integer (int32)

Índice ordenado asociado a esta opción de finalizaciones de chat.

message

ChatResponseMessage

Mensaje de chat para una solicitud de finalización de chat determinada.

ChatCompletions

Representación de los datos de respuesta de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".

Nombre Tipo Description
choices

ChatChoice[]

Colección de opciones de finalizaciones asociadas a esta respuesta de finalizaciones. Por lo general, las opciones de n se generan por mensaje proporcionado con un valor predeterminado de 1. Los límites de token y otras opciones pueden limitar el número de opciones generadas.

created

integer (unixtime)

La primera marca de tiempo asociada a la actividad de generación para esta respuesta de finalización, representada como segundos desde el inicio de la época de Unix de 00:00 el 1 de enero de 1970.

id

string

Identificador único asociado a esta respuesta de finalizaciones de chat.

model

string

Modelo usado para la finalización del chat.

object enum:

chat.completion

Tipo de objeto de respuesta, que siempre es chat.completion.

usage

CompletionsUsage

Información de uso de los tokens procesados y generados como parte de esta operación de finalización.

ChatCompletionsAudio

Representación del audio generado por el modelo.

Nombre Tipo Description
data

string

Datos de audio codificados en Base64

expires_at

integer (unixtime)

Marca de tiempo de Unix (en segundos) en la que expira la pieza de audio y no puede ser referenciada por su identificador en conversaciones multiturno.

format

AudioContentFormat

Formato del contenido de audio. Si no se proporciona el formato, coincidirá con el formato usado en la solicitud de audio de entrada.

id

string

Identificador único de la respuesta de audio. Este valor se puede usar en los mensajes del historial de chat en lugar de pasar el objeto de audio completo.

transcript

string

Transcripción del archivo de audio.

ChatCompletionsModality

Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat.

Valor Description
audio

El modelo puede generar audio.

text

El modelo solo puede generar texto.

ChatCompletionsOptions

La información de configuración de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".

Nombre Tipo Valor predeterminado Description
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que su frecuencia aumente y disminuya la probabilidad de que el modelo repita las mismas instrucciones textualmente. El intervalo admitido es [-2, 2].

max_tokens

integer (int32)

minimum: 0

Número máximo de tokens que se van a generar.

messages ChatRequestMessage[]:

La colección de mensajes de contexto asociados a esta solicitud de finalizaciones de chat. El uso típico comienza con un mensaje de chat para el rol Sistema que proporciona instrucciones para el comportamiento del asistente, seguido de mensajes alternados entre los roles Usuario y Asistente.

modalities

ChatCompletionsModality[]

Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat. La modalidad predeterminada es text. Si se indica una combinación de modalidad no admitida, se produce un error 422.

model

string

Identificador del modelo de IA específico que se va a usar, si hay más de un modelo disponible en el punto de conexión.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens aparezcan menos cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas. El intervalo admitido es [-2, 2].

response_format ChatCompletionsResponseFormat:

Objeto que especifica el formato que debe generar el modelo.

Si se establece en { "type": "json_schema", "json_schema": {...} } habilita las salidas estructuradas, lo que garantiza que el modelo coincida con el esquema JSON proporcionado.

Establecer en { "type": "json_object" } habilita el modo JSON, lo que garantiza que el mensaje que genera el modelo sea JSON válido.

Importante: al usar el modo JSON, debe indicar también al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si finish_reason="length", lo que indica que la generación superó max_tokens o la conversación superó la longitud máxima del contexto.

seed

integer (int64)

Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros deben devolver el mismo resultado. No se garantiza el determinismo.

stop

string[]

Colección de secuencias textuales que finalizarán la generación de finalizaciones.

stream

boolean

Valor que indica si se deben transmitir finalizaciones de chat para esta solicitud.

temperature

number (float)

minimum: 0
maximum: 1
0.7

Temperatura de muestreo que se va a usar que controla la aparente creatividad de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1].

tool_choice

Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat.

tools

ChatCompletionsToolDefinition[]

Una lista de herramientas a las que el modelo puede solicitar llamar. Actualmente, solo se admiten funciones como una herramienta. El modelo puede responder con una solicitud de llamada de función y proporcionar los argumentos de entrada en formato JSON para esa función.

top_p

number (float)

minimum: 0
maximum: 1
1

Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen los 15 primeros% de masa de probabilidad. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1].

ChatCompletionsResponseFormatJsonObject

Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos. Tenga en cuenta que para habilitar el modo JSON, algunos modelos de IA también pueden requerir que indique al modelo que genere JSON a través de un mensaje de usuario o sistema.

Nombre Tipo Description
type string:

json_object

Tipo de formato de respuesta que se va a usar para las finalizaciones de chat.

ChatCompletionsResponseFormatJsonSchema

Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos, con un esquema JSON especificado por el autor de la llamada.

Nombre Tipo Description
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

Definición del esquema JSON necesario en la respuesta y metadatos asociados.

type string:

json_schema

Tipo de formato de respuesta que se va a usar para las finalizaciones de chat.

ChatCompletionsResponseFormatJsonSchemaDefinition

Definición del esquema JSON necesario en la respuesta y metadatos asociados.

Nombre Tipo Valor predeterminado Description
description

string

Descripción del formato de respuesta, utilizado por el modelo de IA para determinar cómo generar respuestas en este formato.

name

string

Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64.

schema

Definición del esquema JSON

strict

boolean

False

Indica si se debe habilitar la adhesión estricta al esquema al generar la salida. Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el campo schema. Solo se admite un subconjunto de esquema JSON cuando strict es true.

ChatCompletionsResponseFormatText

Formato de respuesta para finalizaciones de chat que emite respuestas de texto. Este es el formato de respuesta predeterminado.

Nombre Tipo Description
type string:

text

Tipo de formato de respuesta que se va a usar para las finalizaciones de chat.

ChatCompletionsToolCall

Una llamada a la herramienta de función solicitada por el modelo de IA.

Nombre Tipo Description
function

FunctionCall

Detalles de la llamada de función solicitada por el modelo de IA.

id

string

Identificador de la llamada a la herramienta.

type enum:

function

Tipo de llamada a herramienta. Actualmente, solo se admite function.

ChatCompletionsToolDefinition

Definición de una herramienta de finalizaciones de chat que puede llamar a una función.

Nombre Tipo Description
function

FunctionDefinition

Detalles de definición de función para la herramienta de función.

type enum:

function

Tipo de la herramienta. Actualmente, solo se admite function.

ChatRequestAssistantMessage

Mensaje de chat de solicitud que representa la respuesta o la acción del asistente.

Nombre Tipo Description
audio

ChatRequestAudioReference

Audio generado por una respuesta anterior en una conversación multiturno.

content

string

Contenido del mensaje.

role string:

assistant

Rol de chat asociado a este mensaje.

tool_calls

ChatCompletionsToolCall[]

La herramienta llama a que se debe resolver y que sus salidas se anexan a los mensajes de entrada posteriores para que la solicitud de finalizaciones de chat se resuelva como configurada.

ChatRequestAudioReference

Referencia a una respuesta de audio generada por el modelo.

Nombre Tipo Description
id

string

Identificador único de la respuesta de audio. Este valor corresponde al identificador de una finalización de audio anterior.

ChatRequestSystemMessage

Mensaje de chat de solicitud que contiene instrucciones del sistema que influyen en cómo el modelo generará una respuesta de finalizaciones de chat.

Nombre Tipo Description
content

string

Contenido del mensaje del sistema.

role string:

system

Rol de chat asociado a este mensaje.

ChatRequestToolMessage

Mensaje de chat de solicitud que representa la salida solicitada de una herramienta configurada.

Nombre Tipo Description
content

string

Contenido del mensaje.

role string:

tool

Rol de chat asociado a este mensaje.

tool_call_id

string

Identificador de la llamada a la herramienta resuelta por el contenido proporcionado.

ChatRequestUserMessage

Mensaje de chat de solicitud que representa la entrada del usuario al asistente.

Nombre Tipo Description
content

El contenido del mensaje de usuario, con tipos de entrada disponibles que varían según el modelo seleccionado.

role string:

user

Rol de chat asociado a este mensaje.

ChatResponseMessage

Representación de un mensaje de chat tal como se recibió en una respuesta.

Nombre Tipo Description
audio

ChatCompletionsAudio

Audio generado por el modelo como respuesta a los mensajes si el modelo está configurado para generar audio.

content

string

Contenido del mensaje.

role

ChatRole

Rol de chat asociado al mensaje.

tool_calls

ChatCompletionsToolCall[]

La herramienta llama a que se debe resolver y que sus salidas se anexan a los mensajes de entrada posteriores para que la solicitud de finalizaciones de chat se resuelva como configurada.

ChatRole

Descripción del propósito previsto de un mensaje dentro de una interacción de finalizaciones de chat.

Valor Description
assistant

Rol que proporciona respuestas a la entrada indicada por el sistema y al usuario.

developer

El rol que proporciona instrucciones al modelo priorizado antes de los mensajes de usuario.

system

Rol que indica o establece el comportamiento del asistente.

tool

Rol que representa la actividad de la herramienta de extensión dentro de una operación de finalización de chat.

user

Rol que proporciona entrada para finalizaciones de chat.

CompletionsFinishReason

Representación de la manera en que se concluyó una respuesta de finalización.

Valor Description
content_filter

Las finalizaciones generaron una respuesta que se identificó como potencialmente confidencial por directivas de moderación de contenido.

length

Las finalizaciones agotaron los límites de token disponibles antes de que se pudiera completar la generación.

stop

Las finalizaciones finalizaron normalmente y llegaron al final de la generación de tokens.

tool_calls

La finalización finalizó con el modelo que llama a una herramienta proporcionada para la salida.

CompletionsUsage

Representación de los recuentos de tokens procesados para una solicitud de finalización. Los recuentos consideran todos los tokens en mensajes, opciones, alternativas de elección, generaciones de best_of y otros consumidores.

Nombre Tipo Description
completion_tokens

integer (int32)

Número de tokens generados en todas las emisiones de finalizaciones.

completion_tokens_details

CompletionsUsageDetails

Desglose de los tokens usados en una finalización.

prompt_tokens

integer (int32)

El número de tokens de las solicitudes proporcionadas para la solicitud de finalización.

prompt_tokens_details

PromptUsageDetails

Desglose de los tokens usados en el historial de mensajes o chats.

total_tokens

integer (int32)

Número total de tokens procesados para la solicitud y respuesta de finalizaciones.

CompletionsUsageDetails

Desglose de los tokens usados en una finalización.

Nombre Tipo Description
audio_tokens

integer (int32)

Número de tokens correspondientes a la entrada de audio.

total_tokens

integer (int32)

Número total de tokens procesados para la solicitud y respuesta de finalizaciones.

ExtraParameters

Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON.

Valor Description
drop

El servicio omitirá (quitar) parámetros adicionales en la carga de la solicitud. Solo pasará los parámetros conocidos al modelo de IA de back-end.

error

El servicio producirá un error si detectó parámetros adicionales en la carga de la solicitud. Este es el valor predeterminado del servicio.

pass-through

El servicio pasará parámetros adicionales al modelo de IA de back-end.

FunctionCall

Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.

Nombre Tipo Description
arguments

string

Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede que los parámetros no definidos por el esquema de función no se definan. Valide los argumentos del código antes de llamar a la función.

name

string

Nombre de la función a la que se va a llamar.

FunctionDefinition

La definición de una función especificada por el autor de la llamada que las finalizaciones de chat pueden invocar en respuesta a la coincidencia de entrada del usuario.

Nombre Tipo Description
description

string

Descripción de lo que hace la función. El modelo usará esta descripción al seleccionar la función e interpretar sus parámetros.

name

string

Nombre de la función a la que se va a llamar.

parameters

Los parámetros que acepta la función, que se describen como un objeto de esquema JSON.

PromptUsageDetails

Desglose de los tokens usados en el historial de mensajes o chats.

Nombre Tipo Description
audio_tokens

integer (int32)

Número de tokens correspondientes a la entrada de audio.

cached_tokens

integer (int32)

Número total de tokens almacenados en caché.