Get Chat Completions - Get Chat Completions
Obtiene finalizaciones de chat para los mensajes de chat proporcionados.
Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos". El método realiza una llamada API REST a la ruta /chat/completions
en el punto de conexión especificado.
POST https:///chat/completions?api-version=2024-05-01-preview
Parámetros de identificador URI
Nombre | En | Requerido | Tipo | Description |
---|---|---|---|---|
api-version
|
query | True |
string minLength: 1 |
Versión de la API que se va a usar para esta operación. |
Encabezado de la solicitud
Nombre | Requerido | Tipo | Description |
---|---|---|---|
extra-parameters |
Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON.
Esto establece el encabezado de solicitud HTTP |
Cuerpo de la solicitud
Nombre | Requerido | Tipo | Description |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
La colección de mensajes de contexto asociados a esta solicitud de finalizaciones de chat. El uso típico comienza con un mensaje de chat para el rol Sistema que proporciona instrucciones para el comportamiento del asistente, seguido de mensajes alternados entre los roles Usuario y Asistente. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que su frecuencia aumente y disminuya la probabilidad de que el modelo repita las mismas instrucciones textualmente. El intervalo admitido es [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
Número máximo de tokens que se van a generar. |
|
modalities |
Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat. La modalidad predeterminada es |
||
model |
string |
Identificador del modelo de IA específico que se va a usar, si hay más de un modelo disponible en el punto de conexión. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens aparezcan menos cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas. El intervalo admitido es [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Objeto que especifica el formato que debe generar el modelo. Si se establece en Establecer en
Importante: al usar el modo JSON, debe indicar también al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si |
|
seed |
integer (int64) |
Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros deben devolver el mismo resultado. No se garantiza el determinismo. |
|
stop |
string[] |
Colección de secuencias textuales que finalizarán la generación de finalizaciones. |
|
stream |
boolean |
Valor que indica si se deben transmitir finalizaciones de chat para esta solicitud. |
|
temperature |
number (float) minimum: 0maximum: 1 |
Temperatura de muestreo que se va a usar que controla la aparente creatividad de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1]. |
|
tool_choice |
Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat. |
||
tools |
Una lista de herramientas a las que el modelo puede solicitar llamar. Actualmente, solo se admiten funciones como una herramienta. El modelo puede responder con una solicitud de llamada de función y proporcionar los argumentos de entrada en formato JSON para esa función. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen los 15 primeros% de masa de probabilidad. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1]. |
Respuestas
Nombre | Tipo | Description |
---|---|---|
200 OK |
La solicitud se ha realizado correctamente. |
|
Other Status Codes |
Una respuesta de error inesperada. Encabezados x-ms-error-code: string |
Seguridad
api-key
Tipo:
apiKey
En:
header
OAuth2Auth
Tipo:
oauth2
Flujo:
implicit
Dirección URL de autorización:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Ámbitos
Nombre | Description |
---|---|
https://ml.azure.com/.default |
Ejemplos
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Solicitud de ejemplo
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Respuesta de muestra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Solicitud de ejemplo
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Respuesta de muestra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Solicitud de ejemplo
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Respuesta de muestra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definiciones
Nombre | Description |
---|---|
Audio |
Representación de los posibles formatos de audio para audio. |
Azure. |
Objeto de error. |
Azure. |
Respuesta que contiene los detalles del error. |
Azure. |
Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
Representación de una única finalización de solicitud como parte de una solicitud general de finalización de chat.
Por lo general, las opciones de |
Chat |
Representación de los datos de respuesta de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos". |
Chat |
Representación del audio generado por el modelo. |
Chat |
Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat. |
Chat |
La información de configuración de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos". |
Chat |
Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos. Tenga en cuenta que para habilitar el modo JSON, algunos modelos de IA también pueden requerir que indique al modelo que genere JSON a través de un mensaje de usuario o sistema. |
Chat |
Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos, con un esquema JSON especificado por el autor de la llamada. |
Chat |
Definición del esquema JSON necesario en la respuesta y metadatos asociados. |
Chat |
Formato de respuesta para finalizaciones de chat que emite respuestas de texto. Este es el formato de respuesta predeterminado. |
Chat |
Una llamada a la herramienta de función solicitada por el modelo de IA. |
Chat |
Definición de una herramienta de finalizaciones de chat que puede llamar a una función. |
Chat |
Mensaje de chat de solicitud que representa la respuesta o la acción del asistente. |
Chat |
Referencia a una respuesta de audio generada por el modelo. |
Chat |
Mensaje de chat de solicitud que contiene instrucciones del sistema que influyen en cómo el modelo generará una respuesta de finalizaciones de chat. |
Chat |
Mensaje de chat de solicitud que representa la salida solicitada de una herramienta configurada. |
Chat |
Mensaje de chat de solicitud que representa la entrada del usuario al asistente. |
Chat |
Representación de un mensaje de chat tal como se recibió en una respuesta. |
Chat |
Descripción del propósito previsto de un mensaje dentro de una interacción de finalizaciones de chat. |
Completions |
Representación de la manera en que se concluyó una respuesta de finalización. |
Completions |
Representación de los recuentos de tokens procesados para una solicitud de finalización. Los recuentos consideran todos los tokens en mensajes, opciones, alternativas de elección, generaciones de best_of y otros consumidores. |
Completions |
Desglose de los tokens usados en una finalización. |
Extra |
Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON. |
Function |
Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo. |
Function |
La definición de una función especificada por el autor de la llamada que las finalizaciones de chat pueden invocar en respuesta a la coincidencia de entrada del usuario. |
Prompt |
Desglose de los tokens usados en el historial de mensajes o chats. |
AudioContentFormat
Representación de los posibles formatos de audio para audio.
Valor | Description |
---|---|
mp3 |
Especifica el audio en formato MP3. |
wav |
Especifica el audio en formato WAV. |
Azure.Core.Foundations.Error
Objeto de error.
Nombre | Tipo | Description |
---|---|---|
code |
string |
Uno de un conjunto definido por el servidor de códigos de error. |
details |
Matriz de detalles sobre errores específicos que llevaron a este error notificado. |
|
innererror |
Objeto que contiene información más específica que el objeto actual sobre el error. |
|
message |
string |
Representación legible del error. |
target |
string |
Destino del error. |
Azure.Core.Foundations.ErrorResponse
Respuesta que contiene los detalles del error.
Nombre | Tipo | Description |
---|---|---|
error |
Objeto de error. |
Azure.Core.Foundations.InnerError
Objeto que contiene información más específica sobre el error. Según las directrices de la API de Microsoft One: https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
Nombre | Tipo | Description |
---|---|---|
code |
string |
Uno de un conjunto definido por el servidor de códigos de error. |
innererror |
Error interno. |
ChatChoice
Representación de una única finalización de solicitud como parte de una solicitud general de finalización de chat.
Por lo general, las opciones de n
se generan por mensaje proporcionado con un valor predeterminado de 1.
Los límites de token y otras opciones pueden limitar el número de opciones generadas.
Nombre | Tipo | Description |
---|---|---|
finish_reason |
La razón por la que esta elección de finalizaciones de chat completó su generación. |
|
index |
integer (int32) |
Índice ordenado asociado a esta opción de finalizaciones de chat. |
message |
Mensaje de chat para una solicitud de finalización de chat determinada. |
ChatCompletions
Representación de los datos de respuesta de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".
Nombre | Tipo | Description |
---|---|---|
choices |
Colección de opciones de finalizaciones asociadas a esta respuesta de finalizaciones.
Por lo general, las opciones de |
|
created |
integer (unixtime) |
La primera marca de tiempo asociada a la actividad de generación para esta respuesta de finalización, representada como segundos desde el inicio de la época de Unix de 00:00 el 1 de enero de 1970. |
id |
string |
Identificador único asociado a esta respuesta de finalizaciones de chat. |
model |
string |
Modelo usado para la finalización del chat. |
object |
enum:
chat. |
Tipo de objeto de respuesta, que siempre es |
usage |
Información de uso de los tokens procesados y generados como parte de esta operación de finalización. |
ChatCompletionsAudio
Representación del audio generado por el modelo.
Nombre | Tipo | Description |
---|---|---|
data |
string |
Datos de audio codificados en Base64 |
expires_at |
integer (unixtime) |
Marca de tiempo de Unix (en segundos) en la que expira la pieza de audio y no puede ser referenciada por su identificador en conversaciones multiturno. |
format |
Formato del contenido de audio. Si no se proporciona el formato, coincidirá con el formato usado en la solicitud de audio de entrada. |
|
id |
string |
Identificador único de la respuesta de audio. Este valor se puede usar en los mensajes del historial de chat en lugar de pasar el objeto de audio completo. |
transcript |
string |
Transcripción del archivo de audio. |
ChatCompletionsModality
Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat.
Valor | Description |
---|---|
audio |
El modelo puede generar audio. |
text |
El modelo solo puede generar texto. |
ChatCompletionsOptions
La información de configuración de una solicitud de finalización de chat. Las finalizaciones admiten una amplia variedad de tareas y generan texto que continúa a partir de datos de aviso proporcionados o "completos".
Nombre | Tipo | Valor predeterminado | Description |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su frecuencia acumulativa en el texto generado. Los valores positivos harán que los tokens tengan menos probabilidades de aparecer a medida que su frecuencia aumente y disminuya la probabilidad de que el modelo repita las mismas instrucciones textualmente. El intervalo admitido es [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
Número máximo de tokens que se van a generar. |
|
messages | ChatRequestMessage[]: |
La colección de mensajes de contexto asociados a esta solicitud de finalizaciones de chat. El uso típico comienza con un mensaje de chat para el rol Sistema que proporciona instrucciones para el comportamiento del asistente, seguido de mensajes alternados entre los roles Usuario y Asistente. |
|
modalities |
Las modalidades que el modelo puede usar para la respuesta de finalizaciones de chat. La modalidad predeterminada es |
||
model |
string |
Identificador del modelo de IA específico que se va a usar, si hay más de un modelo disponible en el punto de conexión. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Valor que influye en la probabilidad de que los tokens generados aparezcan en función de su presencia existente en el texto generado. Los valores positivos harán que los tokens aparezcan menos cuando ya existan y aumenten la probabilidad del modelo de generar nuevos temas. El intervalo admitido es [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Objeto que especifica el formato que debe generar el modelo. Si se establece en Establecer en
Importante: al usar el modo JSON, debe indicar también al modelo que genere JSON usted mismo a través de un mensaje del sistema o del usuario. Sin esto, el modelo puede generar una secuencia de espacios en blanco no deseada hasta que la generación alcance el límite de tokens, lo que da lugar a una solicitud de larga duración y aparentemente "bloqueada". Tenga en cuenta también que el contenido del mensaje puede cortarse parcialmente si |
|
seed |
integer (int64) |
Si se especifica, el sistema realizará un mejor esfuerzo para muestrear de forma determinista de forma que las solicitudes repetidas con la misma inicialización y parámetros deben devolver el mismo resultado. No se garantiza el determinismo. |
|
stop |
string[] |
Colección de secuencias textuales que finalizarán la generación de finalizaciones. |
|
stream |
boolean |
Valor que indica si se deben transmitir finalizaciones de chat para esta solicitud. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
Temperatura de muestreo que se va a usar que controla la aparente creatividad de las finalizaciones generadas. Los valores más altos harán que la salida sea más aleatoria, mientras que los valores inferiores harán que los resultados sean más centrados y deterministas. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1]. |
tool_choice |
Si se especifica, el modelo configurará las herramientas proporcionadas que puede usar para la respuesta de finalizaciones de chat. |
||
tools |
Una lista de herramientas a las que el modelo puede solicitar llamar. Actualmente, solo se admiten funciones como una herramienta. El modelo puede responder con una solicitud de llamada de función y proporcionar los argumentos de entrada en formato JSON para esa función. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Alternativa al muestreo con temperatura denominada muestreo de núcleo. Este valor hace que el modelo tenga en cuenta los resultados de los tokens con la masa de probabilidad proporcionada. Por ejemplo, un valor de 0,15 hará que solo se consideren los tokens que componen los 15 primeros% de masa de probabilidad. No se recomienda modificar la temperatura y top_p para la misma solicitud de finalización que la interacción de estos dos valores es difícil de predecir. El intervalo admitido es [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos. Tenga en cuenta que para habilitar el modo JSON, algunos modelos de IA también pueden requerir que indique al modelo que genere JSON a través de un mensaje de usuario o sistema.
Nombre | Tipo | Description |
---|---|---|
type |
string:
json_object |
Tipo de formato de respuesta que se va a usar para las finalizaciones de chat. |
ChatCompletionsResponseFormatJsonSchema
Formato de respuesta para finalizaciones de chat que restringe las respuestas a la emisión de objetos JSON válidos, con un esquema JSON especificado por el autor de la llamada.
Nombre | Tipo | Description |
---|---|---|
json_schema |
Definición del esquema JSON necesario en la respuesta y metadatos asociados. |
|
type |
string:
json_schema |
Tipo de formato de respuesta que se va a usar para las finalizaciones de chat. |
ChatCompletionsResponseFormatJsonSchemaDefinition
Definición del esquema JSON necesario en la respuesta y metadatos asociados.
Nombre | Tipo | Valor predeterminado | Description |
---|---|---|---|
description |
string |
Descripción del formato de respuesta, utilizado por el modelo de IA para determinar cómo generar respuestas en este formato. |
|
name |
string |
Nombre del formato de respuesta. Debe ser a-z, A-Z, 0-9, o contener caracteres de subrayado y guiones, con una longitud máxima de 64. |
|
schema |
Definición del esquema JSON |
||
strict |
boolean |
False |
Indica si se debe habilitar la adhesión estricta al esquema al generar la salida.
Si se establece en true, el modelo siempre seguirá el esquema exacto definido en el campo |
ChatCompletionsResponseFormatText
Formato de respuesta para finalizaciones de chat que emite respuestas de texto. Este es el formato de respuesta predeterminado.
Nombre | Tipo | Description |
---|---|---|
type |
string:
text |
Tipo de formato de respuesta que se va a usar para las finalizaciones de chat. |
ChatCompletionsToolCall
Una llamada a la herramienta de función solicitada por el modelo de IA.
Nombre | Tipo | Description |
---|---|---|
function |
Detalles de la llamada de función solicitada por el modelo de IA. |
|
id |
string |
Identificador de la llamada a la herramienta. |
type |
enum:
function |
Tipo de llamada a herramienta. Actualmente, solo se admite |
ChatCompletionsToolDefinition
Definición de una herramienta de finalizaciones de chat que puede llamar a una función.
Nombre | Tipo | Description |
---|---|---|
function |
Detalles de definición de función para la herramienta de función. |
|
type |
enum:
function |
Tipo de la herramienta. Actualmente, solo se admite |
ChatRequestAssistantMessage
Mensaje de chat de solicitud que representa la respuesta o la acción del asistente.
Nombre | Tipo | Description |
---|---|---|
audio |
Audio generado por una respuesta anterior en una conversación multiturno. |
|
content |
string |
Contenido del mensaje. |
role |
string:
assistant |
Rol de chat asociado a este mensaje. |
tool_calls |
La herramienta llama a que se debe resolver y que sus salidas se anexan a los mensajes de entrada posteriores para que la solicitud de finalizaciones de chat se resuelva como configurada. |
ChatRequestAudioReference
Referencia a una respuesta de audio generada por el modelo.
Nombre | Tipo | Description |
---|---|---|
id |
string |
Identificador único de la respuesta de audio. Este valor corresponde al identificador de una finalización de audio anterior. |
ChatRequestSystemMessage
Mensaje de chat de solicitud que contiene instrucciones del sistema que influyen en cómo el modelo generará una respuesta de finalizaciones de chat.
Nombre | Tipo | Description |
---|---|---|
content |
string |
Contenido del mensaje del sistema. |
role |
string:
system |
Rol de chat asociado a este mensaje. |
ChatRequestToolMessage
Mensaje de chat de solicitud que representa la salida solicitada de una herramienta configurada.
Nombre | Tipo | Description |
---|---|---|
content |
string |
Contenido del mensaje. |
role |
string:
tool |
Rol de chat asociado a este mensaje. |
tool_call_id |
string |
Identificador de la llamada a la herramienta resuelta por el contenido proporcionado. |
ChatRequestUserMessage
Mensaje de chat de solicitud que representa la entrada del usuario al asistente.
Nombre | Tipo | Description |
---|---|---|
content |
El contenido del mensaje de usuario, con tipos de entrada disponibles que varían según el modelo seleccionado. |
|
role |
string:
user |
Rol de chat asociado a este mensaje. |
ChatResponseMessage
Representación de un mensaje de chat tal como se recibió en una respuesta.
Nombre | Tipo | Description |
---|---|---|
audio |
Audio generado por el modelo como respuesta a los mensajes si el modelo está configurado para generar audio. |
|
content |
string |
Contenido del mensaje. |
role |
Rol de chat asociado al mensaje. |
|
tool_calls |
La herramienta llama a que se debe resolver y que sus salidas se anexan a los mensajes de entrada posteriores para que la solicitud de finalizaciones de chat se resuelva como configurada. |
ChatRole
Descripción del propósito previsto de un mensaje dentro de una interacción de finalizaciones de chat.
Valor | Description |
---|---|
assistant |
Rol que proporciona respuestas a la entrada indicada por el sistema y al usuario. |
developer |
El rol que proporciona instrucciones al modelo priorizado antes de los mensajes de usuario. |
system |
Rol que indica o establece el comportamiento del asistente. |
tool |
Rol que representa la actividad de la herramienta de extensión dentro de una operación de finalización de chat. |
user |
Rol que proporciona entrada para finalizaciones de chat. |
CompletionsFinishReason
Representación de la manera en que se concluyó una respuesta de finalización.
Valor | Description |
---|---|
content_filter |
Las finalizaciones generaron una respuesta que se identificó como potencialmente confidencial por directivas de moderación de contenido. |
length |
Las finalizaciones agotaron los límites de token disponibles antes de que se pudiera completar la generación. |
stop |
Las finalizaciones finalizaron normalmente y llegaron al final de la generación de tokens. |
tool_calls |
La finalización finalizó con el modelo que llama a una herramienta proporcionada para la salida. |
CompletionsUsage
Representación de los recuentos de tokens procesados para una solicitud de finalización. Los recuentos consideran todos los tokens en mensajes, opciones, alternativas de elección, generaciones de best_of y otros consumidores.
Nombre | Tipo | Description |
---|---|---|
completion_tokens |
integer (int32) |
Número de tokens generados en todas las emisiones de finalizaciones. |
completion_tokens_details |
Desglose de los tokens usados en una finalización. |
|
prompt_tokens |
integer (int32) |
El número de tokens de las solicitudes proporcionadas para la solicitud de finalización. |
prompt_tokens_details |
Desglose de los tokens usados en el historial de mensajes o chats. |
|
total_tokens |
integer (int32) |
Número total de tokens procesados para la solicitud y respuesta de finalizaciones. |
CompletionsUsageDetails
Desglose de los tokens usados en una finalización.
Nombre | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
Número de tokens correspondientes a la entrada de audio. |
total_tokens |
integer (int32) |
Número total de tokens procesados para la solicitud y respuesta de finalizaciones. |
ExtraParameters
Controla lo que sucede si se pasan parámetros adicionales, sin definir por la API REST, en la carga de la solicitud JSON.
Valor | Description |
---|---|
drop |
El servicio omitirá (quitar) parámetros adicionales en la carga de la solicitud. Solo pasará los parámetros conocidos al modelo de IA de back-end. |
error |
El servicio producirá un error si detectó parámetros adicionales en la carga de la solicitud. Este es el valor predeterminado del servicio. |
pass-through |
El servicio pasará parámetros adicionales al modelo de IA de back-end. |
FunctionCall
Nombre y argumentos de una función a la que se debe llamar, según lo generado por el modelo.
Nombre | Tipo | Description |
---|---|---|
arguments |
string |
Argumentos para llamar a la función con, según lo generado por el modelo en formato JSON. Tenga en cuenta que el modelo no siempre genera JSON válido y puede que los parámetros no definidos por el esquema de función no se definan. Valide los argumentos del código antes de llamar a la función. |
name |
string |
Nombre de la función a la que se va a llamar. |
FunctionDefinition
La definición de una función especificada por el autor de la llamada que las finalizaciones de chat pueden invocar en respuesta a la coincidencia de entrada del usuario.
Nombre | Tipo | Description |
---|---|---|
description |
string |
Descripción de lo que hace la función. El modelo usará esta descripción al seleccionar la función e interpretar sus parámetros. |
name |
string |
Nombre de la función a la que se va a llamar. |
parameters |
Los parámetros que acepta la función, que se describen como un objeto de esquema JSON. |
PromptUsageDetails
Desglose de los tokens usados en el historial de mensajes o chats.
Nombre | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
Número de tokens correspondientes a la entrada de audio. |
cached_tokens |
integer (int32) |
Número total de tokens almacenados en caché. |