Get Chat Completions - Get Chat Completions
Obtém a conclusão do bate-papo para as mensagens de bate-papo fornecidas.
As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos. O método faz uma chamada de API REST para a rota /chat/completions
no ponto de extremidade determinado.
POST https:///chat/completions?api-version=2024-05-01-preview
Parâmetros do URI
Name | Em | Necessário | Tipo | Description |
---|---|---|---|---|
api-version
|
query | True |
string minLength: 1 |
A versão da API a ser usada para esta operação. |
Cabeçalho do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
extra-parameters |
Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON.
Isso define o cabeçalho da solicitação HTTP |
Corpo do Pedido
Name | Necessário | Tipo | Description |
---|---|---|---|
messages | True | ChatRequestMessage[]: |
A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de bate-papo para a função Sistema que fornece instruções para o comportamento do assistente, seguida por mensagens alternadas entre as funções Usuário e Assistente. |
frequency_penalty |
number (float) minimum: -2maximum: 2 |
Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos prováveis de aparecer à medida que sua frequência aumenta e diminuem a probabilidade de o modelo repetir as mesmas declarações literalmente. O intervalo suportado é [-2, 2]. |
|
max_tokens |
integer (int32) minimum: 0 |
O número máximo de tokens a serem gerados. |
|
modalities |
As modalidades que o modelo pode usar para a resposta de conclusão do chat. A modalidade padrão é |
||
model |
string |
ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua presença existente no texto gerado. Valores positivos tornarão os tokens menos prováveis de aparecer quando já existem e aumentarão a probabilidade do modelo de gerar novos tópicos. O intervalo suportado é [-2, 2]. |
|
response_format | ChatCompletionsResponseFormat: |
Um objeto que especifica o formato que o modelo deve produzir. A configuração para A configuração como
Importante: ao usar o modo JSON, você deve também instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se |
|
seed |
integer (int64) |
Se especificado, o sistema envidará todos os esforços para proceder à amostragem deterministicamente, de modo a que pedidos repetidos com as mesmas sementes e parâmetros devolvam o mesmo resultado. O determinismo não é garantido. |
|
stop |
string[] |
Uma coleção de sequências textuais que encerrará a geração de completações. |
|
stream |
boolean |
Um valor que indica se as conclusão do chat devem ser transmitidas para esta solicitação. |
|
temperature |
number (float) minimum: 0maximum: 1 |
A temperatura de amostragem a ser usada que controla a aparente criatividade das finalizações geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1]. |
|
tool_choice |
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusão do chat. |
||
tools |
Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, apenas funções são suportadas como ferramenta. O modelo pode responder com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função. |
||
top_p |
number (float) minimum: 0maximum: 1 |
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Como exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% superiores de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1]. |
Respostas
Name | Tipo | Description |
---|---|---|
200 OK |
O pedido foi bem-sucedido. |
|
Other Status Codes |
Uma resposta de erro inesperada. Cabeçalhos x-ms-error-code: string |
Segurança
api-key
Tipo:
apiKey
Em:
header
OAuth2Auth
Tipo:
oauth2
Fluxo:
implicit
URL de Autorização:
https://login.microsoftonline.com/common/oauth2/v2.0/authorize
Âmbitos
Name | Description |
---|---|
https://ml.azure.com/.default |
Exemplos
Audio modality chat completion |
maximum set chat completion |
minimum set chat completion |
Audio modality chat completion
Pedido de amostra
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text",
"audio"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
},
{
"role": "assistant",
"content": null,
"audio": {
"id": "abcdef1234"
}
},
{
"role": "user",
"content": [
{
"type": "input_audio",
"input_audio": {
"data": "<base64 encoded audio data>",
"format": "wav"
}
}
]
}
],
"frequency_penalty": 0,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"seed": 21,
"model": "my-model-name"
}
Resposta da amostra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1696522361,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16,
"completion_tokens_details": {
"audio_tokens": 5,
"total_tokens": 5
},
"prompt_tokens_details": {
"audio_tokens": 10,
"cached_tokens": 0
}
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": null,
"audio": {
"id": "abcdef1234",
"format": "wav",
"data": "<base64 encoded audio data>",
"expires_at": 1896522361,
"transcript": "This is a sample transcript"
}
}
}
]
}
maximum set chat completion
Pedido de amostra
POST https:///chat/completions?api-version=2024-05-01-preview
{
"modalities": [
"text"
],
"messages": [
{
"role": "system",
"content": "You are a helpful assistant"
},
{
"role": "user",
"content": "Explain Riemann's conjecture"
},
{
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
},
{
"role": "user",
"content": "Ist it proved?"
}
],
"frequency_penalty": 0,
"stream": true,
"presence_penalty": 0,
"temperature": 0,
"top_p": 0,
"max_tokens": 255,
"response_format": {
"type": "text"
},
"stop": [
"<|endoftext|>"
],
"tools": [
{
"type": "function",
"function": {
"name": "my-function-name",
"description": "A function useful to know if a theroem is proved or not"
}
}
],
"seed": 21,
"model": "my-model-name"
}
Resposta da amostra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 18,
"model": "my-model-name",
"usage": {
"completion_tokens": 19,
"prompt_tokens": 28,
"total_tokens": 16
},
"choices": [
{
"index": 7,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": null,
"tool_calls": [
{
"id": "yrobmilsrugmbwukmzo",
"type": "function",
"function": {
"name": "my-function-name",
"arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
}
}
]
}
}
]
}
minimum set chat completion
Pedido de amostra
POST https:///chat/completions?api-version=2024-05-01-preview
{
"messages": [
{
"role": "user",
"content": "Explain Riemann's conjecture"
}
]
}
Resposta da amostra
{
"id": "kgousajxgzyhugvqekuswuqbk",
"object": "chat.completion",
"created": 1234567890,
"model": "my-model-name",
"usage": {
"prompt_tokens": 205,
"completion_tokens": 5,
"total_tokens": 210
},
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
}
}
]
}
Definições
Name | Description |
---|---|
Audio |
Uma representação dos formatos de áudio possíveis para áudio. |
Azure. |
O objeto de erro. |
Azure. |
Uma resposta contendo detalhes do erro. |
Azure. |
Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses. |
Chat |
A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusão de chat.
Geralmente, |
Chat |
Representação dos dados de resposta de uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos. |
Chat |
Uma representação do áudio gerado pelo modelo. |
Chat |
As modalidades que o modelo pode usar para a resposta de conclusão do chat. |
Chat |
As informações de configuração para uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos. |
Chat |
Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem do usuário. |
Chat |
Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador. |
Chat |
A definição do esquema JSON necessário na resposta e metadados associados. |
Chat |
Um formato de resposta para Conclusão de Chat que emite respostas de texto. Este é o formato de resposta padrão. |
Chat |
Uma chamada de ferramenta de função solicitada pelo modelo de IA. |
Chat |
A definição de uma ferramenta de conclusão de chat que pode chamar uma função. |
Chat |
Uma mensagem de chat de solicitação que representa a resposta ou ação do assistente. |
Chat |
Uma referência a uma resposta de áudio gerada pelo modelo. |
Chat |
Uma mensagem de chat de solicitação contendo instruções do sistema que influenciam como o modelo gerará uma resposta de conclusão de chat. |
Chat |
Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada. |
Chat |
Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente. |
Chat |
Uma representação de uma mensagem de bate-papo recebida em uma resposta. |
Chat |
Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat. |
Completions |
Representação da forma como uma resposta de conclusão foi concluída. |
Completions |
Representação das contagens de token processadas para uma solicitação de conclusão. As contagens consideram todos os tokens em prompts, escolhas, alternativas de escolha, gerações best_of e outros consumidores. |
Completions |
Um detalhamento de tokens usados em uma conclusão. |
Extra |
Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON. |
Function |
O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Function |
A definição de uma função especificada pelo chamador que as finalizações de chat podem invocar em resposta à entrada do usuário correspondente. |
Prompt |
Um detalhamento dos tokens usados no histórico de prompt/chat. |
AudioContentFormat
Uma representação dos formatos de áudio possíveis para áudio.
Valor | Description |
---|---|
mp3 |
Especifica o áudio no formato MP3. |
wav |
Especifica o áudio no formato WAV. |
Azure.Core.Foundations.Error
O objeto de erro.
Name | Tipo | Description |
---|---|---|
code |
string |
Um de um conjunto de códigos de erro definido pelo servidor. |
details |
Uma matriz de detalhes sobre erros específicos que levaram a esse erro relatado. |
|
innererror |
Um objeto que contém informações mais específicas do que o objeto atual sobre o erro. |
|
message |
string |
Uma representação legível por humanos do erro. |
target |
string |
O alvo do erro. |
Azure.Core.Foundations.ErrorResponse
Uma resposta contendo detalhes do erro.
Name | Tipo | Description |
---|---|---|
error |
O objeto de erro. |
Azure.Core.Foundations.InnerError
Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.
Name | Tipo | Description |
---|---|---|
code |
string |
Um de um conjunto de códigos de erro definido pelo servidor. |
innererror |
Erro interno. |
ChatChoice
A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusão de chat.
Geralmente, n
opções são geradas por prompt fornecido com um valor padrão de 1.
Limites de token e outras configurações podem limitar o número de opções geradas.
Name | Tipo | Description |
---|---|---|
finish_reason |
A razão pela qual essa escolha de conclusão de bate-papo completou sua geração. |
|
index |
integer (int32) |
O índice ordenado associado a essa opção de conclusão de bate-papo. |
message |
A mensagem de bate-papo para um determinado prompt de conclusão de bate-papo. |
ChatCompletions
Representação dos dados de resposta de uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.
Name | Tipo | Description |
---|---|---|
choices |
A coleção de opções de conclusão associadas a essa resposta de conclusão.
Geralmente, |
|
created |
integer (unixtime) |
O primeiro carimbo de data/hora associado à atividade de geração para esta resposta de conclusão, representado como segundos desde o início da época Unix de 00:00 em 1 de janeiro de 1970. |
id |
string |
Um identificador exclusivo associado a esta resposta de conclusão de chat. |
model |
string |
O modelo usado para a conclusão do chat. |
object |
enum:
chat. |
O tipo de objeto de resposta, que é sempre |
usage |
Informações de uso para tokens processados e gerados como parte desta operação de conclusão. |
ChatCompletionsAudio
Uma representação do áudio gerado pelo modelo.
Name | Tipo | Description |
---|---|---|
data |
string |
Dados de áudio codificados em Base64 |
expires_at |
integer (unixtime) |
O carimbo de data/hora Unix (em segundos) no qual a peça de áudio expira e não pode mais ser referenciado por seu ID em conversas de vários turnos. |
format |
O formato do conteúdo de áudio. Se o formato não for fornecido, ele corresponderá ao formato usado na solicitação de áudio de entrada. |
|
id |
string |
Identificador exclusivo para a resposta de áudio. Esse valor pode ser usado em mensagens de histórico de bate-papo em vez de passar o objeto de áudio completo. |
transcript |
string |
A transcrição do arquivo de áudio. |
ChatCompletionsModality
As modalidades que o modelo pode usar para a resposta de conclusão do chat.
Valor | Description |
---|---|
audio |
O modelo tem permissão para gerar áudio. |
text |
O modelo só tem permissão para gerar texto. |
ChatCompletionsOptions
As informações de configuração para uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.
Name | Tipo | Default value | Description |
---|---|---|---|
frequency_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos prováveis de aparecer à medida que sua frequência aumenta e diminuem a probabilidade de o modelo repetir as mesmas declarações literalmente. O intervalo suportado é [-2, 2]. |
max_tokens |
integer (int32) minimum: 0 |
O número máximo de tokens a serem gerados. |
|
messages | ChatRequestMessage[]: |
A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de bate-papo para a função Sistema que fornece instruções para o comportamento do assistente, seguida por mensagens alternadas entre as funções Usuário e Assistente. |
|
modalities |
As modalidades que o modelo pode usar para a resposta de conclusão do chat. A modalidade padrão é |
||
model |
string |
ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade. |
|
presence_penalty |
number (float) minimum: -2maximum: 2 |
0 |
Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua presença existente no texto gerado. Valores positivos tornarão os tokens menos prováveis de aparecer quando já existem e aumentarão a probabilidade do modelo de gerar novos tópicos. O intervalo suportado é [-2, 2]. |
response_format | ChatCompletionsResponseFormat: |
Um objeto que especifica o formato que o modelo deve produzir. A configuração para A configuração como
Importante: ao usar o modo JSON, você deve também instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se |
|
seed |
integer (int64) |
Se especificado, o sistema envidará todos os esforços para proceder à amostragem deterministicamente, de modo a que pedidos repetidos com as mesmas sementes e parâmetros devolvam o mesmo resultado. O determinismo não é garantido. |
|
stop |
string[] |
Uma coleção de sequências textuais que encerrará a geração de completações. |
|
stream |
boolean |
Um valor que indica se as conclusão do chat devem ser transmitidas para esta solicitação. |
|
temperature |
number (float) minimum: 0maximum: 1 |
0.7 |
A temperatura de amostragem a ser usada que controla a aparente criatividade das finalizações geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1]. |
tool_choice |
Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusão do chat. |
||
tools |
Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, apenas funções são suportadas como ferramenta. O modelo pode responder com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função. |
||
top_p |
number (float) minimum: 0maximum: 1 |
1 |
Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Como exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% superiores de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1]. |
ChatCompletionsResponseFormatJsonObject
Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem do usuário.
Name | Tipo | Description |
---|---|---|
type |
string:
json_object |
O tipo de formato de resposta a ser usado para concluir o bate-papo. |
ChatCompletionsResponseFormatJsonSchema
Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.
Name | Tipo | Description |
---|---|---|
json_schema |
A definição do esquema JSON necessário na resposta e metadados associados. |
|
type |
string:
json_schema |
O tipo de formato de resposta a ser usado para concluir o bate-papo. |
ChatCompletionsResponseFormatJsonSchemaDefinition
A definição do esquema JSON necessário na resposta e metadados associados.
Name | Tipo | Default value | Description |
---|---|---|---|
description |
string |
Uma descrição do formato de resposta, usado pelo modelo de IA para determinar como gerar respostas nesse formato. |
|
name |
string |
O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
|
schema |
A definição do esquema JSON |
||
strict |
boolean |
False |
Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída.
Se definido como true, o modelo sempre seguirá o esquema exato definido no campo |
ChatCompletionsResponseFormatText
Um formato de resposta para Conclusão de Chat que emite respostas de texto. Este é o formato de resposta padrão.
Name | Tipo | Description |
---|---|---|
type |
string:
text |
O tipo de formato de resposta a ser usado para concluir o bate-papo. |
ChatCompletionsToolCall
Uma chamada de ferramenta de função solicitada pelo modelo de IA.
Name | Tipo | Description |
---|---|---|
function |
Os detalhes da chamada de função solicitada pelo modelo de IA. |
|
id |
string |
O ID da chamada da ferramenta. |
type |
enum:
function |
O tipo de chamada de ferramenta. Atualmente, apenas |
ChatCompletionsToolDefinition
A definição de uma ferramenta de conclusão de chat que pode chamar uma função.
Name | Tipo | Description |
---|---|---|
function |
Os detalhes de definição de função para a ferramenta de função. |
|
type |
enum:
function |
O tipo da ferramenta. Atualmente, apenas |
ChatRequestAssistantMessage
Uma mensagem de chat de solicitação que representa a resposta ou ação do assistente.
Name | Tipo | Description |
---|---|---|
audio |
O áudio gerado por uma resposta anterior em uma conversa de vários turnos. |
|
content |
string |
O conteúdo da mensagem. |
role |
string:
assistant |
A função de chat associada a esta mensagem. |
tool_calls |
As chamadas de ferramenta que devem ser resolvidas e têm suas saídas anexadas às mensagens de entrada subsequentes para que a solicitação de conclusão do chat seja resolvida conforme configurado. |
ChatRequestAudioReference
Uma referência a uma resposta de áudio gerada pelo modelo.
Name | Tipo | Description |
---|---|---|
id |
string |
Identificador exclusivo para a resposta de áudio. Esse valor corresponde ao id de uma conclusão de áudio anterior. |
ChatRequestSystemMessage
Uma mensagem de chat de solicitação contendo instruções do sistema que influenciam como o modelo gerará uma resposta de conclusão de chat.
Name | Tipo | Description |
---|---|---|
content |
string |
O conteúdo da mensagem do sistema. |
role |
string:
system |
A função de chat associada a esta mensagem. |
ChatRequestToolMessage
Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.
Name | Tipo | Description |
---|---|---|
content |
string |
O conteúdo da mensagem. |
role |
string:
tool |
A função de chat associada a esta mensagem. |
tool_call_id |
string |
O ID da chamada de ferramenta resolvido pelo conteúdo fornecido. |
ChatRequestUserMessage
Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.
Name | Tipo | Description |
---|---|---|
content |
O conteúdo da mensagem do usuário, com tipos de entrada disponíveis variando de acordo com o modelo selecionado. |
|
role |
string:
user |
A função de chat associada a esta mensagem. |
ChatResponseMessage
Uma representação de uma mensagem de bate-papo recebida em uma resposta.
Name | Tipo | Description |
---|---|---|
audio |
O áudio gerado pelo modelo como resposta às mensagens se o modelo estiver configurado para gerar áudio. |
|
content |
string |
O conteúdo da mensagem. |
role |
A função de chat associada à mensagem. |
|
tool_calls |
As chamadas de ferramenta que devem ser resolvidas e têm suas saídas anexadas às mensagens de entrada subsequentes para que a solicitação de conclusão do chat seja resolvida conforme configurado. |
ChatRole
Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.
Valor | Description |
---|---|
assistant |
A função que fornece respostas à entrada instruída pelo sistema e solicitada pelo usuário. |
developer |
A função que fornece instruções para o modelo priorizado antes das mensagens do usuário. |
system |
A função que instrui ou define o comportamento do assistente. |
tool |
A função que representa a atividade da ferramenta de extensão em uma operação de conclusão de chat. |
user |
A função que fornece entrada para a conclusão do chat. |
CompletionsFinishReason
Representação da forma como uma resposta de conclusão foi concluída.
Valor | Description |
---|---|
content_filter |
As finalizações geraram uma resposta que foi identificada como potencialmente sensível por políticas de moderação de conteúdo. |
length |
As finalizações esgotaram os limites de token disponíveis antes que a geração pudesse ser concluída. |
stop |
As finalizações terminaram normalmente e chegaram ao fim da geração de tokens. |
tool_calls |
A conclusão terminou com o modelo chamando uma ferramenta fornecida para saída. |
CompletionsUsage
Representação das contagens de token processadas para uma solicitação de conclusão. As contagens consideram todos os tokens em prompts, escolhas, alternativas de escolha, gerações best_of e outros consumidores.
Name | Tipo | Description |
---|---|---|
completion_tokens |
integer (int32) |
O número de tokens gerados em todas as emissões de conclusão. |
completion_tokens_details |
Detalhamento dos tokens usados em uma conclusão. |
|
prompt_tokens |
integer (int32) |
O número de tokens nos prompts fornecidos para a solicitação de conclusão. |
prompt_tokens_details |
Detalhamento de tokens usados no histórico de prompt/chat. |
|
total_tokens |
integer (int32) |
O número total de tokens processados para a solicitação e resposta de conclusão. |
CompletionsUsageDetails
Um detalhamento de tokens usados em uma conclusão.
Name | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
O número de tokens correspondentes à entrada de áudio. |
total_tokens |
integer (int32) |
O número total de tokens processados para a solicitação e resposta de conclusão. |
ExtraParameters
Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON.
Valor | Description |
---|---|
drop |
O serviço ignorará (descartará) parâmetros extras na carga útil da solicitação. Ele só passará os parâmetros conhecidos para o modelo de IA back-end. |
error |
O serviço errará se detetar parâmetros extras na carga útil da solicitação. Este é o padrão do serviço. |
pass-through |
O serviço passará parâmetros extras para o modelo de IA back-end. |
FunctionCall
O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Name | Tipo | Description |
---|---|---|
arguments |
string |
Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name |
string |
O nome da função a ser chamada. |
FunctionDefinition
A definição de uma função especificada pelo chamador que as finalizações de chat podem invocar em resposta à entrada do usuário correspondente.
Name | Tipo | Description |
---|---|---|
description |
string |
Uma descrição do que a função faz. O modelo usará essa descrição ao selecionar a função e interpretar seus parâmetros. |
name |
string |
O nome da função a ser chamada. |
parameters |
Os parâmetros que a função aceita, descritos como um objeto JSON Schema. |
PromptUsageDetails
Um detalhamento dos tokens usados no histórico de prompt/chat.
Name | Tipo | Description |
---|---|---|
audio_tokens |
integer (int32) |
O número de tokens correspondentes à entrada de áudio. |
cached_tokens |
integer (int32) |
O número total de tokens armazenados em cache. |