Partilhar via


Get Chat Completions - Get Chat Completions

Obtém a conclusão do bate-papo para as mensagens de bate-papo fornecidas. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos. O método faz uma chamada de API REST para a rota /chat/completions no ponto de extremidade determinado.

POST https:///chat/completions?api-version=2024-05-01-preview

Parâmetros do URI

Name Em Necessário Tipo Description
api-version
query True

string

minLength: 1

A versão da API a ser usada para esta operação.

Cabeçalho do Pedido

Name Necessário Tipo Description
extra-parameters

ExtraParameters

Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON. Isso define o cabeçalho da solicitação HTTP extra-parameters.

Corpo do Pedido

Name Necessário Tipo Description
messages True ChatRequestMessage[]:

A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de bate-papo para a função Sistema que fornece instruções para o comportamento do assistente, seguida por mensagens alternadas entre as funções Usuário e Assistente.

frequency_penalty

number (float)

minimum: -2
maximum: 2

Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos prováveis de aparecer à medida que sua frequência aumenta e diminuem a probabilidade de o modelo repetir as mesmas declarações literalmente. O intervalo suportado é [-2, 2].

max_tokens

integer (int32)

minimum: 0

O número máximo de tokens a serem gerados.

modalities

ChatCompletionsModality[]

As modalidades que o modelo pode usar para a resposta de conclusão do chat. A modalidade padrão é text. A indicação de uma combinação de modalidades sem suporte resulta em um erro 422.

model

string

ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade.

presence_penalty

number (float)

minimum: -2
maximum: 2

Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua presença existente no texto gerado. Valores positivos tornarão os tokens menos prováveis de aparecer quando já existem e aumentarão a probabilidade do modelo de gerar novos tópicos. O intervalo suportado é [-2, 2].

response_format ChatCompletionsResponseFormat:

Um objeto que especifica o formato que o modelo deve produzir.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

A configuração como { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você deve também instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.

seed

integer (int64)

Se especificado, o sistema envidará todos os esforços para proceder à amostragem deterministicamente, de modo a que pedidos repetidos com as mesmas sementes e parâmetros devolvam o mesmo resultado. O determinismo não é garantido.

stop

string[]

Uma coleção de sequências textuais que encerrará a geração de completações.

stream

boolean

Um valor que indica se as conclusão do chat devem ser transmitidas para esta solicitação.

temperature

number (float)

minimum: 0
maximum: 1

A temperatura de amostragem a ser usada que controla a aparente criatividade das finalizações geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1].

tool_choice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusão do chat.

tools

ChatCompletionsToolDefinition[]

Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, apenas funções são suportadas como ferramenta. O modelo pode responder com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função.

top_p

number (float)

minimum: 0
maximum: 1

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Como exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% superiores de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1].

Respostas

Name Tipo Description
200 OK

ChatCompletions

O pedido foi bem-sucedido.

Other Status Codes

Azure.Core.Foundations.ErrorResponse

Uma resposta de erro inesperada.

Cabeçalhos

x-ms-error-code: string

Segurança

api-key

Tipo: apiKey
Em: header

OAuth2Auth

Tipo: oauth2
Fluxo: implicit
URL de Autorização: https://login.microsoftonline.com/common/oauth2/v2.0/authorize

Âmbitos

Name Description
https://ml.azure.com/.default

Exemplos

Audio modality chat completion
maximum set chat completion
minimum set chat completion

Audio modality chat completion

Pedido de amostra

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text",
    "audio"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    },
    {
      "role": "assistant",
      "content": null,
      "audio": {
        "id": "abcdef1234"
      }
    },
    {
      "role": "user",
      "content": [
        {
          "type": "input_audio",
          "input_audio": {
            "data": "<base64 encoded audio data>",
            "format": "wav"
          }
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "seed": 21,
  "model": "my-model-name"
}

Resposta da amostra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1696522361,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16,
    "completion_tokens_details": {
      "audio_tokens": 5,
      "total_tokens": 5
    },
    "prompt_tokens_details": {
      "audio_tokens": 10,
      "cached_tokens": 0
    }
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": null,
        "audio": {
          "id": "abcdef1234",
          "format": "wav",
          "data": "<base64 encoded audio data>",
          "expires_at": 1896522361,
          "transcript": "This is a sample transcript"
        }
      }
    }
  ]
}

maximum set chat completion

Pedido de amostra

POST https:///chat/completions?api-version=2024-05-01-preview


{
  "modalities": [
    "text"
  ],
  "messages": [
    {
      "role": "system",
      "content": "You are a helpful assistant"
    },
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    },
    {
      "role": "assistant",
      "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594."
    },
    {
      "role": "user",
      "content": "Ist it proved?"
    }
  ],
  "frequency_penalty": 0,
  "stream": true,
  "presence_penalty": 0,
  "temperature": 0,
  "top_p": 0,
  "max_tokens": 255,
  "response_format": {
    "type": "text"
  },
  "stop": [
    "<|endoftext|>"
  ],
  "tools": [
    {
      "type": "function",
      "function": {
        "name": "my-function-name",
        "description": "A function useful to know if a theroem is proved or not"
      }
    }
  ],
  "seed": 21,
  "model": "my-model-name"
}

Resposta da amostra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 18,
  "model": "my-model-name",
  "usage": {
    "completion_tokens": 19,
    "prompt_tokens": 28,
    "total_tokens": 16
  },
  "choices": [
    {
      "index": 7,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": null,
        "tool_calls": [
          {
            "id": "yrobmilsrugmbwukmzo",
            "type": "function",
            "function": {
              "name": "my-function-name",
              "arguments": "{ \"arg1\": \"value1\", \"arg2\": \"value2\" }"
            }
          }
        ]
      }
    }
  ]
}

minimum set chat completion

Pedido de amostra

POST https:///chat/completions?api-version=2024-05-01-preview

{
  "messages": [
    {
      "role": "user",
      "content": "Explain Riemann's conjecture"
    }
  ]
}

Resposta da amostra

{
  "id": "kgousajxgzyhugvqekuswuqbk",
  "object": "chat.completion",
  "created": 1234567890,
  "model": "my-model-name",
  "usage": {
    "prompt_tokens": 205,
    "completion_tokens": 5,
    "total_tokens": 210
  },
  "choices": [
    {
      "index": 0,
      "finish_reason": "stop",
      "message": {
        "role": "assistant",
        "content": "The Riemann Conjecture is a deep mathematical conjecture around prime numbers and how they can be predicted. It was first published in Riemann's groundbreaking 1859 paper. The conjecture states that the Riemann zeta function has its zeros only at the negative even integers and complex numbers with real part 1/21. Many consider it to be the most important unsolved problem in pure mathematics. The Riemann hypothesis is a way to predict the probability that numbers in a certain range are prime that was also devised by German mathematician Bernhard Riemann in 18594"
      }
    }
  ]
}

Definições

Name Description
AudioContentFormat

Uma representação dos formatos de áudio possíveis para áudio.

Azure.Core.Foundations.Error

O objeto de erro.

Azure.Core.Foundations.ErrorResponse

Uma resposta contendo detalhes do erro.

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

ChatChoice

A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusão de chat. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

ChatCompletions

Representação dos dados de resposta de uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.

ChatCompletionsAudio

Uma representação do áudio gerado pelo modelo.

ChatCompletionsModality

As modalidades que o modelo pode usar para a resposta de conclusão do chat.

ChatCompletionsOptions

As informações de configuração para uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.

ChatCompletionsResponseFormatJsonObject

Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem do usuário.

ChatCompletionsResponseFormatJsonSchema

Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e metadados associados.

ChatCompletionsResponseFormatText

Um formato de resposta para Conclusão de Chat que emite respostas de texto. Este é o formato de resposta padrão.

ChatCompletionsToolCall

Uma chamada de ferramenta de função solicitada pelo modelo de IA.

ChatCompletionsToolDefinition

A definição de uma ferramenta de conclusão de chat que pode chamar uma função.

ChatRequestAssistantMessage

Uma mensagem de chat de solicitação que representa a resposta ou ação do assistente.

ChatRequestAudioReference

Uma referência a uma resposta de áudio gerada pelo modelo.

ChatRequestSystemMessage

Uma mensagem de chat de solicitação contendo instruções do sistema que influenciam como o modelo gerará uma resposta de conclusão de chat.

ChatRequestToolMessage

Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.

ChatRequestUserMessage

Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.

ChatResponseMessage

Uma representação de uma mensagem de bate-papo recebida em uma resposta.

ChatRole

Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.

CompletionsFinishReason

Representação da forma como uma resposta de conclusão foi concluída.

CompletionsUsage

Representação das contagens de token processadas para uma solicitação de conclusão. As contagens consideram todos os tokens em prompts, escolhas, alternativas de escolha, gerações best_of e outros consumidores.

CompletionsUsageDetails

Um detalhamento de tokens usados em uma conclusão.

ExtraParameters

Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON.

FunctionCall

O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

FunctionDefinition

A definição de uma função especificada pelo chamador que as finalizações de chat podem invocar em resposta à entrada do usuário correspondente.

PromptUsageDetails

Um detalhamento dos tokens usados no histórico de prompt/chat.

AudioContentFormat

Uma representação dos formatos de áudio possíveis para áudio.

Valor Description
mp3

Especifica o áudio no formato MP3.

wav

Especifica o áudio no formato WAV.

Azure.Core.Foundations.Error

O objeto de erro.

Name Tipo Description
code

string

Um de um conjunto de códigos de erro definido pelo servidor.

details

Azure.Core.Foundations.Error[]

Uma matriz de detalhes sobre erros específicos que levaram a esse erro relatado.

innererror

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas do que o objeto atual sobre o erro.

message

string

Uma representação legível por humanos do erro.

target

string

O alvo do erro.

Azure.Core.Foundations.ErrorResponse

Uma resposta contendo detalhes do erro.

Name Tipo Description
error

Azure.Core.Foundations.Error

O objeto de erro.

Azure.Core.Foundations.InnerError

Um objeto que contém informações mais específicas sobre o erro. De acordo com as diretrizes da API do Microsoft One - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

Name Tipo Description
code

string

Um de um conjunto de códigos de erro definido pelo servidor.

innererror

Azure.Core.Foundations.InnerError

Erro interno.

ChatChoice

A representação de uma única conclusão de prompt como parte de uma solicitação geral de conclusão de chat. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

Name Tipo Description
finish_reason

CompletionsFinishReason

A razão pela qual essa escolha de conclusão de bate-papo completou sua geração.

index

integer (int32)

O índice ordenado associado a essa opção de conclusão de bate-papo.

message

ChatResponseMessage

A mensagem de bate-papo para um determinado prompt de conclusão de bate-papo.

ChatCompletions

Representação dos dados de resposta de uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.

Name Tipo Description
choices

ChatChoice[]

A coleção de opções de conclusão associadas a essa resposta de conclusão. Geralmente, n opções são geradas por prompt fornecido com um valor padrão de 1. Limites de token e outras configurações podem limitar o número de opções geradas.

created

integer (unixtime)

O primeiro carimbo de data/hora associado à atividade de geração para esta resposta de conclusão, representado como segundos desde o início da época Unix de 00:00 em 1 de janeiro de 1970.

id

string

Um identificador exclusivo associado a esta resposta de conclusão de chat.

model

string

O modelo usado para a conclusão do chat.

object enum:

chat.completion

O tipo de objeto de resposta, que é sempre chat.completion.

usage

CompletionsUsage

Informações de uso para tokens processados e gerados como parte desta operação de conclusão.

ChatCompletionsAudio

Uma representação do áudio gerado pelo modelo.

Name Tipo Description
data

string

Dados de áudio codificados em Base64

expires_at

integer (unixtime)

O carimbo de data/hora Unix (em segundos) no qual a peça de áudio expira e não pode mais ser referenciado por seu ID em conversas de vários turnos.

format

AudioContentFormat

O formato do conteúdo de áudio. Se o formato não for fornecido, ele corresponderá ao formato usado na solicitação de áudio de entrada.

id

string

Identificador exclusivo para a resposta de áudio. Esse valor pode ser usado em mensagens de histórico de bate-papo em vez de passar o objeto de áudio completo.

transcript

string

A transcrição do arquivo de áudio.

ChatCompletionsModality

As modalidades que o modelo pode usar para a resposta de conclusão do chat.

Valor Description
audio

O modelo tem permissão para gerar áudio.

text

O modelo só tem permissão para gerar texto.

ChatCompletionsOptions

As informações de configuração para uma solicitação de conclusão de chat. As finalizações suportam uma ampla variedade de tarefas e geram texto que continua a partir ou "completa" os dados de prompt fornecidos.

Name Tipo Default value Description
frequency_penalty

number (float)

minimum: -2
maximum: 2
0

Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua frequência cumulativa no texto gerado. Os valores positivos tornarão os tokens menos prováveis de aparecer à medida que sua frequência aumenta e diminuem a probabilidade de o modelo repetir as mesmas declarações literalmente. O intervalo suportado é [-2, 2].

max_tokens

integer (int32)

minimum: 0

O número máximo de tokens a serem gerados.

messages ChatRequestMessage[]:

A coleção de mensagens de contexto associadas a essa solicitação de conclusão de chat. O uso típico começa com uma mensagem de bate-papo para a função Sistema que fornece instruções para o comportamento do assistente, seguida por mensagens alternadas entre as funções Usuário e Assistente.

modalities

ChatCompletionsModality[]

As modalidades que o modelo pode usar para a resposta de conclusão do chat. A modalidade padrão é text. A indicação de uma combinação de modalidades sem suporte resulta em um erro 422.

model

string

ID do modelo de IA específico a ser usado, se mais de um modelo estiver disponível no ponto de extremidade.

presence_penalty

number (float)

minimum: -2
maximum: 2
0

Um valor que influencia a probabilidade de os tokens gerados aparecerem com base na sua presença existente no texto gerado. Valores positivos tornarão os tokens menos prováveis de aparecer quando já existem e aumentarão a probabilidade do modelo de gerar novos tópicos. O intervalo suportado é [-2, 2].

response_format ChatCompletionsResponseFormat:

Um objeto que especifica o formato que o modelo deve produzir.

A configuração para { "type": "json_schema", "json_schema": {...} } habilita saídas estruturadas, o que garante que o modelo corresponda ao esquema JSON fornecido.

A configuração como { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você deve também instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem de usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.

seed

integer (int64)

Se especificado, o sistema envidará todos os esforços para proceder à amostragem deterministicamente, de modo a que pedidos repetidos com as mesmas sementes e parâmetros devolvam o mesmo resultado. O determinismo não é garantido.

stop

string[]

Uma coleção de sequências textuais que encerrará a geração de completações.

stream

boolean

Um valor que indica se as conclusão do chat devem ser transmitidas para esta solicitação.

temperature

number (float)

minimum: 0
maximum: 1
0.7

A temperatura de amostragem a ser usada que controla a aparente criatividade das finalizações geradas. Valores mais altos tornarão a saída mais aleatória, enquanto valores mais baixos tornarão os resultados mais focados e determinísticos. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1].

tool_choice

Se especificado, o modelo configurará quais das ferramentas fornecidas ele pode usar para a resposta de conclusão do chat.

tools

ChatCompletionsToolDefinition[]

Uma lista de ferramentas que o modelo pode solicitar para chamar. Atualmente, apenas funções são suportadas como ferramenta. O modelo pode responder com uma solicitação de chamada de função e fornecer os argumentos de entrada no formato JSON para essa função.

top_p

number (float)

minimum: 0
maximum: 1
1

Uma alternativa à amostragem com temperatura chamada amostragem de núcleo. Esse valor faz com que o modelo considere os resultados de tokens com a massa de probabilidade fornecida. Como exemplo, um valor de 0,15 fará com que apenas os tokens que compõem os 15% superiores de massa de probabilidade sejam considerados. Não é recomendável modificar a temperatura e a top_p para a mesma solicitação de conclusão, pois a interação dessas duas configurações é difícil de prever. O intervalo suportado é [0, 1].

ChatCompletionsResponseFormatJsonObject

Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos. Observe que, para habilitar o modo JSON, alguns modelos de IA também podem exigir que você instrua o modelo a produzir JSON por meio de um sistema ou mensagem do usuário.

Name Tipo Description
type string:

json_object

O tipo de formato de resposta a ser usado para concluir o bate-papo.

ChatCompletionsResponseFormatJsonSchema

Um formato de resposta para Conclusão de Chat que restringe as respostas à emissão de objetos JSON válidos, com um esquema JSON especificado pelo chamador.

Name Tipo Description
json_schema

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e metadados associados.

type string:

json_schema

O tipo de formato de resposta a ser usado para concluir o bate-papo.

ChatCompletionsResponseFormatJsonSchemaDefinition

A definição do esquema JSON necessário na resposta e metadados associados.

Name Tipo Default value Description
description

string

Uma descrição do formato de resposta, usado pelo modelo de IA para determinar como gerar respostas nesse formato.

name

string

O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.

schema

A definição do esquema JSON

strict

boolean

False

Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no campo schema. Somente um subconjunto do esquema JSON é suportado quando strict é true.

ChatCompletionsResponseFormatText

Um formato de resposta para Conclusão de Chat que emite respostas de texto. Este é o formato de resposta padrão.

Name Tipo Description
type string:

text

O tipo de formato de resposta a ser usado para concluir o bate-papo.

ChatCompletionsToolCall

Uma chamada de ferramenta de função solicitada pelo modelo de IA.

Name Tipo Description
function

FunctionCall

Os detalhes da chamada de função solicitada pelo modelo de IA.

id

string

O ID da chamada da ferramenta.

type enum:

function

O tipo de chamada de ferramenta. Atualmente, apenas function é suportado.

ChatCompletionsToolDefinition

A definição de uma ferramenta de conclusão de chat que pode chamar uma função.

Name Tipo Description
function

FunctionDefinition

Os detalhes de definição de função para a ferramenta de função.

type enum:

function

O tipo da ferramenta. Atualmente, apenas function é suportado.

ChatRequestAssistantMessage

Uma mensagem de chat de solicitação que representa a resposta ou ação do assistente.

Name Tipo Description
audio

ChatRequestAudioReference

O áudio gerado por uma resposta anterior em uma conversa de vários turnos.

content

string

O conteúdo da mensagem.

role string:

assistant

A função de chat associada a esta mensagem.

tool_calls

ChatCompletionsToolCall[]

As chamadas de ferramenta que devem ser resolvidas e têm suas saídas anexadas às mensagens de entrada subsequentes para que a solicitação de conclusão do chat seja resolvida conforme configurado.

ChatRequestAudioReference

Uma referência a uma resposta de áudio gerada pelo modelo.

Name Tipo Description
id

string

Identificador exclusivo para a resposta de áudio. Esse valor corresponde ao id de uma conclusão de áudio anterior.

ChatRequestSystemMessage

Uma mensagem de chat de solicitação contendo instruções do sistema que influenciam como o modelo gerará uma resposta de conclusão de chat.

Name Tipo Description
content

string

O conteúdo da mensagem do sistema.

role string:

system

A função de chat associada a esta mensagem.

ChatRequestToolMessage

Uma mensagem de chat de solicitação que representa a saída solicitada de uma ferramenta configurada.

Name Tipo Description
content

string

O conteúdo da mensagem.

role string:

tool

A função de chat associada a esta mensagem.

tool_call_id

string

O ID da chamada de ferramenta resolvido pelo conteúdo fornecido.

ChatRequestUserMessage

Uma mensagem de chat de solicitação que representa a entrada do usuário para o assistente.

Name Tipo Description
content

O conteúdo da mensagem do usuário, com tipos de entrada disponíveis variando de acordo com o modelo selecionado.

role string:

user

A função de chat associada a esta mensagem.

ChatResponseMessage

Uma representação de uma mensagem de bate-papo recebida em uma resposta.

Name Tipo Description
audio

ChatCompletionsAudio

O áudio gerado pelo modelo como resposta às mensagens se o modelo estiver configurado para gerar áudio.

content

string

O conteúdo da mensagem.

role

ChatRole

A função de chat associada à mensagem.

tool_calls

ChatCompletionsToolCall[]

As chamadas de ferramenta que devem ser resolvidas e têm suas saídas anexadas às mensagens de entrada subsequentes para que a solicitação de conclusão do chat seja resolvida conforme configurado.

ChatRole

Uma descrição da finalidade pretendida de uma mensagem dentro de uma interação de conclusão de chat.

Valor Description
assistant

A função que fornece respostas à entrada instruída pelo sistema e solicitada pelo usuário.

developer

A função que fornece instruções para o modelo priorizado antes das mensagens do usuário.

system

A função que instrui ou define o comportamento do assistente.

tool

A função que representa a atividade da ferramenta de extensão em uma operação de conclusão de chat.

user

A função que fornece entrada para a conclusão do chat.

CompletionsFinishReason

Representação da forma como uma resposta de conclusão foi concluída.

Valor Description
content_filter

As finalizações geraram uma resposta que foi identificada como potencialmente sensível por políticas de moderação de conteúdo.

length

As finalizações esgotaram os limites de token disponíveis antes que a geração pudesse ser concluída.

stop

As finalizações terminaram normalmente e chegaram ao fim da geração de tokens.

tool_calls

A conclusão terminou com o modelo chamando uma ferramenta fornecida para saída.

CompletionsUsage

Representação das contagens de token processadas para uma solicitação de conclusão. As contagens consideram todos os tokens em prompts, escolhas, alternativas de escolha, gerações best_of e outros consumidores.

Name Tipo Description
completion_tokens

integer (int32)

O número de tokens gerados em todas as emissões de conclusão.

completion_tokens_details

CompletionsUsageDetails

Detalhamento dos tokens usados em uma conclusão.

prompt_tokens

integer (int32)

O número de tokens nos prompts fornecidos para a solicitação de conclusão.

prompt_tokens_details

PromptUsageDetails

Detalhamento de tokens usados no histórico de prompt/chat.

total_tokens

integer (int32)

O número total de tokens processados para a solicitação e resposta de conclusão.

CompletionsUsageDetails

Um detalhamento de tokens usados em uma conclusão.

Name Tipo Description
audio_tokens

integer (int32)

O número de tokens correspondentes à entrada de áudio.

total_tokens

integer (int32)

O número total de tokens processados para a solicitação e resposta de conclusão.

ExtraParameters

Controla o que acontece se parâmetros extras, não definidos pela API REST, forem passados na carga útil da solicitação JSON.

Valor Description
drop

O serviço ignorará (descartará) parâmetros extras na carga útil da solicitação. Ele só passará os parâmetros conhecidos para o modelo de IA back-end.

error

O serviço errará se detetar parâmetros extras na carga útil da solicitação. Este é o padrão do serviço.

pass-through

O serviço passará parâmetros extras para o modelo de IA back-end.

FunctionCall

O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Name Tipo Description
arguments

string

Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode alucinar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

name

string

O nome da função a ser chamada.

FunctionDefinition

A definição de uma função especificada pelo chamador que as finalizações de chat podem invocar em resposta à entrada do usuário correspondente.

Name Tipo Description
description

string

Uma descrição do que a função faz. O modelo usará essa descrição ao selecionar a função e interpretar seus parâmetros.

name

string

O nome da função a ser chamada.

parameters

Os parâmetros que a função aceita, descritos como um objeto JSON Schema.

PromptUsageDetails

Um detalhamento dos tokens usados no histórico de prompt/chat.

Name Tipo Description
audio_tokens

integer (int32)

O número de tokens correspondentes à entrada de áudio.

cached_tokens

integer (int32)

O número total de tokens armazenados em cache.