Partilhar via


Referência de visualização da API REST do Serviço OpenAI do Azure

Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.

Especificações da API

O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:

  • Plano de controlo
  • Plano de dados - criação
  • Plano de dados - inferência

Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de visualizações e versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.

API Versão de pré-visualização mais recente Última versão do GA Especificações Description
Plano de controlo 2024-06-01-preview 2024-10-01 Arquivos de especificações O Azure OpenAI compartilha um plano de controle comum com todos os outros Serviços de IA do Azure. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure.
Plano de dados - criação 2024-10-01-preview 2024-10-21 Arquivos de especificações A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo
Plano de dados - inferência 2024-10-01-preview 2024-10-21 Arquivos de especificações A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, fala/sussurro, em seus dados, Dall-e, assistentes, etc.

Autenticação

O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.

  • Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a api-key chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.

  • Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o Authorization cabeçalho. O token fornecido deve ser precedido por Bearer, por exemplo Bearer YOUR_AUTH_TOKEN, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.

Controle de versão da API REST

As APIs de serviço têm um controlo de versão com o parâmetro de consulta api-version. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

Inferência do plano de dados

O restante do artigo aborda a versão de visualização mais recente da especificação de inferência do plano de dados do Azure OpenAI, 2024-10-01-preview. Este artigo inclui documentação para os recursos de visualização mais recentes, como assistentes, threads e repositórios vetoriais.

Se você estiver procurando documentação sobre a versão mais recente da API do GA, consulte a API de inferência de plano de dados do GA mais recente

Finalizações - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
Prompt cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
best_of integer Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com no , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
echo boolean Echo de volta o prompt, além da conclusão
Não False
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhuma
Logprobs integer Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhuma
max_tokens integer O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n integer Quantas finalizações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
sementes integer Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.

O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end.
Não
parar cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada.
Não
transmissão em fluxo boolean Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Não False
sufixo string O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhuma
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createCompletionResponse Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

Respostas: Código de status: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

Incorporações - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
input cadeia de caracteres ou matriz Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. Sim
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
input_type string tipo de entrada de pesquisa de incorporação a ser usada Não
encoding_format string O formato para retornar as incorporações. Pode ser qualquer um float ou base64. O padrão é float. Não
dimensões integer O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. Não

Respostas

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
modelo string Sim
dados matriz Sim
ativa objeto Sim

Propriedades para uso

prompt_tokens

Nome Tipo Description Predefinido
prompt_tokens integer

total_tokens

Nome Tipo Description Predefinido
total_tokens integer

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json objeto

Exemplos

Exemplo

Retorne as incorporações para um determinado prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview

{
 "input": [
  "this is a test"
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05,
          0.0032178196
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

Conclusão do bate-papo - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

Cria uma conclusão para a mensagem de chat

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Não False
parar cadeia de caracteres ou matriz Até quatro sequências em que a API deixará de gerar mais tokens.
Não
max_tokens integer O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
max_completion_tokens integer Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhuma
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Sim
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
Logprobs boolean Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message. Não False
top_logprobs integer Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
n integer Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. Não 1
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes integer Este recurso está em versão Beta.
Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.
O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end.
Não
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso apenas quando definir stream: true.
Não Nenhuma
ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json createChatCompletionResponse ou createChatCompletionStreamResponse

Código de status: padrão

Descrição: Serviço indisponível

Tipo de conteúdo Tipo Descrição
application/json errorResponse

Exemplos

Exemplo

Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais de imagem da Pesquisa do Azure.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "query_type": "vector",
    "fields_mapping": {
     "image_vector_fields": [
      "image_vector"
     ]
    },
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion."
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Azure Cosmos DB fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o banco de dados Mongo fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "mongo_db",
   "parameters": {
    "authentication": {
     "type": "username_and_password",
     "username": "<username>",
     "password": "<password>"
    },
    "endpoint": "<endpoint_name>",
    "app_name": "<application name>",
    "database_name": "sampledb",
    "collection_name": "samplecollection",
    "index_name": "sampleindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o Elasticsearch fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "elasticsearch",
   "parameters": {
    "endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
    "index_name": "{index name}",
    "authentication": {
     "type": "key_and_key_id",
     "key": "{key}",
     "key_id": "{key id}"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Exemplo

Cria uma conclusão para o recurso Pinecone fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "pinecone",
   "parameters": {
    "authentication": {
     "type": "api_key",
     "key": "{api key}"
    },
    "environment": "{environment name}",
    "index_name": "{index name}",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "title_field": "title",
     "url_field": "url",
     "filepath_field": "filepath",
     "content_fields": [
      "content"
     ],
     "content_fields_separator": "\n"
    }
   }
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Transcrições - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Transcreve o áudio para o idioma de entrada.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo de sussurro.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Necessário Predefinição
ficheiro string O objeto do arquivo de áudio a ser transcrito. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
idioma string O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional para carimbos de data/hora de segmento, mas a geração de carimbos de data/hora de palavras incorre em latência adicional. Não ['segmento']

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Traduções - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

Transcreve e traduz áudio de entrada para texto em inglês.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo de sussurro que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Necessário Predefinição
ficheiro string O arquivo de áudio a ser traduzido. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json audioResponse ou audioVerboseResponse
text/plain string Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt).

Exemplos

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

Exemplo

Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

Respostas: Código de status: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

Fala - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

Gera áudio a partir do texto de entrada.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo tts que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: multipart/form-data

Nome Tipo Descrição Necessário Predefinição
entrada string O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. Sim
voice enumeração A voz a ser usada para síntese de fala.
Valores possíveis: liga, eco, fábula, ônix, nova, brilho
Sim
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
Não
velocidade Número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é a predefinição. Não 1.0

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/octet-stream string

Exemplos

Exemplo

Sintetiza o áudio do texto fornecido.

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview

{
 "input": "Hi! What are you going to make?",
 "voice": "fable",
 "response_format": "mp3"
}

Respostas: Código de status: 200

{
  "body": "101010101"
}

Gerações de imagens - Criar

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo DALLE

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
deployment-id path Sim string ID de implantação do modelo dalle que foi implantado.
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
Prompt string Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. Sim
n integer O número de imagens a gerar. Não 1
size imageSize O tamanho das imagens geradas. Não 1024 x 1024
response_format imagesResponseFormat O formato em que as imagens geradas são retornadas. Não url
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

Respostas

Código de status: 200

Descrição: Ok

Tipo de conteúdo Tipo Descrição
application/json generateImagesResponse

Código de status: padrão

Descrição: Ocorreu um erro.

Tipo de conteúdo Tipo Descrição
application/json dalleErrorResponse

Exemplos

Exemplo

Cria imagens com um prompt.

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

Respostas: Código de status: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          },
          "custom_blocklists": {
            "filtered": false,
            "details": []
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

Lista - Assistentes

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Retorna uma lista de assistentes.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listAssistantsResponse

Exemplos

Exemplo

Retorna uma lista de assistentes.

GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "asst_abc123",
        "object": "assistant",
        "created_at": 1707257477,
        "name": "Stock Analyst",
        "description": null,
        "model": "gpt-4-1106-preview",
        "instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc456",
        "object": "assistant",
        "created_at": 1698982718,
        "name": "My Assistant",
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": "You are a helpful assistant designed to make me better at coding!",
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      },
      {
        "id": "asst_abc789",
        "object": "assistant",
        "created_at": 1698982643,
        "name": null,
        "description": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "tools": [],
        "tool_resources": {},
        "metadata": {},
        "top_p": 1.0,
        "temperature": 1.0,
        "response_format": "auto"
      }
    ],
    "first_id": "asst_abc123",
    "last_id": "asst_abc789",
    "has_more": false
  }
}

Criar - Assistente

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

Crie um assistente com um modelo e instruções.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
modelo Sim
nome string O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
descrição string A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
instruções string As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Não
ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]
Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente.
vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente.

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject Representa um assistant que pode chamar o modelo e usar ferramentas.

Exemplos

Exemplo

Crie um assistente com um modelo e instruções.

POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview

{
 "name": "Math Tutor",
 "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
 "tools": [
  {
   "type": "code_interpreter"
  }
 ],
 "model": "gpt-4-1106-preview"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant",
    "created_at": 1707295707,
    "name": "Math Tutor",
    "description": null,
    "model": "gpt-4-1106-preview",
    "instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Obter - Assistente

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Recupera um assistente.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
assistant_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject Representa um assistant que pode chamar o modelo e usar ferramentas.

Exemplos

Exemplo

Recupera um assistente.

GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_abc123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Modificar - Assistente

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Modifica um assistente.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
assistant_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
modelo Não
nome string O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
descrição string A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
instruções string As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres.
Não
ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente.

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json assistantObject Representa um assistant que pode chamar o modelo e usar ferramentas.

Exemplos

Exemplo

Modifica um assistente.

POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

{
 "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
 "tools": [
  {
   "type": "file_search"
  }
 ],
 "model": "gpt-4-turbo"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_123",
    "object": "assistant",
    "created_at": 1699009709,
    "name": "HR Helper",
    "description": null,
    "model": "gpt-4-turbo",
    "instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": []
      }
    },
    "metadata": {},
    "top_p": 1.0,
    "temperature": 1.0,
    "response_format": "auto"
  }
}

Excluir - Assistente

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Excluir um assistente.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
assistant_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteAssistantResponse

Exemplos

Exemplo

Exclui um assistente.

DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
    "object": "assistant.deleted",
    "deleted": true
  }
}

Criar - Thread

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Crie um thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
mensagens matriz Uma lista de mensagens para iniciar o thread. Não
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
vector_stores matriz Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de um armazenamento vetorial anexado ao thread.

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject Representa um thread que contém mensagens.

Exemplos

Exemplo

Cria um thread.

POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {}
  }
}

Obter - Thread

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Recupera um thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject Representa um thread que contém mensagens.

Exemplos

Exemplo

Recupera um thread.

GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {},
    "tool_resources": {
      "code_interpreter": {
        "file_ids": []
      }
    }
  }
}

Modificar - Thread

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Modifica um thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de um armazenamento vetorial anexado ao thread.

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json threadObject Representa um thread que contém mensagens.

Exemplos

Exemplo

Modifica um thread.

POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread",
    "created_at": 1707297136,
    "metadata": {
      "modified": "true",
      "user": "abc123"
    },
    "tool_resources": {}
  }
}

Excluir - Thread

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Exclua um thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteThreadResponse

Exemplos

Exemplo

Exclui um thread.

DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "object": "thread.deleted",
    "deleted": true
  }
}

Lista - Mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Retorna uma lista de mensagens para um determinado thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
run_id query Não string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listMessagesResponse

Exemplos

Exemplo

Listar mensagens

GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "msg_abc123",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "How does AI work? Explain it in simple terms.",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      },
      {
        "id": "msg_abc456",
        "object": "thread.message",
        "created_at": 1699016383,
        "assistant_id": null,
        "thread_id": "thread_abc123",
        "run_id": null,
        "role": "user",
        "content": [
          {
            "type": "text",
            "text": {
              "value": "Hello, what is AI?",
              "annotations": []
            }
          }
        ],
        "attachments": [],
        "metadata": {}
      }
    ],
    "first_id": "msg_abc123",
    "last_id": "msg_abc456",
    "has_more": false
  }
}

Criar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

Criar uma mensagem.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
função string A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Sim
content string O conteúdo da mensagem. Sim
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject Representa uma mensagem dentro de um thread.

Exemplos

Exemplo

Criar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview

{
 "role": "user",
 "content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "assistant_id": null,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "attachments": [],
    "metadata": {}
  }
}

Obter - Mensagem

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Recuperar uma mensagem.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
message_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject Representa uma mensagem dentro de um thread.

Exemplos

Exemplo

Recuperar uma mensagem.

GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
    "object": "thread.message",
    "created_at": 1707298421,
    "thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "assistant_id": null,
    "run_id": null,
    "metadata": {}
  }
}

Modificar - Mensagem

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

Modifica uma mensagem.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
message_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json messageObject Representa uma mensagem dentro de um thread.

Exemplos

Exemplo

Modificar uma mensagem.

POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "modified": "true",
  "user": "abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "msg_abc123",
    "object": "thread.message",
    "created_at": 1699017614,
    "assistant_id": null,
    "thread_id": "thread_abc123",
    "run_id": null,
    "role": "user",
    "content": [
      {
        "type": "text",
        "text": {
          "value": "How does AI work? Explain it in simple terms.",
          "annotations": []
        }
      }
    ],
    "file_ids": [],
    "metadata": {
      "modified": "true",
      "user": "abc123"
    }
  }
}

Criar - Thread e Executar

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

Crie um thread e execute-o em uma solicitação.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
assistant_id string A ID do assistente a ser usado para executar essa execução. Sim
thread createThreadRequest Não
modelo string O nome de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
instruções string Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso apenas quando definir stream: true.
Não Nenhuma
max_prompt_tokens integer O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
max_completion_tokens integer O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
truncation_strategy truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente.

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Crie um thread e execute-o em uma solicitação.

POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123",
 "thread": {
  "messages": [
   {
    "role": "user",
    "content": "Explain deep learning to a 5 year old."
   }
  ]
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076792,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": null,
    "expires_at": 1699077392,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "required_action": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You are a helpful assistant.",
    "tools": [],
    "tool_resources": {},
    "metadata": {},
    "temperature": 1.0,
    "top_p": 1.0,
    "max_completion_tokens": null,
    "max_prompt_tokens": null,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "incomplete_details": null,
    "usage": null,
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Lista - Execuções

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Retorna uma lista de execuções pertencentes a um thread.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listRunsResponse

Exemplos

Exemplo

Retorna uma lista de execuções pertencentes a um thread.

GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "run_abc123",
        "object": "thread.run",
        "created_at": 1699075072,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699075072,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699075073,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      },
      {
        "id": "run_abc456",
        "object": "thread.run",
        "created_at": 1699063290,
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "status": "completed",
        "started_at": 1699063290,
        "expires_at": null,
        "cancelled_at": null,
        "failed_at": null,
        "completed_at": 1699063291,
        "last_error": null,
        "model": "gpt-4-turbo",
        "instructions": null,
        "incomplete_details": null,
        "tools": [
          {
            "type": "code_interpreter"
          }
        ],
        "tool_resources": {
          "code_interpreter": {
            "file_ids": [
              "file-abc123",
              "file-abc456"
            ]
          }
        },
        "metadata": {},
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        },
        "temperature": 1.0,
        "top_p": 1.0,
        "max_prompt_tokens": 1000,
        "max_completion_tokens": 1000,
        "truncation_strategy": {
          "type": "auto",
          "last_messages": null
        },
        "response_format": "auto",
        "tool_choice": "auto"
      }
    ],
    "first_id": "run_abc123",
    "last_id": "run_abc456",
    "has_more": false
  }
}

Criar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

Crie uma execução.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
assistant_id string A ID do assistente a ser usado para executar essa execução. Sim
modelo string A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
instruções string Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
additional_instructions string Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. Não
additional_messages matriz Adiciona mensagens adicionais ao thread antes de criar a execução. Não
ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
max_prompt_tokens integer O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
max_completion_tokens integer O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
truncation_strategy truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Crie uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview

{
 "assistant_id": "asst_abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699063290,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "queued",
    "started_at": 1699063290,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699063291,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Obter - Executar

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Recupera uma execução.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Consegue uma corrida.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
    "object": "thread.run",
    "created_at": 1707303196,
    "assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
    "thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
    "status": "completed",
    "started_at": 1707303197,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1707303201,
    "last_error": null,
    "model": "gpt-4-1106-preview",
    "instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
    "tools": [],
    "file_ids": [],
    "metadata": {}
  }
}

Modificar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

Modifica uma execução.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Modifica uma execução.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview

{
 "metadata": {
  "user_id": "user_abc123"
 }
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699075072,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "completed",
    "started_at": 1699075072,
    "expires_at": null,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": 1699075073,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "incomplete_details": null,
    "tools": [
      {
        "type": "code_interpreter"
      }
    ],
    "tool_resources": {
      "code_interpreter": {
        "file_ids": [
          "file-abc123",
          "file-abc456"
        ]
      }
    },
    "metadata": {
      "user_id": "user_abc123"
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    },
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Enviar - Saídas da ferramenta para executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
tool_outputs matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Sim
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Quando uma execução tem o status: "requires_action" e required_action.type é submit_tool_outputs, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview

{
 "tool_outputs": [
  {
   "tool_call_id": "call_001",
   "output": "70 degrees and sunny."
  }
 ]
}

Respostas: Código de status: 200

{
  "body": {
    "id": "run_123",
    "object": "thread.run",
    "created_at": 1699075592,
    "assistant_id": "asst_123",
    "thread_id": "thread_123",
    "status": "queued",
    "started_at": 1699075592,
    "expires_at": 1699076192,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": null,
    "tools": [
      {
        "type": "function",
        "function": {
          "name": "get_current_weather",
          "description": "Get the current weather in a given location",
          "parameters": {
            "type": "object",
            "properties": {
              "location": {
                "type": "string",
                "description": "The city and state, e.g. San Francisco, CA"
              },
              "unit": {
                "type": "string",
                "enum": [
                  "celsius",
                  "fahrenheit"
                ]
              }
            },
            "required": [
              "location"
            ]
          }
        }
      }
    ],
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "max_prompt_tokens": 1000,
    "max_completion_tokens": 1000,
    "truncation_strategy": {
      "type": "auto",
      "last_messages": null
    },
    "response_format": "auto",
    "tool_choice": "auto"
  }
}

Cancelar - Executar

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Cancela uma execução que é in_progress.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runObject Representa uma execução executada em um thread.

Exemplos

Exemplo

Cancela uma execução que é in_progress.

POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "run_abc123",
    "object": "thread.run",
    "created_at": 1699076126,
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "status": "cancelling",
    "started_at": 1699076126,
    "expires_at": 1699076726,
    "cancelled_at": null,
    "failed_at": null,
    "completed_at": null,
    "last_error": null,
    "model": "gpt-4-turbo",
    "instructions": "You summarize books.",
    "tools": [
      {
        "type": "file_search"
      }
    ],
    "tool_resources": {
      "file_search": {
        "vector_store_ids": [
          "vs_123"
        ]
      }
    },
    "metadata": {},
    "usage": null,
    "temperature": 1.0,
    "top_p": 1.0,
    "response_format": "auto"
  }
}

Lista - Executar etapas

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Retorna uma lista de etapas de execução pertencentes a uma execução.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listRunStepsResponse

Exemplos

Exemplo

Retorna uma lista de etapas de execução pertencentes a uma execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "step_abc123",
        "object": "thread.run.step",
        "created_at": 1699063291,
        "run_id": "run_abc123",
        "assistant_id": "asst_abc123",
        "thread_id": "thread_abc123",
        "type": "message_creation",
        "status": "completed",
        "cancelled_at": null,
        "completed_at": 1699063291,
        "expired_at": null,
        "failed_at": null,
        "last_error": null,
        "step_details": {
          "type": "message_creation",
          "message_creation": {
            "message_id": "msg_abc123"
          }
        },
        "usage": {
          "prompt_tokens": 123,
          "completion_tokens": 456,
          "total_tokens": 579
        }
      }
    ],
    "first_id": "step_abc123",
    "last_id": "step_abc456",
    "has_more": false
  }
}

Obter - Executar etapa

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Recupera uma etapa de execução.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
thread_id path Sim string
run_id path Sim string
step_id path Sim string
api-version query Sim string Versão da API

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json runStepObject Representa uma etapa na execução de uma execução.

Exemplos

Exemplo

Recupera uma etapa de execução.

GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "step_abc123",
    "object": "thread.run.step",
    "created_at": 1699063291,
    "run_id": "run_abc123",
    "assistant_id": "asst_abc123",
    "thread_id": "thread_abc123",
    "type": "message_creation",
    "status": "completed",
    "cancelled_at": null,
    "completed_at": 1699063291,
    "expired_at": null,
    "failed_at": null,
    "last_error": null,
    "step_details": {
      "type": "message_creation",
      "message_creation": {
        "message_id": "msg_abc123"
      }
    },
    "usage": {
      "prompt_tokens": 123,
      "completion_tokens": 456,
      "total_tokens": 579
    }
  }
}

Lista - Vetor Stores

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Retorna uma lista de repositórios vetoriais.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoresResponse

Exemplos

Exemplo

Retorna uma lista de repositórios vetoriais.

GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "vs_abc123",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      },
      {
        "id": "vs_abc456",
        "object": "vector_store",
        "created_at": 1699061776,
        "name": "Support FAQ v2",
        "bytes": 139920,
        "file_counts": {
          "in_progress": 0,
          "completed": 3,
          "failed": 0,
          "cancelled": 0,
          "total": 3
        }
      }
    ],
    "first_id": "vs_abc123",
    "last_id": "vs_abc456",
    "has_more": false
  }
}

Criar - Loja de vetores

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Crie um repositório vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
file_ids matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Não
nome string O nome do repositório de vetores. Não
expires_after vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Exemplos

Exemplo

Cria um repositório vetorial.

POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Obter - Loja de vetores

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Recupera um armazenamento de vetores.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Exemplos

Exemplo

Recupera um armazenamento de vetores.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776
  }
}

Modificar - Vetor Store

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Modifica um armazenamento vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
nome string O nome do repositório de vetores. Não
expires_after vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreObject Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Exemplos

Exemplo

Modifica um armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

{
 "name": "Support FAQ"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store",
    "created_at": 1699061776,
    "name": "Support FAQ",
    "bytes": 139920,
    "file_counts": {
      "in_progress": 0,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 3
    }
  }
}

Excluir - Vetor Store

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Exclua um repositório de vetores.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteVectorStoreResponse

Exemplos

Exemplo

Exclui um repositório vetorial.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vs_abc123",
    "object": "vector_store.deleted",
    "deleted": true
  }
}

Lista - Arquivos de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Retorna uma lista de arquivos de armazenamento vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
filtrar query Não string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoreFilesResponse

Exemplos

Exemplo

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Criar - Arquivo de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
file_id string Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileObject Uma lista de arquivos anexados a um repositório vetorial.

Exemplos

Exemplo

Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview

{
 "file_id": "file-abc123"
}

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "usage_bytes": 1234,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Obter - Arquivo de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Recupera um arquivo de armazenamento vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
file_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileObject Uma lista de arquivos anexados a um repositório vetorial.

Exemplos

Exemplo

Recupera um arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file-abc123",
    "object": "vector_store.file",
    "created_at": 1699061776,
    "vector_store_id": "vs_abcd",
    "status": "completed",
    "last_error": null
  }
}

Excluir - Arquivo de armazenamento vetorial

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
file_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json deleteVectorStoreFileResponse

Exemplos

Exemplo

Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.

DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "file_abc123",
    "object": "vector_store.file.deleted",
    "deleted": true
  }
}

Criar - Lote de arquivos de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

Crie um lote de arquivo de armazenamento vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Corpo do Pedido

Tipo de conteúdo: application/json

Nome Tipo Descrição Necessário Predefinição
file_ids matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject Um lote de arquivos anexados a um armazenamento vetorial.

Exemplos

Exemplo

Crie um lote de arquivo de armazenamento vetorial.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview

{
 "file_ids": [
  "file-abc123",
  "file-abc456"
 ]
}

Respostas: Código de status: 200

{
  "id": "vsfb_abc123",
  "object": "vector_store.file_batch",
  "created_at": 1699061776,
  "vector_store_id": "vs_abc123",
  "status": "in_progress",
  "file_counts": {
    "in_progress": 1,
    "completed": 1,
    "failed": 0,
    "cancelled": 0,
    "total": 0
  }
}

Obter - Vetor Store File Batch

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Recupera um lote de arquivo de armazenamento vetorial.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
batch_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject Um lote de arquivos anexados a um armazenamento vetorial.

Exemplos

Exemplo

Recupera um lote de arquivo de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "in_progress",
    "file_counts": {
      "in_progress": 1,
      "completed": 1,
      "failed": 0,
      "cancelled": 0,
      "total": 0
    }
  }
}

Cancelar - Lote de arquivos de armazenamento vetorial

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
batch_id path Sim string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json vectorStoreFileBatchObject Um lote de arquivos anexados a um armazenamento vetorial.

Exemplos

Exemplo

Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.

POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "id": "vsfb_abc123",
    "object": "vector_store.file_batch",
    "created_at": 1699061776,
    "vector_store_id": "vs_abc123",
    "status": "cancelling",
    "file_counts": {
      "in_progress": 12,
      "completed": 3,
      "failed": 0,
      "cancelled": 0,
      "total": 15
    }
  }
}

Lista - Arquivos em lote de arquivos de armazenamento vetorial

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Retorna uma lista de arquivos de armazenamento vetorial em um lote.

Parâmetros do URI

Nome Em Necessário Type Description
endpoint path Sim string
url
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com. Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com
vector_store_id path Sim string
batch_id path Sim string
limit query Não integer
ordem query Não string
depois de query Não string
antes query Não string
filtrar query Não string
api-version query Sim string

Cabeçalho do Pedido

Nome Obrigatório Type Description
Chave API True string Forneça a chave da API do Azure OpenAI aqui

Respostas

Código de status: 200

Descrição: OK

Tipo de conteúdo Tipo Descrição
application/json listVectorStoreFilesResponse

Exemplos

Exemplo

Retorna uma lista de arquivos de armazenamento vetorial.

GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview

Respostas: Código de status: 200

{
  "body": {
    "object": "list",
    "data": [
      {
        "id": "file-abc123",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      },
      {
        "id": "file-abc456",
        "object": "vector_store.file",
        "created_at": 1699061776,
        "vector_store_id": "vs_abc123"
      }
    ],
    "first_id": "file-abc123",
    "last_id": "file-abc456",
    "has_more": false
  }
}

Componentes

errorResponse

Nome Tipo Descrição Necessário Predefinição
error erro Não

Base de erro

Nome Tipo Descrição Necessário Predefinição
code string Não
mensagem string Não

error

Nome Tipo Descrição Necessário Predefinição
param string Não
tipo string Não
inner_error innerError Erro interno com detalhes adicionais. Não

innerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Necessário Predefinição
code innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

innerErrorCode

Códigos de erro para o objeto de erro interno.

Descrição: Códigos de erro para o objeto de erro interno.

Tipo: string

Predefinido:

Nome do Enum: InnerErrorCode

Valores de Enum:

valor Description
ResponsávelAIPolicyViolation O prompt violou uma das mais regras de filtro de conteúdo.

dalleErrorResponse

Nome Tipo Descrição Necessário Predefinição
error dalleError Não

dalleError

Nome Tipo Descrição Necessário Predefinição
param string Não
tipo string Não
inner_error dalleInnerError Erro interno com detalhes adicionais. Não

dalleInnerError

Erro interno com detalhes adicionais.

Nome Tipo Descrição Necessário Predefinição
code innerErrorCode Códigos de erro para o objeto de erro interno. Não
content_filter_results dalleFilterResultados Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não
revised_prompt string O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. Não

contentFilterCompletionTextSpan

Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.

Nome Tipo Descrição Necessário Predefinição
completion_start_offset integer Deslocamento do ponto de código UTF32 que inicia a extensão. Sim
completion_end_offset integer Deslocamento do primeiro ponto de código UTF32 que é excluído da extensão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para vãos não vazios. Sim

contentFilterResultBase

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim

contentFilterSeverityResult

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
gravidade string Não

contentFilterDetectedResult

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
detetada boolean Não

contentFilterDetectedWithCitationResult

Nome Tipo Descrição Necessário Predefinição
citação objeto Não

Imóveis para citação

URL

Nome Tipo Description Predefinido
URL string

license

Nome Tipo Description Predefinido
license string

contentFilterDetectedWithCompletionTextSpansResult

Nome Tipo Descrição Necessário Predefinição
detalhes matriz Não

contentFilterIdResult

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
id string Não

contentFilterResultsBase

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
error Base de erro Não

contentFilterPromptResults

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
error Base de erro Não
fuga de presos contentFilterDetectedResult Não
indirect_attack contentFilterDetectedResult Não

contentFilterChoiceResults

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não
error Base de erro Não
protected_material_text contentFilterDetectedResult Não
protected_material_code contentFilterDetectedWithCitationResult Não
ungrounded_material contentFilterDetectedWithCompletionTextSpansResult Não

contentFilterDetailedResults

Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados.

Nome Tipo Descrição Necessário Predefinição
filtrado boolean Sim
detalhes matriz Não

promptFilterResult

A filtragem de conteúdo resulta de um único prompt na solicitação.

Nome Tipo Descrição Necessário Predefinição
prompt_index integer Não
content_filter_results contentFilterPromptResults Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

promptFilterResults

A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes.

Nenhuma propriedade definida para este componente.

dalleContentFilterResults

Informações sobre os resultados da filtragem de conteúdo.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não

dalleFilterResultados

Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.

Nome Tipo Descrição Necessário Predefinição
sexual contentFilterSeverityResult Não
violência contentFilterSeverityResult Não
ódio contentFilterSeverityResult Não
self_harm contentFilterSeverityResult Não
palavrões contentFilterDetectedResult Não
fuga de presos contentFilterDetectedResult Não
custom_blocklists contentFilterDetailedResults Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. Não

chatCompletionsRequestCommon

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.
Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. Não
max_tokens integer O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Isto não é compatível com os modelos da série o1. Não 4096
max_completion_tokens integer Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Não
Utilizador string Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. Não

createCompletionRequest

Nome Tipo Descrição Necessário Predefinição
Prompt cadeia de caracteres ou matriz O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token.

Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento.
Sim
best_of integer Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.

Quando usado com no , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
echo boolean Echo de volta o prompt, além da conclusão
Não False
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.

Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado.
Não Nenhuma
Logprobs integer Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.

O valor máximo para logprobs é 5.
Não Nenhuma
max_tokens integer O número máximo de tokens que podem ser gerados na conclusão.

A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo.
Não 16
n integer Quantas finalizações gerar para cada prompt.

Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop.
Não 1
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
sementes integer Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.

O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end.
Não
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada.
Não
transmissão em fluxo boolean Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Não False
sufixo string O sufixo que vem após a conclusão do texto inserido.

Este parâmetro só é suportado para gpt-3.5-turbo-instruct.
Não Nenhuma
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não

createCompletionResponse

Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).

Nome Tipo Descrição Necessário Predefinição
id string Um identificador exclusivo para a conclusão. Sim
escolhas matriz A lista de opções de conclusão que o modelo gerou para o prompt de entrada. Sim
criado integer O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. Sim
modelo string O modelo utilizado para a conclusão. Sim
prompt_filter_results promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. Não
system_fingerprint string Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo.
Não
objeto enumeração O tipo de objeto, que é sempre "text_completion"
Valores possíveis: text_completion
Sim
ativa conclusãoUso Estatísticas de utilização do pedido de conclusão. Não

createChatCompletionRequest

Nome Tipo Descrição Necessário Predefinição
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.

Geralmente, recomendamos alterar isso ou top_p mas não ambos.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente, recomendamos alterar isso ou temperature mas não ambos.
Não 1
transmissão em fluxo boolean Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem.
Não False
parar cadeia de caracteres ou matriz Até 4 sequências onde a API deixará de gerar mais tokens.
Não
max_tokens integer O número máximo de tokens que podem ser gerados na conclusão do chat.

O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo.
Não
max_completion_tokens integer Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. Não
presence_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos.
Não 0
frequency_penalty Número Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente.
Não 0
logit_bias objeto Modifique a probabilidade de tokens especificados aparecerem na conclusão.

Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante.
Não Nenhuma
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos.
Não
mensagens matriz Uma lista de mensagens que compõem a conversa até agora. Sim
data_sources matriz As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam.
Esta especificação adicional só é compatível com o Azure OpenAI.
Não
Logprobs boolean Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message. Não False
top_logprobs integer Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. Não
n integer Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. Não 1
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106.

Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não
sementes integer Este recurso está em versão Beta.
Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.
O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end.
Não
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso apenas quando definir stream: true.
Não Nenhuma
ferramentas matriz Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas.
Não
tool_choice chatCompletionToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. Não
function_call string ou chatCompletionFunctionCallOption Preterido em favor de tool_choice.

Controla qual (se houver) função é chamada pelo modelo.
none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.
auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes.
Não
functions matriz Preterido em favor de tools.

Uma lista de funções para as quais o modelo pode gerar entradas JSON.
Não

chatCompletionFunctions

Nome Tipo Descrição Necessário Predefinição
descrição string Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome string O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não

chatCompletionFunctionCallOption

Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.

Nome Tipo Descrição Necessário Predefinição
nome string O nome da função a ser chamada. Sim

chatCompletionFunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato.

Nenhuma propriedade definida para este componente.

chatCompletionRequestMessage

Este componente pode ser um dos seguintes:

chatCompletionRequestSystemMessage

Nome Tipo Descrição Necessário Predefinição
content cadeia de caracteres ou matriz O conteúdo da mensagem do sistema. Sim
função enumeração O papel do autor das mensagens, neste caso system.
Valores possíveis: sistema
Sim
nome string Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não

chatCompletionRequestUserMessage

Nome Tipo Descrição Necessário Predefinição
content cadeia de caracteres ou matriz O conteúdo da mensagem do usuário.
Sim
função enumeração O papel do autor das mensagens, neste caso user.
Valores possíveis: user
Sim
nome string Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não

chatCompletionRequestAssistantMessage

Nome Tipo Descrição Necessário Predefinição
content cadeia de caracteres ou matriz O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado.
Não
recusa string A mensagem de recusa por parte do assistente. Não
função enumeração O papel do autor das mensagens, neste caso assistant.
Valores possíveis: assistente
Sim
nome string Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. Não
tool_calls chatCompletionMessageToolCalls As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não

Imóveis para function_call

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

chatCompletionRequestToolMessage

Nome Tipo Descrição Necessário Predefinição
função enumeração O papel do autor das mensagens, neste caso tool.
Valores possíveis: ferramenta
Sim
content cadeia de caracteres ou matriz O conteúdo da mensagem da ferramenta. Sim
tool_call_id string Chamada de ferramenta à qual esta mensagem está respondendo. Sim

chatCompletionRequestFunctionMessage

Nome Tipo Descrição Necessário Predefinição
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Sim
content string O conteúdo da mensagem de função. Sim
nome string O nome da função a ser chamada. Sim

chatCompletionRequestSystemMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestUserMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestAssistantMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestToolMessageContentPart

Este componente pode ser um dos seguintes:

chatCompletionRequestMessageContentPartText

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: texto
Sim
texto string O conteúdo do texto. Sim

chatCompletionRequestMessageContentPartImage

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: image_url
Sim
image_url objeto Sim

Imóveis para image_url

url

Nome Tipo Description Predefinido
url string Um URL da imagem ou os dados de imagem codificados em base64.

detalhe

Nome Tipo Description Predefinido
detalhe string Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. auto

chatCompletionRequestMessageContentPartRefusal

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da parte de conteúdo.
Valores possíveis: recusa
Sim
recusa string A mensagem de recusa gerada pelo modelo. Sim

azureChatExtensionConfiguration

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim

azureChatExtensionType

Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.

Descrição: uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: AzureChatExtensionType

Valores de Enum:

valor Description
azure_search Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI.
azure_cosmos_db Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI.
elasticsearch Representa o uso do índice Elasticsearch® como uma extensão de chat do Azure OpenAI.
mongo_db Representa o uso do Mongo DB como uma extensão de chat do Azure OpenAI.
pinha Representa o uso do índice Pinecone como uma extensão de chat do Azure OpenAI.

azureSearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureSearchChatExtensionParameters Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. Não

azureSearchChatExtensionParameters

Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
max_search_queries integer O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
allow_partial_result boolean Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não False
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
endpoint string O caminho de ponto de extremidade absoluto para o recurso de Pesquisa do Azure a ser usado. Sim
index_name string O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. Sim
fields_mapping azureSearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. Não
query_type azureSearchQueryType O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
semantic_configuration string A configuração semântica adicional para a consulta. Não
filtrar string Filtro de pesquisa. Não
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não

azureSearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não
image_vector_fields matriz Os nomes dos campos que representam dados vetoriais de imagem. Não

azureSearchQueryType

O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Descrição: O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: AzureSearchQueryType

Valores de Enum:

valor Description
simples Representa o analisador de consulta simples padrão.
semânticos Representa o analisador de consulta semântica para modelagem semântica avançada.
vetor Representa a pesquisa vetorial sobre dados computados.
vector_simple_hybrid Representa uma combinação da estratégia de consulta simples com dados vetoriais.
vector_semantic_hybrid Representa uma combinação de pesquisa semântica e consulta de dados vetoriais.

azureCosmosDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros azureCosmosDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para
MongoDB vCore.
Não

azureCosmosDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataConnectionStringAuthenticationOptions As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
max_search_queries integer O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
allow_partial_result boolean Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não False
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
database_name string O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
container_name string O nome do contêiner de recursos do Azure Cosmos DB. Sim
index_name string O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. Sim
fields_mapping azureCosmosDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não

azureCosmosDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

elasticsearchChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros elasticsearchChatExtensionParameters Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. Não

elasticsearchChatExtensionParameters

Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
max_search_queries integer O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
allow_partial_result boolean Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não False
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
endpoint string O ponto de extremidade do Elasticsearch®. Sim
index_name string O nome do índice do Elasticsearch®. Sim
fields_mapping elasticsearchIndexFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. Não
query_type elasticsearchQueryType O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. Não
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource Não
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não

elasticsearchIndexFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Não
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Não

elasticsearchQueryType

O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Descrição: o tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.

Tipo: string

Predefinido:

Nome do Enum: ElasticsearchQueryType

Valores de Enum:

valor Description
simples Representa o analisador de consulta simples padrão.
vetor Representa a pesquisa vetorial sobre dados computados.

mongoDBChatExtensionConfiguration

Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros mongoDBChatExtensionParameters Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB. Não

mongoDBChatExtensionParameters

Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataUsernameAndPasswordAuthenticationOptions As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
max_search_queries integer O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
allow_partial_result boolean Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não False
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
endpoint string O nome do ponto de extremidade do cluster Mongo DB. Sim
database_name string O nome do banco de dados Mongo DB. Sim
collection_name string O nome da Coleção Mongo DB. Sim
app_name string O nome do aplicativo Mongo DB. Sim
index_name string O nome do índice Mongo DB. Sim
fields_mapping mongoDBFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. Sim
embedding_dependency onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource Sim
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não

mongoDBFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não
vector_fields matriz Os nomes dos campos que representam dados vetoriais. Sim

pineconeChatExtensionConfiguration

Uma representação específica de opções configuráveis para Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo azureChatExtensionType Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Sim
parâmetros pineconeChatExtensionParameters Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone. Não

pineconeChatExtensionParameters

Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone.

Nome Tipo Descrição Necessário Predefinição
autenticação onYourDataApiKeyAuthenticationOptions As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. Sim
top_n_documents integer O número superior configurado de documentos a serem apresentados para a consulta configurada. Não
max_search_queries integer O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. Não
allow_partial_result boolean Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. Não False
in_scope boolean Se as consultas devem ser restritas ao uso de dados indexados. Não
rigor integer O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. Não
ambiente string O nome do ambiente de Pinecone. Sim
index_name string O nome do índice do banco de dados Pinecone. Sim
fields_mapping pineconeFieldMappingOptions Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. Sim
embedding_dependency onYourDataDeploymentNameVectorizationSource Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que é baseada
em um nome de implantação de modelo de incorporação interna no mesmo recurso OpenAI do Azure.
Sim
include_contexts matriz As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent. Não

pineconeFieldMappingOptions

Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.

Nome Tipo Descrição Necessário Predefinição
title_field string O nome do campo de índice a ser usado como título. Não
url_field string O nome do campo de índice a ser usado como URL. Não
filepath_field string O nome do campo de índice a ser usado como um caminho de arquivo. Não
content_fields matriz Os nomes dos campos de índice que devem ser tratados como conteúdo. Sim
content_fields_separator string O padrão separador que os campos de conteúdo devem usar. Não

onYourDataAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataContextProperty

A propriedade context.

Descrição: A propriedade context.

Tipo: string

Predefinido:

Nome do Enum: OnYourDataContextProperty

Valores de Enum:

valor Description
Citações A citations propriedade.
intenção A intent propriedade.
all_retrieved_documents A all_retrieved_documents propriedade.

onYourDataAuthenticationType

Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Descrição: Os tipos de autenticação suportados com o Azure OpenAI On Your Data.

Tipo: string

Predefinido:

Nome do Enum: OnYourDataAuthenticationType

Valores de Enum:

valor Description
api_key Autenticação via chave API.
connection_string Autenticação via cadeia de conexão.
key_and_key_id Autenticação através de chave e par de ID de chave.
encoded_api_key Autenticação via chave de API codificada.
access_token Autenticação via token de acesso.
system_assigned_managed_identity Autenticação através da identidade gerenciada atribuída pelo sistema.
user_assigned_managed_identity Autenticação através da identidade gerenciada atribuída pelo usuário.
username_and_password Autenticação via username e password.

onYourDataApiKeyAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
key string A chave de API a ser usada para autenticação. Não

onYourDataConnectionStringAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
connection_string string A cadeia de conexão a ser usada para autenticação. Não

onYourDataKeyAndKeyIdAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave Elasticsearch e um par de ID de chave.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
key string A chave Elasticsearch a ser usada para autenticação. Não
key_id string O ID da chave do Elasticsearch a ser usado para autenticação. Não

onYourDataEncodedApiKeyAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API codificada do Elasticsearch.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
encoded_api_key string A chave de API codificada do Elasticsearch a ser usada para autenticação. Não

onYourDataAccessTokenAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar o token de acesso.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
access_token string O token de acesso a ser usado para autenticação. Não

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim

onYourDataUserAssignedManagedIdentityAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
managed_identity_resource_id string A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. Não

onYourDataUsernameAndPasswordAuthenticationOptions

As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataAuthenticationType Os tipos de autenticação suportados com o Azure OpenAI On Your Data. Sim
nome de utilizador string O nome de usuário a ser usado para autenticação. Não
password string A senha. para usar para autenticação. Não

onYourDataVectorizationSource

Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim

onYourDataVectorizationSourceType

Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.

Descrição: Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.

Tipo: string

Predefinido:

Nome do Enum: OnYourDataVectorizationSourceType

Valores de Enum:

valor Description
endpoint Representa a vetorização executada por chamadas de serviço público para um modelo de incorporação do Azure OpenAI.
deployment_name Representa um nome de implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas
On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, o que habilita o vetor
pesquise mesmo em redes privadas.
integrado Representa o vetorizador integrado definido no recurso de pesquisa.
model_id Representa um ID de modelo de incorporação específico, conforme definido no serviço de pesquisa.
Atualmente suportado apenas pelo Elasticsearch®.

onYourDataEndpointVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma chamada de ponto de extremidade do Azure OpenAI para incorporações.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
endpoint string Especifica a URL do ponto de extremidade do recurso a partir da qual as incorporações devem ser recuperadas. Deve ser no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings. O parâmetro de consulta api-version não é permitido. Não
autenticação onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions Não
dimensões integer O número de dimensões que as incorporações devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. Não

onYourDataDeploymentNameVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo de incorporação interno no mesmo recurso do Azure OpenAI.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
deployment_name string Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. Não
dimensões integer O número de dimensões que as incorporações devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. Não

onYourDataIntegratedVectorizationSource

Representa o vetorizador integrado definido no recurso de pesquisa.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim

onYourDataModelIdVectorizationSource

Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma ID de modelo de serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®.

Nome Tipo Descrição Necessário Predefinição
tipo onYourDataVectorizationSourceType Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Sim
model_id string Especifica o ID do modelo a ser usado para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. Não

azureChatExtensionsMessageContext

Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.

Nome Tipo Descrição Necessário Predefinição
Citações matriz O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. Não
intenção string A intenção detetada a partir do histórico de bate-papo, usado para passar para o próximo turno para transportar o contexto. Não
all_retrieved_documents matriz Todos os documentos recuperados. Não

citação

informações de citação para uma mensagem de resposta de conclusão de chat.

Nome Tipo Descrição Necessário Predefinição
content string O conteúdo da citação. Sim
title string O título da citação. Não
url string O URL da citação. Não
caminho do arquivo string O caminho do arquivo da citação. Não
chunk_id string O ID do bloco da citação. Não
rerank_score Número A pontuação de reclassificação do documento recuperado. Não

recuperadoDocumento

O documento recuperado.

Nome Tipo Descrição Necessário Predefinição
content string O conteúdo da citação. Sim
title string O título da citação. Não
url string O URL da citação. Não
caminho do arquivo string O caminho do arquivo da citação. Não
chunk_id string O ID do bloco da citação. Não
rerank_score Número A pontuação de reclassificação do documento recuperado. Não
search_queries matriz As consultas de pesquisa usadas para recuperar o documento. Não
data_source_index integer O índice da fonte de dados. Não
original_search_score Número A pontuação de pesquisa original do documento recuperado. Não
filter_reason filterReason O motivo de filtragem do documento recuperado. Não

filterReason

O motivo de filtragem do documento recuperado.

Descrição: O motivo de filtragem do documento recuperado.

Tipo: string

Predefinido:

Nome do Enum: FilterReason

Valores de Enum:

valor Description
score O documento é filtrado pelo limite de pontuação de pesquisa original definido por strictness configure.
reclassificação O documento não é filtrado pelo limite de pontuação de pesquisa original, mas é filtrado por pontuação de reclassificação e top_n_documents configuração.

chatCompletionMessageToolCall

Nome Tipo Descrição Necessário Predefinição
id string O ID da chamada da ferramenta. Sim
tipo toolCallType O tipo de chamada de ferramenta, neste caso function. Sim
function objeto A função que o modelo chamou. Sim

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

toolCallType

O tipo de chamada de ferramenta, neste caso function.

Descrição: O tipo de chamada da ferramenta, neste caso function.

Tipo: string

Predefinido:

Nome do Enum: ToolCallType

Valores de Enum:

valor Description
function O tipo de chamada de ferramenta é função.

chatCompletionRequestMessageTool

Nome Tipo Descrição Necessário Predefinição
tool_call_id string Chamada de ferramenta à qual esta mensagem está respondendo. Não
content string O conteúdo da mensagem. Não

chatCompletionRequestMessageFunction

Nome Tipo Descrição Necessário Predefinição
função enumeração O papel do autor das mensagens, neste caso function.
Valores possíveis: função
Não
nome string O conteúdo da mensagem. Não
content string O conteúdo da mensagem. Não

createChatCompletionResponse

Representa uma resposta de conclusão de chat retornada por modelo, com base na entrada fornecida.

Nome Tipo Descrição Necessário Predefinição
id string Um identificador exclusivo para a conclusão do chat. Sim
prompt_filter_results promptFilterResults A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. Não
escolhas matriz Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. Sim
criado integer O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Sim
modelo string O modelo usado para a conclusão do chat. Sim
system_fingerprint string Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.

Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo.
Não
objeto enumeração O tipo de objeto, que é sempre chat.completion.
Valores possíveis: chat.completion
Sim
ativa conclusãoUso Estatísticas de utilização do pedido de conclusão. Não

createChatCompletionStreamResponse

Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.

Nome Tipo Descrição Necessário Predefinição
id string Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. Sim
escolhas matriz Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1.
Sim
criado integer O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. Sim
modelo string O modelo para gerar a conclusão. Sim
system_fingerprint string Essa impressão digital representa a configuração de back-end com a qual o modelo é executado.
Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo.
Não
objeto enumeração O tipo de objeto, que é sempre chat.completion.chunk.
Valores possíveis: chat.completion.chunk
Sim

chatCompletionStreamResponseDelta

Um delta de conclusão de chat gerado por respostas de modelo transmitidas.

Nome Tipo Descrição Necessário Predefinição
content string O conteúdo da mensagem de bloco. Não
function_call objeto Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
tool_calls matriz Não
função enumeração O papel do autor desta mensagem.
Valores possíveis: sistema, utilizador, assistente, ferramenta
Não
recusa string A mensagem de recusa gerada pelo modelo. Não

Imóveis para function_call

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

chatCompletionMessageToolCallChunk

Nome Tipo Descrição Necessário Predefinição
index integer Sim
id string O ID da chamada da ferramenta. Não
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Não
function objeto Não

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função.

chatCompletionStreamOptions

Opções para resposta de streaming. Defina isso apenas quando definir stream: true.

Nome Tipo Descrição Necessário Predefinição
include_usage boolean Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo.
Não

chatCompletionChoiceLogProbs

Registre informações de probabilidade para a escolha.

Nome Tipo Descrição Necessário Predefinição
content matriz Uma lista de tokens de conteúdo de mensagem com informações de probabilidade de log. Sim
recusa matriz Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. Não

chatCompletionTokenLogprob

Nome Tipo Descrição Necessário Predefinição
token string O token. Sim
Logprob Número A probabilidade de log desse token. Sim
bytes matriz Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. Sim
top_logprobs matriz Lista dos tokens mais prováveis e sua probabilidade de log, nesta posição de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. Sim

chatCompletionResponseMessage

Uma mensagem de conclusão do chat gerada pelo modelo.

Nome Tipo Descrição Necessário Predefinição
função chatCompletionResponseMessageRole O papel do autor da mensagem de resposta. Sim
recusa string A mensagem de recusa gerada pelo modelo. Sim
content string O conteúdo da mensagem. Sim
tool_calls matriz As chamadas de ferramenta geradas pelo modelo, como chamadas de função. Não
function_call chatCompletionFunctionCall Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. Não
Contexto azureChatExtensionsMessageContext Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas
na geração de uma resposta correspondente de conclusão de chat. Essas informações de contexto só são preenchidas quando
usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente.
Não

chatCompletionResponseMessageRole

O papel do autor da mensagem de resposta.

Descrição: a função do autor da mensagem de resposta.

Tipo: string

Predefinido:

Valores de Enum:

  • assistente

chatCompletionToolChoiceOption

Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes.

Este componente pode ser um dos seguintes:

chatCompletionNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Sim
function objeto Sim

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

ParallelToolCalls

Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.

Nenhuma propriedade definida para este componente.

chatCompletionMessageToolCalls

As chamadas de ferramenta geradas pelo modelo, como chamadas de função.

Nenhuma propriedade definida para este componente.

chatCompletionFunctionCall

Preterido e substituído por tool_calls. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.

Nome Tipo Descrição Necessário Predefinição
nome string O nome da função a ser chamada. Sim
Argumentos string Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. Sim

conclusãoUso

Estatísticas de utilização do pedido de conclusão.

Nome Tipo Descrição Necessário Predefinição
prompt_tokens integer Número de tokens no prompt. Sim
completion_tokens integer Número de tokens na conclusão gerada. Sim
total_tokens integer Número total de tokens usados na solicitação (prompt + conclusão). Sim
prompt_tokens_details objeto Detalhes dos tokens de prompt. Não
completion_tokens_details objeto Detalhamento dos tokens usados em uma conclusão. Não

Imóveis para prompt_tokens_details

cached_tokens

Nome Tipo Description Predefinido
cached_tokens integer O número de tokens de prompt armazenados em cache.

Imóveis para completion_tokens_details

reasoning_tokens

Nome Tipo Description Predefinido
reasoning_tokens integer Tokens gerados pelo modelo para raciocínio.

chatCompletionTool

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo da ferramenta. Atualmente, apenas function é suportado.
Valores possíveis: função
Sim
function FunctionObject Sim

FunctionParameters

Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.

Nenhuma propriedade definida para este componente.

FunctionObject

Nome Tipo Descrição Necessário Predefinição
descrição string Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. Não
nome string O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. Sim
parâmetros FunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

Omitir parameters define uma função com uma lista de parâmetros vazia.
Não
estrito boolean Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. Não False

ResponseFormatText

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo de formato de resposta que está sendo definido: text
Valores possíveis: texto
Sim

ResponseFormatJsonObject

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo de formato de resposta que está sendo definido: json_object
Valores possíveis: json_object
Sim

ResponseFormatJsonSchemaSchema

O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

Nenhuma propriedade definida para este componente.

ResponseFormatJsonSchema

Nome Tipo Descrição Necessário Predefinição
tipo enumeração O tipo de formato de resposta que está sendo definido: json_schema
Valores possíveis: json_schema
Sim
json_schema objeto Sim

Imóveis para json_schema

descrição

Name Tipo Description Predefinido
descrição string Uma descrição do formato de resposta, usado pelo modelo para determinar como responder no formato.

nome

Nome Tipo Description Predefinido
nome string O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.

esquema

Nome Tipo Description Predefinido
esquema ResponseFormatJsonSchemaSchema O esquema para o formato de resposta, descrito como um objeto de esquema JSON.

estrito

Nome Tipo Description Predefinido
estrito boolean Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true. False

chatCompletionChoiceCommon

Nome Tipo Descrição Necessário Predefinição
index integer Não
finish_reason string Não

createTranslationRequest

Pedido de tradução.

Nome Tipo Descrição Necessário Predefinição
ficheiro string O arquivo de áudio a ser traduzido. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0

audioResposta

Resposta de tradução ou transcrição quando response_format foi json

Nome Tipo Descrição Necessário Predefinição
texto string Texto traduzido ou transcrito. Sim

audioVerboseResponse

Resposta de tradução ou transcrição quando response_format foi verbose_json

Nome Tipo Descrição Necessário Predefinição
texto string Texto traduzido ou transcrito. Sim
tarefa string Tipo de tarefa de áudio. Não
idioma string Idioma. Não
duration Número Duração. Não
segmentos matriz Não
Palavras matriz Não

audioResponseFormat

Define o formato da saída.

Descrição: Define o formato da saída.

Tipo: string

Predefinido:

Valores de Enum:

  • json
  • texto
  • SRT
  • verbose_json
  • VTT

createTranscriptionRequest

Pedido de transcrição.

Nome Tipo Descrição Necessário Predefinição
ficheiro string O objeto do arquivo de áudio a ser transcrito. Sim
Prompt string Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. Não
response_format audioResponseFormat Define o formato da saída. Não
temperatura Número A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. Não 0
idioma string O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. Não
timestamp_granularities[] matriz As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word, ou segment. Nota: Não há latência adicional para carimbos de data/hora de segmento, mas a geração de carimbos de data/hora de palavras incorre em latência adicional. Não ['segmento']

audioSegmento

Segmento de transcrição ou tradução.

Nome Tipo Descrição Necessário Predefinição
id integer Identificador de segmento. Não
procurar Número Deslocamento do segmento. Não
iniciar Número Compensação de início de segmento. Não
end Número Compensação final do segmento. Não
texto string Segmentar texto. Não
fichas matriz Fichas do texto. Não
temperatura Número Temperatura. Não
avg_logprob Número Probabilidade média de log. Não
compression_ratio Número Taxa de compressão. Não
no_speech_prob Número Probabilidade de 'não falar'. Não

audioWord

Transcrição ou tradução de palavras.

Nome Tipo Descrição Necessário Predefinição
palavra string Word Não
iniciar Número Deslocamento de início do Word. Não
end Número Compensação final do Word. Não

createSpeechRequest

Pedido de voz.

Nome Tipo Descrição Necessário Predefinição
entrada string O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. Sim
voice enumeração A voz a ser usada para síntese de fala.
Valores possíveis: liga, eco, fábula, ônix, nova, brilho
Sim
response_format enumeração O formato para sintetizar o áudio.
Valores possíveis: mp3, opus, aac, flac, wav, pcm
Não
velocidade Número A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0. 1.0 é a predefinição. Não 1.0

qualidade de imagem

A qualidade da imagem que será gerada.

Descrição: A qualidade da imagem que será gerada.

Tipo: string

Padrão: padrão

Enum Nome: Qualidade

Valores de Enum:

valor Description
padrão A qualidade padrão cria imagens com qualidade padrão.
ALTA A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem.

imagesResponseFormat

O formato em que as imagens geradas são retornadas.

Descrição: O formato no qual as imagens geradas são retornadas.

Tipo: string

Padrão: url

Nome do Enum: ImagesResponseFormat

Valores de Enum:

valor Description
url O URL que fornece acesso temporário para baixar as imagens geradas.
b64_json As imagens geradas são retornadas como cadeia de caracteres codificada base64.

imageSize

O tamanho das imagens geradas.

Descrição: O tamanho das imagens geradas.

Tipo: string

Padrão: 1024x1024

Nome do Enum: Tamanho

Valores de Enum:

valor Description
256x256 O tamanho desejado da imagem gerada é 256x256 pixels. Apenas suportado para dall-e-2.
512 x 512 O tamanho desejado da imagem gerada é 512x512 pixels. Apenas suportado para dall-e-2.
1792x1024 O tamanho desejado da imagem gerada é 1792x1024 pixels. Apenas suportado para dall-e-3.
1024x1792 O tamanho desejado da imagem gerada é 1024x1792 pixels. Apenas suportado para dall-e-3.
1024 x 1024 O tamanho desejado da imagem gerada é 1024x1024 pixels.

imageStyle

O estilo das imagens geradas.

Descrição: O estilo das imagens geradas.

Tipo: string

Padrão: vívido

Nome do Enum: Estilo

Valores de Enum:

valor Description
vívido Vivid cria imagens que são hiper-realistas e dramáticas.
naturais Natural cria imagens mais naturais e menos hiper-realistas.

imagemGeraçõesPedido

Nome Tipo Descrição Necessário Predefinição
Prompt string Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4000 caracteres. Sim
n integer O número de imagens a gerar. Não 1
size imageSize O tamanho das imagens geradas. Não 1024 x 1024
response_format imagesResponseFormat O formato em que as imagens geradas são retornadas. Não url
Utilizador string Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. Não
qualidade qualidade de imagem A qualidade da imagem que será gerada. Não padrão
style imageStyle O estilo das imagens geradas. Não vívido

generateImagesResponse

Nome Tipo Descrição Necessário Predefinição
criado integer O carimbo de data/hora unix quando a operação foi criada. Sim
dados matriz Os dados de resultado da operação, se bem-sucedida Sim

imageResult

O url da imagem ou imagem codificada, se bem-sucedida, e um erro de outra forma.

Nome Tipo Descrição Necessário Predefinição
url string O url da imagem. Não
b64_json string A imagem codificada base64 Não
content_filter_results dalleContentFilterResults Informações sobre os resultados da filtragem de conteúdo. Não
revised_prompt string O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. Não
prompt_filter_results dalleFilterResultados Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. Não

linha

Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.

Nome Tipo Descrição Necessário Predefinição
texto string Sim
vãos matriz Uma matriz de extensões que representam objetos detetados e suas informações de caixa delimitadora. Sim

Extensão

Um objeto span que representa um objeto detetado e suas informações de caixa delimitadora.

Nome Tipo Descrição Necessário Predefinição
texto string O conteúdo de texto da extensão que representa o objeto detetado. Sim
offset integer O deslocamento de caracteres dentro do texto onde a extensão começa. Esse deslocamento é definido como a posição do primeiro caractere da extensão, contando desde o início do texto como pontos de código Unicode. Sim
length integer O comprimento da extensão em caracteres, medido em pontos de código Unicode. Sim
polígono matriz Uma matriz de objetos que representa pontos no polígono que encerra o objeto detetado. Sim

runCompletionUsage

Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.).

Nome Tipo Descrição Necessário Predefinição
completion_tokens integer Número de tokens de conclusão usados ao longo da execução. Sim
prompt_tokens integer Número de tokens de prompt usados ao longo da execução. Sim
total_tokens integer Número total de tokens usados (prompt + conclusão). Sim

runStepCompletionUsage

Estatísticas de uso relacionadas à etapa de execução. Esse valor será null enquanto o status da etapa de execução for in_progress.

Nome Tipo Descrição Necessário Predefinição
completion_tokens integer Número de tokens de conclusão usados ao longo da etapa de execução. Sim
prompt_tokens integer Número de tokens de prompt usados ao longo da etapa de execução. Sim
total_tokens integer Número total de tokens usados (prompt + conclusão). Sim

assistentesApiResponseFormatOption

Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.

Este componente pode ser um dos seguintes:

assistentesApiResponseFormat

Um objeto que descreve a saída esperada do modelo. Se json_object apenas function o tipo tools tiver permissão para ser passado para a Execução. Se text o modelo pode retornar texto ou qualquer valor necessário.

Nome Tipo Descrição Necessário Predefinição
tipo string Deve ser um dos text ou json_object. Não texto

digite Enum: AssistantsApiResponseFormat

valor Description
texto
json_object

assistantObject

Representa um assistant que pode chamar o modelo e usar ferramentas.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre assistant. Sim
created_at integer O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. Sim
nome string O nome do assistente. O comprimento máximo é de 256 caracteres.
Sim
descrição string A descrição do assistente. O comprimento máximo é de 512 caracteres.
Sim
modelo string ID do modelo a utilizar. Você pode usar a API Listar modelos para ver todos os modelos disponíveis.
Sim
instruções string As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Sim
ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, file_search, ou function.
Sim []
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.

objeto Enum: AssistantObjectType

valor Description
assistente O tipo de objeto, que é sempre assistente

createAssistantRequest

Nome Tipo Descrição Necessário Predefinição
modelo Sim
nome string O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
descrição string A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
instruções string As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres.
Não
ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.
vector_stores matriz Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.

modificarAssistantRequest

Nome Tipo Descrição Necessário Predefinição
modelo Não
nome string O nome do assistente. O comprimento máximo é de 256 caracteres.
Não
descrição string A descrição do assistente. O comprimento máximo é de 512 caracteres.
Não
instruções string As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres.
Não
ferramentas matriz Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter, retrieval, ou function.
Não []
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.

deleteAssistantResponse

Nome Tipo Descrição Necessário Predefinição
id string Sim
eliminada boolean Sim
objeto string Sim

objeto Enum: DeleteAssistantResponseState

valor Description
assistente.excluído

listAssistantsResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

assistantToolsCode

Nome Tipo Descrição Necessário Predefinição
tipo string O tipo de ferramenta que está sendo definido: code_interpreter Sim

tipo Enum: assistantToolsCodeType

valor Description
code_interpreter

assistantToolsFileSearch

Nome Tipo Descrição Necessário Predefinição
tipo string O tipo de ferramenta que está sendo definido: file_search Sim
file_search objeto Substitui a ferramenta de pesquisa de arquivos. Não

max_num_results

Nome Tipo Description Predefinido
max_num_results integer O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve situar-se entre 1 e 50, inclusive.

Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados.

digite Enum: assistantToolsFileSearchType

valor Description
file_search

assistantToolsFileSearchTypeOnly

Nome Tipo Descrição Necessário Predefinição
tipo string O tipo de ferramenta que está sendo definido: file_search Sim

digite Enum: assistantToolsFileSearchType

valor Description
file_search

assistantToolsFunction

Nome Tipo Descrição Necessário Predefinição
tipo string O tipo de ferramenta que está sendo definido: function Sim
function objeto A definição da função. Sim

Propriedades para função

descrição

Name Tipo Description Predefinido
descrição string Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função.

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64.

parâmetros

Nome Tipo Description Predefinido
parâmetros chatCompletionFunctionParameters Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.

digite Enum: assistantToolsFunction

valor Description
function

truncationObject

Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.

Nome Tipo Descrição Necessário Predefinição
tipo string A estratégia de truncamento a ser usada para o thread. A predefinição é auto. Se definido como last_messages, o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto, as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens. Sim
last_messages integer O número de mensagens mais recentes do thread ao construir o contexto para a execução. Não

type Enum: TruncationType

valor Description
auto
last_messages

assistentesApiToolChoiceOption

Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta. Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.

Este componente pode ser um dos seguintes:

assistentesNamedToolChoice

Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.

Nome Tipo Descrição Necessário Predefinição
tipo string O tipo da ferramenta. Se type for function, o nome da função deve ser definido Sim
function objeto Não

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função a ser chamada.

type Enum: AssistantsNamedToolChoiceType

valor Description
function
code_interpreter
file_search

runObject

Representa uma execução executada em um thread.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre thread.run. Sim
created_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução foi criada. Sim
thread_id string A ID do thread que foi executado como parte desta execução. Sim
assistant_id string O ID do assistente usado para a execução desta execução. Sim
estado string O status da execução, que pode ser , , , , cancelling, cancelledfailed, completed, ou expired. requires_actionin_progressqueued Sim
required_action objeto Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. Sim
last_error objeto O último erro associado a esta execução. Será null se não houver erros. Sim
expires_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. Sim
started_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. Sim
cancelled_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução foi cancelada. Sim
failed_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. Sim
completed_at integer O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. Sim
incomplete_details objeto Detalhes sobre o motivo pelo qual a execução está incompleta. Será null se a execução não estiver incompleta. Sim
modelo string O modelo que o assistente usou para esta execução. Sim
instruções string As instruções que o assistente usou para esta execução. Sim
ferramentas matriz A lista de ferramentas que o assistente usou para esta execução. Sim []
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim
ativa runCompletionUsage Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress, , queued, etc.). Sim
temperatura Número A temperatura de amostragem utilizada para este ensaio. Se não estiver definido, o padrão será 1. Não
top_p Número O valor de amostragem do núcleo utilizado para esta corrida. Se não estiver definido, o padrão será 1. Não
max_prompt_tokens integer O número máximo de tokens de prompt especificado para ter sido usado ao longo da execução.
Sim
max_completion_tokens integer O número máximo de tokens de conclusão especificado para ter sido usado ao longo da execução.
Sim
truncation_strategy truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Sim
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Sim
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Sim

Imóveis para required_action

tipo

Nome Tipo Description Predefinido
tipo string Por enquanto, isso é sempre submit_tool_outputs.

submit_tool_outputs

Nome Tipo Description Predefinido
tool_calls matriz Uma lista das chamadas de ferramentas relevantes.

Imóveis para last_error

code

Nome Tipo Description Predefinido
code string Um de server_error ou rate_limit_exceeded.

mensagem

Nome Tipo Description Predefinido
mensagem string Uma descrição do erro legível por humanos.

Imóveis para incomplete_details

reason

Nome Tipo Description Predefinido
reason string A razão pela qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução.

objeto Enum: runObjectType

valor Description
thread.run O tipo de objeto run que é sempre thread.run

status Enum: RunObjectStatus

valor Description
em fila O estado em fila
in_progress O Estado in_progress
requires_action O Estado required_action
Cancelamento O estado de cancelamento
cancelado O estado cancelado
com falhas O estado falhado
concluído O estado concluído
expirou O estado expirado

createRunRequest

Nome Tipo Descrição Necessário Predefinição
assistant_id string A ID do assistente a ser usado para executar essa execução. Sim
modelo string A ID de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
instruções string Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
additional_instructions string Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. Não
additional_messages matriz Adiciona mensagens adicionais ao thread antes de criar a execução. Não
ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
max_prompt_tokens integer O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
max_completion_tokens integer O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
truncation_strategy truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

listRunsResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

modifyRunRequest

Nome Tipo Descrição Necessário Predefinição
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

submitToolOutputsRunRequest

Nome Tipo Descrição Necessário Predefinição
tool_outputs matriz Uma lista de ferramentas para as quais os resultados estão sendo enviados. Sim
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não

runToolCallObject

Objetos de chamada de ferramenta

Nome Tipo Descrição Necessário Predefinição
id string O ID da chamada da ferramenta. Esse ID deve ser referenciado quando você envia as saídas da ferramenta usando as saídas da ferramenta Enviar para executar o ponto de extremidade. Sim
tipo string O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function. Sim
function objeto A definição da função. Sim

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos que o modelo espera que você passe para a função.

digite Enum: RunToolCallObjectType

valor Description
function

createThreadAndRunRequest

Nome Tipo Descrição Necessário Predefinição
assistant_id string A ID do assistente a ser usado para executar essa execução. Sim
thread createThreadRequest Não
modelo string O nome de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. Não
instruções string Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. Não
ferramentas matriz Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. Não
tool_resources objeto Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não
temperatura Número Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística.
Não 1
top_p Número Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

Geralmente recomendamos alterar esta ou a temperatura, mas não ambas.
Não 1
transmissão em fluxo boolean Se true, retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem.
Não
stream_options chatCompletionStreamOptions Opções para resposta de streaming. Defina isso apenas quando definir stream: true.
Não Nenhuma
max_prompt_tokens integer O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
max_completion_tokens integer O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete. Consulte incomplete_details para mais informações.
Não
truncation_strategy truncationObject Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. Não
tool_choice assistentesApiToolChoiceOption Controla qual (se houver) ferramenta é chamada pelo modelo.
none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta.
Não
parallel_tool_calls ParallelToolCalls Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. Não True
response_format assistentesApiResponseFormatOption Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106.

Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.

Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length", o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente.

threadObject

Representa um thread que contém mensagens.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre thread. Sim
created_at integer O carimbo de data/hora do Unix (em segundos) para quando o thread foi criado. Sim
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Sim
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.

objeto Enum: ThreadObjectType

valor Description
thread O tipo de objeto de thread que é sempre thread

createThreadRequest

Nome Tipo Descrição Necessário Predefinição
mensagens matriz Uma lista de mensagens para iniciar o thread. Não
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.
vector_stores matriz Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.

modificarThreadRequest

Nome Tipo Descrição Necessário Predefinição
tool_resources objeto Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial.
Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Imóveis para tool_resources

code_interpreter

Nome Tipo Description Predefinido
file_ids matriz Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta.
[]

file_search

Nome Tipo Description Predefinido
vector_store_ids matriz O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread.

deleteThreadResponse

Nome Tipo Descrição Necessário Predefinição
id string Sim
eliminada boolean Sim
objeto string Sim

objeto Enum: DeleteThreadResponseObjectState

valor Description
thread.excluído O estado do objeto de resposta de thread de exclusão que é thread.deleted

listThreadsResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

messageObject

Representa uma mensagem dentro de um thread.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre thread.message. Sim
created_at integer O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi criada. Sim
thread_id string o ID do thread ao qual esta mensagem pertence. Sim
estado string O status da mensagem, que pode ser , in_progressincompleteou completed. Sim
incomplete_details objeto Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. Sim
completed_at integer O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi concluída. Sim
incomplete_at integer O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi marcada como incompleta. Sim
função string A entidade que produziu a mensagem. Um de user ou assistant. Sim
content matriz O conteúdo da mensagem em matriz de texto e/ou imagens. Sim
assistant_id string Se aplicável, o ID do assistente autor desta mensagem. Sim
run_id string Se aplicável, a ID da execução associada à criação desta mensagem. Sim
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. Sim
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim

Imóveis para incomplete_details

reason

Nome Tipo Description Predefinido
reason string O motivo pelo qual a mensagem está incompleta.

objeto Enum: MessageObjectType

valor Description
thread.mensagem O tipo de objeto de mensagem que é thread.message

status Enum: MessageObjectStatus

valor Description
in_progress
incompleto
concluído

função Enum: MessageObjectRole

valor Description
Utilizador
assistente

messageDeltaObject

Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.

Nome Tipo Descrição Necessário Predefinição
id string O identificador da mensagem, que pode ser referenciado em pontos de extremidade da API. Sim
objeto string O tipo de objeto, que é sempre thread.message.delta. Sim
delta objeto O delta que contém os campos que foram alterados na mensagem. Sim

Propriedades para delta

função

Nome Tipo Description Predefinido
função string A entidade que produziu a mensagem. Um de user ou assistant.

content

Nome Tipo Description Predefinido
content matriz O conteúdo da mensagem em matriz de texto e/ou imagens.

objeto Enum: MessageDeltaObjectType

valor Description
thread.message.delta

createMessageRequest

Nome Tipo Descrição Necessário Predefinição
função string A função da entidade que está criando a mensagem. Os valores permitidos incluem:
- user: Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.
- assistant: Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa.
Sim
content string O conteúdo da mensagem. Sim
Anexos matriz Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

Enum da função: CreateMessageRequestRole

valor Description
Utilizador
assistente

modificarMessageRequest

Nome Tipo Descrição Necessário Predefinição
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

deleteMessageResponse

Nome Tipo Descrição Necessário Predefinição
id string Sim
eliminada boolean Sim
objeto string Sim

objeto Enum: DeleteMessageResponseObject

valor Description
thread.message.deleted O estado do objeto de resposta de mensagem de exclusão

listMessagesResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

messageContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre image_file. Sim
image_file objeto Sim

Imóveis para image_file

file_id

Nome Tipo Description Predefinido
file_id string O ID de arquivo da imagem no conteúdo da mensagem.

digite Enum: MessageContentImageFileObjectType

valor Description
image_file O tipo de arquivo de imagem de conteúdo da mensagem

messageContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre text. Sim
texto objeto Sim

Propriedades do texto

valor

Nome Tipo Description Predefinido
valor string Os dados que compõem o texto.

anotações

Nome Tipo Description Predefinido
anotações matriz

digite Enum: messageContentTextObjectType

valor Description
texto O texto do conteúdo da mensagem Tipo de objeto

messageContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "recuperação" para pesquisar arquivos.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre file_citation. Sim
texto string O texto no conteúdo da mensagem que precisa ser substituído. Sim
file_citation objeto Sim
start_index integer Sim
end_index integer Sim

Imóveis para file_citation

file_id

Nome Tipo Description Predefinido
file_id string O ID do arquivo específico do qual a citação é originada.

digite Enum: FileCitationObjectType

valor Description
file_citation O tipo de objeto de citação de arquivo

messageContentTextAnnotationsFilePathObject

Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre file_path. Sim
texto string O texto no conteúdo da mensagem que precisa ser substituído. Sim
file_path objeto Sim
start_index integer Sim
end_index integer Sim

Imóveis para file_path

file_id

Nome Tipo Description Predefinido
file_id string A ID do arquivo que foi gerado.

digite Enum: FilePathObjectType

valor Description
file_path O tipo de objeto de caminho de arquivo

messageDeltaContentImageFileObject

Faz referência a um arquivo de imagem no conteúdo de uma mensagem.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da parte de conteúdo na mensagem. Sim
tipo string Sempre image_file. Sim
image_file objeto Não

Imóveis para image_file

file_id

Nome Tipo Description Predefinido
file_id string O ID de arquivo da imagem no conteúdo da mensagem.

digite Enum: MessageDeltaContentImageFileObjectType

valor Description
image_file

messageDeltaContentTextObject

O conteúdo de texto que faz parte de uma mensagem.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da parte de conteúdo na mensagem. Sim
tipo string Sempre text. Sim
texto objeto Não

Propriedades do texto

valor

Nome Tipo Description Predefinido
valor string Os dados que compõem o texto.

anotações

Nome Tipo Description Predefinido
anotações matriz

digite Enum: MessageDeltaContentTextObjectType

valor Description
texto

messageDeltaContentTextAnnotationsFileCitationObject

Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Criado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da anotação na parte de conteúdo do texto. Sim
tipo string Sempre file_citation. Sim
texto string O texto no conteúdo da mensagem que precisa ser substituído. Não
file_citation objeto Não
start_index integer Não
end_index integer Não

Imóveis para file_citation

file_id

Nome Tipo Description Predefinido
file_id string O ID do arquivo específico do qual a citação é originada.

citação

Nome Tipo Description Predefinido
citação string A citação específica no arquivo.

digite Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType

valor Description
file_citation

messageDeltaContentTextAnnotationsFilePathObject

Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter ferramenta para gerar um arquivo.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da anotação na parte de conteúdo do texto. Sim
tipo string Sempre file_path. Sim
texto string O texto no conteúdo da mensagem que precisa ser substituído. Não
file_path objeto Não
start_index integer Não
end_index integer Não

Imóveis para file_path

file_id

Nome Tipo Description Predefinido
file_id string A ID do arquivo que foi gerado.

digite Enum: MessageDeltaContentTextAnnotationsFilePathObjectType

valor Description
file_path

runStepObject

Representa uma etapa na execução de uma execução.

Nome Tipo Descrição Necessário Predefinição
id string O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. Sim
objeto string O tipo de objeto, que é sempre assistant.run.step. Sim
created_at integer O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi criada. Sim
assistant_id string A ID do assistente associada à etapa de execução. Sim
thread_id string A ID do thread que foi executado. Sim
run_id string A ID da execução da qual esta etapa de execução faz parte. Sim
tipo string O tipo de etapa de execução, que pode ser ou message_creation tool_calls. Sim
estado string O status da execução, que pode ser in_progress, cancelled, failed, completed, ou expired. Sim
step_details runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject Os detalhes da etapa de execução. Sim
last_error objeto O último erro associado a esta etapa de execução. Será null se não houver erros. Sim
expired_at integer O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa é considerada expirada se a execução pai tiver expirado. Sim
cancelled_at integer O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. Sim
failed_at integer O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. Sim
completed_at integer O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. Sim
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim

Imóveis para last_error

code

Nome Tipo Description Predefinido
code string Um de server_error ou rate_limit_exceeded.

mensagem

Nome Tipo Description Predefinido
mensagem string Uma descrição do erro legível por humanos.

objeto Enum: RunStepObjectType

valor Description
assistente.run.step O tipo de objeto, que é sempre assistant.run.step

digite Enum: RunStepObjectType

valor Description
message_creation A etapa de execução message_creation
tool_calls A etapa de execução tool_calls

status Enum: RunStepObjectStatus

valor Description
in_progress O status de execução do in_progress
cancelado O status de execução cancelado
com falhas O status de execução cancelado
concluído O status de execução cancelado
expirou O status de execução cancelado

runStepDeltaObject

Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.

Nome Tipo Descrição Necessário Predefinição
id string O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. Sim
objeto string O tipo de objeto, que é sempre thread.run.step.delta. Sim
delta objeto O delta que contém os campos que foram alterados na etapa de execução. Sim

Propriedades para delta

step_details

Nome Tipo Description Predefinido
step_details runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject Os detalhes da etapa de execução.

objeto Enum: RunStepDeltaObjectType

valor Description
thread.run.step.delta

listRunStepsResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

runStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre message_creation. Sim
message_creation objeto Sim

Imóveis para message_creation

message_id

Nome Tipo Description Predefinido
message_id string A ID da mensagem que foi criada por esta etapa de execução.

digite Enum: RunStepDetailsMessageCreationObjectType

valor Description
message_creation

runStepDeltaStepDetailsMessageCreationObject

Detalhes da criação da mensagem pela etapa de execução.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre message_creation. Sim
message_creation objeto Não

Imóveis para message_creation

message_id

Nome Tipo Description Predefinido
message_id string A ID da mensagem que foi criada por esta etapa de execução.

digite Enum: RunStepDeltaStepDetailsMessageCreationObjectType

valor Description
message_creation

runStepDetailsToolCallsObject

Detalhes da chamada da ferramenta.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre tool_calls. Sim
tool_calls matriz Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, retrieval ou function.
Sim

digite Enum: RunStepDetailsToolCallsObjectType

valor Description
tool_calls

runStepDeltaStepDetailsToolCallsObject

Detalhes da chamada da ferramenta.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre tool_calls. Sim
tool_calls matriz Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter, file_search ou function.
Não

digite Enum: RunStepDeltaStepDetailsToolCallsObjectType

valor Description
tool_calls

runStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Nome Tipo Descrição Necessário Predefinição
id string O ID da chamada da ferramenta. Sim
tipo string O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Sim
code_interpreter objeto A definição de chamada da ferramenta Interpretador de Código. Sim

Imóveis para code_interpreter

input

Nome Tipo Description Predefinido
entrada string A entrada para a chamada da ferramenta Interpretador de Código.

saídas

Nome Tipo Description Predefinido
saídas matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente.

digite Enum: RunStepDetailsToolCallsCodeObjectType

valor Description
code_interpreter

runStepDeltaStepDetailsToolCallsCodeObject

Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
id string O ID da chamada da ferramenta. Não
tipo string O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. Sim
code_interpreter objeto A definição de chamada da ferramenta Interpretador de Código. Não

Imóveis para code_interpreter

input

Nome Tipo Description Predefinido
entrada string A entrada para a chamada da ferramenta Interpretador de Código.

saídas

Nome Tipo Description Predefinido
saídas matriz As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs) ou imagens (image). Cada um deles é representado por um tipo de objeto diferente.

digite Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType

valor Description
code_interpreter

runStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre logs. Sim
registos string A saída de texto da chamada da ferramenta Interpretador de Código. Sim

digite Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType

valor Description
registos

runStepDeltaStepDetailsToolCallsCodeOutputLogsObject

Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.

Nome Tipo Descrição Necessário Predefinição
index integer O índice da saída na matriz de saídas. Sim
tipo string Sempre logs. Sim
registos string A saída de texto da chamada da ferramenta Interpretador de Código. Não

tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType

valor Description
registos

runStepDetailsToolCallsCodeOutputImageObject

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre image. Sim
image objeto Sim

Propriedades da imagem

file_id

Nome Tipo Description Predefinido
file_id string O ID de arquivo da imagem.

digite Enum: RunStepDetailsToolCallsCodeOutputImageObjectType

valor Description
image

runStepDeltaStepDetailsToolCallsCodeOutputImageObject

Nome Tipo Descrição Necessário Predefinição
index integer O índice da saída na matriz de saídas. Sim
tipo string Sempre image. Sim
image objeto Não

Propriedades da imagem

file_id

Nome Tipo Description Predefinido
file_id string O ID do arquivo da imagem.

digite Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject

valor Description
image

runStepDetailsToolCallsFileSearchObject

Nome Tipo Descrição Necessário Predefinição
id string A ID do objeto de chamada da ferramenta. Sim
tipo string O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. Sim
file_search objeto Por enquanto, este será sempre um objeto vazio. Sim

digite Enum: RunStepDetailsToolCallsFileSearchObjectType

valor Description
file_search

runStepDeltaStepDetailsToolCallsFileSearchObject

Nome Tipo Descrição Necessário Predefinição
index integer O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
id string A ID do objeto de chamada da ferramenta. Não
tipo string O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. Sim
file_search objeto Por enquanto, este será sempre um objeto vazio. Sim

digite Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType

valor Description
file_search

runStepDetailsToolCallsFunctionObject

Nome Tipo Descrição Necessário Predefinição
id string A ID do objeto de chamada da ferramenta. Sim
tipo string O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Sim
function objeto A definição da função que foi chamada. Sim

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos passaram para a função.

saída

Nome Tipo Description Predefinido
saída string A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados.

digite Enum: RunStepDetailsToolCallsFunctionObjectType

valor Description
function

runStepDeltaStepDetailsToolCallsFunctionObject

Nome Tipo Descrição Necessário Predefinição
index integer O índice da chamada de ferramenta na matriz de chamadas de ferramenta. Sim
id string A ID do objeto de chamada da ferramenta. Não
tipo string O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. Sim
function objeto A definição da função que foi chamada. Não

Propriedades para função

nome

Nome Tipo Description Predefinido
nome string O nome da função.

Argumentos

Nome Tipo Description Predefinido
Argumentos string Os argumentos passaram para a função.

saída

Nome Tipo Description Predefinido
saída string A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados.

digite Enum: RunStepDetailsToolCallsFunctionObjectType

valor Description
function

vectorStoreExpirationAfter

A política de expiração para um repositório de vetores.

Nome Tipo Descrição Necessário Predefinição
âncora string Carimbo de data/hora âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at. Sim
dias integer O número de dias após o tempo de ancoragem que o armazenamento do vetor expirará. Sim

âncora Enum: VectorStoreExpirationAfterAnchor

valor Description
last_active_at O carimbo de data/hora âncora após o qual a política de expiração se aplica.

vectorStoreObject

Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto enumeração O tipo de objeto, que é sempre vector_store.
Valores possíveis: vetor_store
Sim
created_at integer O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi criado. Sim
nome string O nome do repositório de vetores. Sim
usage_bytes integer O número total de bytes usados pelos arquivos no armazenamento vetorial. Sim
file_counts objeto Sim
estado string O status do armazenamento vetorial, que pode ser , expiredin_progressou completed. Um status de indica que o armazenamento de completed vetores está pronto para uso. Sim
expires_after vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
expires_at integer O carimbo de data/hora do Unix (em segundos) para quando o armazenamento vetorial expirará. Não
last_active_at integer O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi ativo pela última vez. Sim
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Sim

Imóveis para file_counts

in_progress

Nome Tipo Description Predefinido
in_progress integer O número de arquivos que estão sendo processados no momento.

concluído

Nome Tipo Description Predefinido
concluído integer O número de arquivos que foram processados com êxito.

com falhas

Nome Tipo Description Predefinido
com falhas integer O número de arquivos que não conseguiram processar.

cancelado

Nome Tipo Description Predefinido
cancelado integer O número de arquivos que foram cancelados.

total

Nome Tipo Description Predefinido
total integer O número total de ficheiros.

status Enum: VectorStoreObjectStatus

valor Description
expirou
in_progress
concluído

createVectorStoreRequest

Nome Tipo Descrição Necessário Predefinição
file_ids matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Não
nome string O nome do repositório de vetores. Não
expires_after vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

updateVectorStoreRequest

Nome Tipo Descrição Necessário Predefinição
nome string O nome do repositório de vetores. Não
expires_after vectorStoreExpirationAfter A política de expiração para um repositório de vetores. Não
do IdP objeto Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres.
Não

listVectorStoresResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

deleteVectorStoreResponse

Nome Tipo Descrição Necessário Predefinição
id string Sim
eliminada boolean Sim
objeto string Sim

objeto Enum: DeleteVectorStoreResponseObject

valor Description
vetor_store.deleted O estado do objeto de resposta do repositório de vetores de exclusão

vectorStoreFileObject

Uma lista de arquivos anexados a um repositório vetorial.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre vector_store.file. Sim
usage_bytes integer O uso total do armazenamento de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. Sim
created_at integer O carimbo de data/hora Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. Sim
vector_store_id string A ID do armazenamento de vetores ao qual o arquivo está anexado. Sim
estado string O status do arquivo de armazenamento vetorial, que pode ser in_progress, completed, cancelled, ou failed. O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. Sim
last_error objeto O último erro associado a este arquivo de armazenamento vetorial. Será null se não houver erros. Sim
chunking_strategy autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. Não

Imóveis para last_error

code

Nome Tipo Description Predefinido
code string Um de server_error ou rate_limit_exceeded.

mensagem

Nome Tipo Description Predefinido
mensagem string Uma descrição do erro legível por humanos.

objeto Enum: VectorStoreFileObjectType

valor Description
vetor_store.file

status Enum: VectorStoreFileObjectStatus

valor Description
in_progress
concluído
cancelado
com falhas

otherChunkingStrategyResponseParam

Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy conceito ser introduzido na API.

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre other. Sim

digite Enum: OtherChunkingStrategyResponseParamType

valor Description
outro

staticChunkingStrategyResponseParam

Nome Tipo Descrição Necessário Predefinição
tipo string Sempre static. Sim
estático staticChunkingStrategy Sim

tipo Enum: StaticChunkingStrategyResponseParamType

valor Description
estático

staticChunkingStrategy

Nome Tipo Descrição Necessário Predefinição
max_chunk_size_tokens integer O número máximo de tokens em cada bloco. O valor predefinido é 800. O valor mínimo é 100 e o valor máximo é 4096. Sim
chunk_overlap_tokens integer O número de tokens que se sobrepõem entre partes. O valor predefinido é 400.

Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens.
Sim

autoChunkingStrategyRequestParam

A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens de 800 e chunk_overlap_tokens de 400.

Nome Tipo Descrição Necessário Predefinição
tipo enumeração Sempre auto.
Valores possíveis: auto
Sim

staticChunkingStrategyRequestParam

Nome Tipo Descrição Necessário Predefinição
tipo enumeração Sempre static.
Valores possíveis: estático
Sim
estático staticChunkingStrategy Sim

chunkingStrategyRequestParam

A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia.

Este componente pode ser um dos seguintes:

createVectorStoreFileRequest

Nome Tipo Descrição Necessário Predefinição
file_id string Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não

listVectorStoreFilesResponse

Nome Tipo Descrição Necessário Predefinição
objeto string Sim
dados matriz Sim
first_id string Sim
last_id string Sim
has_more boolean Sim

deleteVectorStoreFileResponse

Nome Tipo Descrição Necessário Predefinição
id string Sim
eliminada boolean Sim
objeto string Sim

objeto Enum: DeleteVectorStoreFileResponseObject

valor Description
vetor_store.file.deleted

vectorStoreFileBatchObject

Um lote de arquivos anexados a um armazenamento vetorial.

Nome Tipo Descrição Necessário Predefinição
id string O identificador, que pode ser referenciado em pontos de extremidade de API. Sim
objeto string O tipo de objeto, que é sempre vector_store.file_batch. Sim
created_at integer O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos de armazenamento vetorial foi criado. Sim
vector_store_id string A ID do armazenamento vetorial ao qual o arquivo está anexado. Sim
estado string O status do lote de arquivos de armazenamento vetorial, que pode ser in_progress, completedcancelled ou failed. Sim
file_counts objeto Sim

Imóveis para file_counts

in_progress

Nome Tipo Description Predefinido
in_progress integer O número de arquivos que estão sendo processados no momento.

concluído

Nome Tipo Description Predefinido
concluído integer O número de arquivos que foram processados.

com falhas

Nome Tipo Description Predefinido
com falhas integer O número de arquivos que não conseguiram processar.

cancelado

Nome Tipo Description Predefinido
cancelado integer O número de arquivos que foram cancelados.

total

Nome Tipo Description Predefinido
total integer O número total de ficheiros.

objeto Enum: VectorStoreFileBatchObjectType

valor Description
vetor_store.files_lote

status Enum: VectorStoreFileBatchObjectStatus

valor Description
in_progress
concluído
cancelado
com falhas

createVectorStoreFileBatchRequest

Nome Tipo Descrição Necessário Predefinição
file_ids matriz Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. Sim
chunking_strategy chunkingStrategyRequestParam A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Não

assistantStreamEvent

Representa um evento emitido durante o streaming de uma Execução.

Cada evento em um fluxo de eventos enviado pelo servidor tem uma event propriedade e data :

event: thread.created
data: {"id": "thread_123", "object": "thread", ...}

Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created quando uma nova execução é criada, thread.run.completed quando uma execução é concluída e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma corrida, emitimos um thread.message.created event, um thread.message.in_progress evento, muitos thread.message.delta eventos e, finalmente, um thread.message.completed evento.

Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos lidar com eventos desconhecidos graciosamente em seu código.

Este componente pode ser um dos seguintes:

threadStreamEvent

Este componente pode ser um dos seguintes:

thread.criado

Ocorre quando um novo thread é criado.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados threadObject Representa um thread que contém mensagens. Sim

Dados: threadObject

Enum do evento: ThreadStreamEventEnum

valor Description
thread.criado O evento criado pelo thread

runStreamEvent

Este componente pode ser um dos seguintes:

thread.run.created

Ocorre quando uma nova execução é criada.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventCreated

valor Description
thread.run.created

thread.run.queued

Ocorre quando uma execução é movida para um queued status.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventQueued

valor Description
thread.run.queued

thread.run.in_progress

Ocorre quando uma execução é movida para um in_progress status.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventInProgress

valor Description
thread.run.in_progress

thread.run.requires_action

Ocorre quando uma execução é movida para um requires_action status.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventRequiresAction

valor Description
thread.run.requires_action

thread.run.concluído

Ocorre quando uma execução é concluída.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventCompleted

valor Description
thread.run.concluído

thread.run.failed

Ocorre quando uma execução falha.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventFailed

valor Description
thread.run.failed

thread.run.cancelling

Ocorre quando uma execução é movida para um cancelling status.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventCancelling

valor Description
thread.run.cancelling

thread.run.cancelled

Ocorre quando uma execução é cancelada.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventCancelled

valor Description
thread.run.cancelled

thread.run.expired

Ocorre quando uma execução expira.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runObject Representa uma execução executada em um thread. Sim

Dados: runObject

Enum do evento: RunStreamEventExpired

valor Description
thread.run.expired

runStepStreamEvent

Este componente pode ser um dos seguintes:

thread.run.step.created

Ocorre quando uma etapa de execução é criada.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventCreated

valor Description
thread.run.step.created

thread.run.step.in_progress

Ocorre quando uma etapa de execução se move para um in_progress estado.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventInProgress

valor Description
thread.run.step.in_progress

thread.run.step.delta

Ocorre quando partes de uma etapa de execução estão sendo transmitidas.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepDeltaObject Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.
Sim

Dados: runStepDeltaObject

Enum do evento: RunStepStreamEventDelta

valor Description
thread.run.step.delta

thread.run.step.completed

Ocorre quando uma etapa de execução é concluída.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventCompleted

valor Description
thread.run.step.completed

thread.run.step.failed

Ocorre quando uma etapa de execução falha.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventFailed

valor Description
thread.run.step.failed

thread.run.step.cancelled

Ocorre quando uma etapa de execução é cancelada.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventCancelled

valor Description
thread.run.step.cancelled

thread.run.step.expired

Ocorre quando uma etapa de execução expira.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados runStepObject Representa uma etapa na execução de uma execução.
Sim

Dados: runStepObject

Enum do evento: RunStepStreamEventExpired

valor Description
thread.run.step.expired

messageStreamEvent

Este componente pode ser um dos seguintes:

thread.message.created

Ocorre quando uma mensagem é criada.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados messageObject Representa uma mensagem dentro de um thread. Sim

Dados: messageObject

Enum do evento: MessageStreamEventCreated

valor Description
thread.message.created

thread.message.in_progress

Ocorre quando uma mensagem é movida para um in_progress estado.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados messageObject Representa uma mensagem dentro de um thread. Sim

Dados: messageObject

Enum do evento: MessageStreamEventInProgress

valor Description
thread.message.in_progress

thread.message.delta

Ocorre quando partes de uma mensagem estão sendo transmitidas.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados messageDeltaObject Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
Sim

Dados: messageDeltaObject

Enum do evento: MessageStreamEventDelta

valor Description
thread.message.delta

thread.message.completed

Ocorre quando uma mensagem é concluída.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados messageObject Representa uma mensagem dentro de um thread. Sim

Dados: messageObject

Enum do evento: MessageStreamEventCompleted

valor Description
thread.message.completed

thread.message.incompleto

Ocorre quando uma mensagem termina antes de ser concluída.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados messageObject Representa uma mensagem dentro de um thread. Sim

Dados: messageObject

Enum do evento: MessageStreamEventIncomplete

valor Description
thread.message.incompleto

errorEvent

Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados erro Sim

Enum do evento: ErrorEventEnum

valor Description
error

doneEvento

Ocorre quando um fluxo termina.

Nome Tipo Descrição Necessário Predefinição
evento string Sim
dados string Sim

evento Enum: DoneEventEnum

valor Description
concluído

Enum de dados: DoneEventDataEnum

valor Description
[CONCLUÍDO]

Próximos passos

Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.