Referência de versão prévia da API REST de Serviço do OpenAI do Azure
Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.
Especificações da API
O gerenciamento e a interação com modelos e recursos do OpenAI do Azure são divididos em três superfícies principais da API:
- Painel de controle
- Plano de dados – criação
- Plano de dados – inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do OpenAI do Azure. Cada API tem seu próprio conjunto exclusivo de versões de API de versão prévia e estável/disponibilidade geral (GA). Atualmente, lançamentos de versões prévias tendem a seguir uma cadência mensal.
API | Lançamento de versão prévia mais recente | Versão de GA mais recente | Especificações | Descrição |
---|---|---|---|---|
Painel de controle | 2024-06-01-preview |
2024-10-01 |
Arquivos de especificação | O OpenAI do Azure compartilha um painel de controle comum com todos os outros Serviços de IA do Azure. A API do painel de controle é usada para coisas como criação de recursos do OpenAI do Azure, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O painel de controle também controla o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e a CLI do Azure. |
Plano de dados – criação | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificação | A API de criação do plano de dados controla ajuste, upload de arquivos, trabalhos de ingestão, lote e determinadas consultas de nível de modelo |
Plano de dados – inferência | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificação | A API de inferência do plano de dados fornece as capacidades de inferência/pontos de extremidade para recursos como conclusões, conclusões de chat, inserções, fala/sussurro, em seus dados, DALL-E, assistentes, etc. |
Autenticação
O OpenAI do Azure fornece dois métodos de autenticação. Você pode usar chaves de API ou o Microsoft Entra ID.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API deverão incluir a Chave de API no cabeçalho HTTP da
api-key
. O Início Rápido fornece um tutorial de como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o cabeçalho
Authorization
. O token fornecido deverá ser precedido porBearer
, por exemploBearer YOUR_AUTH_TOKEN
. Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão de API REST
As APIs de serviço são versões que usam o parâmetro de consulta api-version
. Todas as versões seguem a estrutura de data AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a versão prévia mais recente da especificação de inferência do plano de dados do OpenAI do Azure, 2024-10-01-preview
. Este artigo inclui documentação para os recursos de versão prévia mais recentes, como assistentes, threads e repositórios de vetores.
Se você procura a documentação sobre a versão mais recente da API em GA, consulte a API de inferência do plano de dados em GA mais recente
Conclusões – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo do que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. |
Sim | |
best_of | Número inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n , o best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n .Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Transmite o prompt de volta além da conclusão |
Não | Falso |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
Não | Nenhum |
logprobs | Número inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
Não | 16 |
n | Número inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
seed | Número inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente de dados à medida que se tornarem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] . |
Não | Falso |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat). |
Código de Status: padrão
Descrição: Serviço indisponível
Content-Type | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inserções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos de machine learning e algoritmos.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
input | cadeia de caracteres ou matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002 ), não pode ser uma cadeia de caracteres vazia e toda matriz deve ter 2.048 dimensões ou menos. |
Sim | |
usuário | string | Um identificador exclusivo representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos. | Não | |
input_type | string | tipo de entrada de inserção de pesquisa a ser usada | Não | |
encoding_format | string | O formato no qual as inserções devem ser retornadas. Pode ser float ou base64 . Assume o padrão de float . |
Não | |
dimensões | Número inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
Não |
Respostas
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
modelo | string | Sim | ||
data | matriz | Sim | ||
uso | objeto | Sim |
Propriedades para uso
prompt_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
prompt_tokens | Número inteiro |
total_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
total_tokens | Número inteiro |
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | objeto |
Exemplos
Exemplo
Retorne as inserções para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusões de chat – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
Cria uma conclusão para a mensagem de chat
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo do que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Se forem definidos, os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Só há suporte para isso em modelos da série o1. O suporte será expandido para outros modelos na próxima versão da API. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
Não | Nenhum |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não | |
da nuvem para o dispositivo | matriz | Uma lista de mensagens que resumem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
Não | |
logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message . |
Não | Falso |
top_logprobs | Número inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. |
Não | |
n | Número inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106 .Configurar como { "type": "json_schema", "json_schema": {...} } habilita as Saídas Estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
seed | Número inteiro | Esse recurso está em beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true . |
Não | Nenhum |
manuais | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. |
Não | |
function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de Status: padrão
Descrição: Serviço indisponível
Content-Type | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados de vetor de imagem do Azure Search.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Mongo DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Transcreve o áudio no idioma de entrada.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo de sussurro. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O objeto do arquivo de áudio a transcrever. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
linguagem | string | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. | Não | |
timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment . Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
Não | ['segment'] |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
Transcreve e traduz o áudio de entrada em texto em inglês.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo de sussurro que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O arquivo de áudio a ser traduzido. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo TTS que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
input | string | O texto para o qual sintetizar áudio. O tamanho máximo é de 4.096 caracteres. | Sim | |
voice | enum | A voz a ser usada para sintetização de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Sim | |
response_format | enum | O formato no qual sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
velocidade | número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0 . 1.0 é o padrão. |
Não | 1.0 |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/octet-stream | string |
Exemplos
Exemplo
Sintetiza o áudio a partir do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de Status: 200
{
"body": "101010101"
}
Gerações de imagem – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo do DALLE
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo do Dalle que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | string | Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. | Sim | |
n | Número inteiro | O número de imagens a serem geradas. | Não | 1 |
tamanho | imageSize | O tamanho das imagens geradas. | Não | 1\.024 x 1.024 |
response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | Não | url |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | Não | |
qualidade | imageQuality | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
Respostas
Código de Status: 200
Descrição: Ok
Content-Type | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
Content-Type | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Exemplos
Exemplo
Cria imagens a partir de uma solicitação.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Lista – Assistentes
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Retorna uma lista de assistentes.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listAssistantsResponse |
Exemplos
Exemplo
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar – Assistente
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Crie um assistente com um modelo e instruções.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
modelo | Sim | |||
nome | string | O nome do assistente. O tamanho máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
Não | |
manuais | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter , retrieval ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver no máximo um repositório de vetores anexado ao assistente. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo um repositório de vetores anexado ao assistente. |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter – Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Recupera um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
assistant_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar – Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Modifica um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
assistant_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
modelo | Não | |||
name | string | O nome do assistente. O tamanho máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres. |
Não | |
manuais | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter , retrieval ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo um repositório de vetores anexado ao assistente. |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de Status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir – Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Excluir um assistente.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
assistant_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | deleteAssistantResponse |
Exemplos
Exemplo
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar – Thread
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Criar um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
da nuvem para o dispositivo | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de um repositório de vetores anexado ao thread. |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter – Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Recupera um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar – Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Modifica um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de um repositório de vetores anexado ao thread. |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir – Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Excluir um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | deleteThreadResponse |
Exemplos
Exemplo
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Listar – Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Retorna uma lista de mensagens para um determinado thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
run_id | consulta | Não | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listMessagesResponse |
Exemplos
Exemplo
Listar Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Crie uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | string | A função da entidade que está criando a mensagem. Entre os valores permitidos estão: - user : indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.- assistant : indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim | |
content | string | O conteúdo da mensagem. | Sim | |
anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Crie uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter – Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Recupere uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
message_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Recupere uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar – Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Modifica uma mensagem.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
message_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Modifique uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar – Thread e Executar
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
Crie um thread e execute-o em uma solicitação.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usada para executar esta execução. | Sim | |
thread | createThreadRequest | Não | ||
modelo | string | O nome da implantação de modelo a ser usada para realizar esta execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
instruções | string | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | Não | |
manuais | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | Não | |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true . |
Não | Nenhum |
max_prompt_tokens | Número inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de solicitação especificados, em várias voltas da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
max_completion_tokens | Número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo um repositório de vetores anexado ao assistente. |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Listar – Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Retorna uma lista de execuções que pertencem a um thread.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listRunsResponse |
Exemplos
Exemplo
Retorna uma lista de execuções que pertencem a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Crie uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usada para executar esta execução. | Sim | |
modelo | string | A ID do Modelo a ser usado para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
instruções | string | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | Não | |
additional_instructions | string | Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
additional_messages | matriz | Acrescenta mensagens adicionais ao thread antes de criar a execução. | Não | |
manuais | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não | |
max_prompt_tokens | Número inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de solicitação especificados, em várias voltas da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
max_completion_tokens | Número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter – Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Recupera uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Obtém uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Modifica uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar – Saídas de ferramenta para execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
Quando uma execução tem o status: "requires_action"
e o required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Sim | |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Quando uma execução tem o status: "requires_action"
e o required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta quando todas elas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar – Execução
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Cancela uma execução que está in_progress
.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Cancela uma execução que está in_progress
.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista – Etapas de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Retorna uma lista de etapas que pertencem a uma execução.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listRunStepsResponse |
Exemplos
Exemplo
Retorna uma lista de etapas que pertencem a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter – Etapa de Execução
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Recupera uma etapa de execução.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
thread_id | caminho | Sim | string | |
run_id | caminho | Sim | string | |
step_id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | runStepObject | Representa uma etapa de uma execução. |
Exemplos
Exemplo
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista – Repositórios de Vetores
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Retorna uma lista de repositórios de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listVectorStoresResponse |
Exemplos
Exemplo
Retorna uma lista de repositórios de vetores.
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar – Repositório de Vetores
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Crie um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Não | |
name | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . Somente aplicável se file_ids não estiver vazio. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search . |
Exemplos
Exemplo
Cria um repositório de vetores.
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter – Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Recupera um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search . |
Exemplos
Exemplo
Recupera um repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar – Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Modifica um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search . |
Exemplos
Exemplo
Modifica um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir – Repositório de Vetores
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Exclui um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreResponse |
Exemplos
Exemplo
Exclui um repositório de vetores.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista – Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Retorna uma lista de arquivos de repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
filtro | consulta | Não | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar – Arquivo de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_id | string | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject | Uma lista de arquivos anexados a um repositório de vetores. |
Exemplos
Exemplo
Crie um arquivo de repositório de vetores anexando um Arquivo a um repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter – Arquivo de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Recupera um arquivo de repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
file_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject | Uma lista de arquivos anexados a um repositório de vetores. |
Exemplos
Exemplo
Recupera um arquivo de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir – Arquivo de Repositório de Vetores
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
file_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Exemplos
Exemplo
Exclui um arquivo de repositório de vetores. Isso removerá o arquivo do repositório de vetores, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão do arquivo.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Criar – Lote de Arquivos de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
Crie um lote de arquivos de repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um repositório de vetores. |
Exemplos
Exemplo
Crie um lote de arquivos de repositório de vetores.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de Status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obter – Lote de Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Recupera um lote de arquivos de repositório de vetores.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
batch_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um repositório de vetores. |
Exemplos
Exemplo
Recupera um lote de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar – Lote de Arquivos de Repositório de Vetores
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
batch_id | caminho | Sim | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um repositório de vetores. |
Exemplos
Exemplo
Cancele um lote de arquivos de repositório de vetores. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista – Arquivos de Lote de Arquivos de Repositório de Vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Retorna uma lista de arquivos de repositório de vetores em um lote.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
vector_store_id | caminho | Sim | string | |
batch_id | caminho | Sim | string | |
limite | consulta | Não | Número inteiro | |
ordem | consulta | Não | string | |
after | consulta | Não | string | |
before | consulta | Não | string | |
filtro | consulta | Não | string | |
api-version | consulta | Sim | string |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de repositório de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Respostas: Código de Status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Componentes
errorResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
erro | error | Não |
errorBase
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | cadeia de caracteres | No | ||
message | string | Não |
error
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
param | string | Não | ||
type | string | Não | ||
inner_error | innerError | Erro interno com detalhes adicionais. | Não |
innerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: códigos de erro para o objeto de erro interno.
Tipo: string
Padrão:
Nome da Enumeração: InnerErrorCode
Valores da Enumeração:
Valor | Descrição |
---|---|
ResponsibleAIPolicyViolation | A solicitação violou uma ou mais regras de filtro de conteúdo. |
dalleErrorResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
error | dalleError | Não |
dalleError
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
param | string | Não | ||
type | string | Não | ||
inner_error | dalleInnerError | Erro interno com detalhes adicionais. | Não |
dalleInnerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não | |
revised_prompt | string | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | Não |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. Deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
completion_start_offset | Número inteiro | Deslocamento do ponto de código UTF32 que inicia o intervalo. | Sim | |
completion_end_offset | Número inteiro | Deslocamento do primeiro ponto de código UTF32 que é excluído do intervalo. Esse campo é sempre igual a completion_start_offset em intervalos vazios. Esse campo é sempre maior que completion_start_offset em intervalos não limitados. | Sim |
contentFilterResultBase
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim |
contentFilterSeverityResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
severidade | string | Não |
contentFilterDetectedResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detectado | boolean | Não |
contentFilterDetectedWithCitationResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
citação | objeto | Não |
Propriedades para citação
URL
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
URL | string |
license
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
license | string |
contentFilterDetectedWithCompletionTextSpansResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
detalhes | matriz | Não |
contentFilterIdResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
ID | string | Não |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | Não | |
error | errorBase | Não |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | Não | |
error | errorBase | Não | ||
jailbreak | contentFilterDetectedResult | Não | ||
indirect_attack | contentFilterDetectedResult | Não |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | Não | |
error | errorBase | Não | ||
protected_material_text | contentFilterDetectedResult | Não | ||
protected_material_code | contentFilterDetectedWithCitationResult | Não | ||
ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | Não |
contentFilterDetailedResults
Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detalhes | matriz | Não |
promptFilterResult
Resultados de filtragem de conteúdo para uma única solicitação.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt_index | Número inteiro | Não | ||
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
promptFilterResults
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
jailbreak | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe de IDs de filtro de conteúdo para os segmentos filtrados. | Não |
chatCompletionsRequestCommon
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências nas quais a API irá parar de gerar tokens. | Não | |
max_tokens | Número inteiro | O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Isso não é compatível com modelos da série o1. | Não | 4096 |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Só há suporte para isso em modelos da série o1. O suporte será expandido para outros modelos na próxima versão da API. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. | Não | |
usuário | string | Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. | Não |
createCompletionRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. |
Sim | |
best_of | Número inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n , o best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n .Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Transmite o prompt de volta além da conclusão |
Não | Falso |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
Não | Nenhum |
logprobs | Número inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
Não | 16 |
n | Número inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
seed | Número inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stop | cadeia de caracteres ou matriz | Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de parada. |
Não | |
fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente de dados à medida que se tornarem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] . |
Não | Falso |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat).
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Um identificador exclusivo do preenchimento. | Sim | |
opções | matriz | A lista de opções de preenchimento que o modelo gerou para o prompt de entrada. | Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Sim | |
modelo | string | O modelo usado para conclusão. | Sim | |
prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | Não | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Sim | |
uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | Não |
createChatCompletionRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Se forem definidos, os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências nas quais a API irá parar de gerar tokens. |
Não | |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Só há suporte para isso em modelos da série o1. O suporte será expandido para outros modelos na próxima versão da API. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
Não | Nenhum |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não | |
da nuvem para o dispositivo | matriz | Uma lista de mensagens que resumem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
Não | |
logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message . |
Não | Falso |
top_logprobs | Número inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. |
Não | |
n | Número inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106 .Configurar como { "type": "json_schema", "json_schema": {...} } habilita as Saídas Estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
seed | Número inteiro | Esse recurso está em beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true . |
Não | Nenhum |
manuais | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. |
Não | |
function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
chatCompletionFunctions
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
name | string | O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
chatCompletionFunctionCallOption
Especificar uma determinada função por meio de {"name": "my_function"}
força o modelo a chamar essa função.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome da função a ser chamada. | Sim |
chatCompletionFunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia/ para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para esse componente.
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Sim | |
role | enum | A função do autor das mensagens, nesse caso, system .Valores possíveis: estático |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não |
chatCompletionRequestUserMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Sim | |
role | enum | A função do autor das mensagens, nesse caso, user .Valores possíveis: automático |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não |
chatCompletionRequestAssistantMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
Não | |
recusa | string | A mensagem de recusa do assistente. | Não | |
role | enum | A função do autor das mensagens, nesse caso, assistant .Valores possíveis: assistente |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não |
Propriedades de function_call
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
chatCompletionRequestToolMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, tool .Valores possíveis: ferramenta |
Sim | |
content | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Sim | |
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
chatCompletionRequestFunctionMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, function .Valores possíveis: função |
Sim | |
content | string | O conteúdo da mensagem de função. | Sim | |
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: texto |
Sim | |
text | string | O conteúdo do texto. | Sim |
chatCompletionRequestMessageContentPartImage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim | |
image_url | objeto | Sim |
Propriedades de image_url
url
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
url | string | Uma URL da imagem ou os dados de imagem codificados em base64. |
detail
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
detail | string | Especifica o nível de detalhes da imagem. Saiba mais no Guia do Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: recusa |
Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Descrição: uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação
de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta.
O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Tipo: string
Padrão:
Nome da Enumeração: AzureChatExtensionType
Valores da Enumeração:
Valor | Descrição |
---|---|
azure_search | Representa o uso do Azure Search como uma extensão de chat do OpenAI do Azure. |
azure_cosmos_db | Representa o uso do Azure Cosmos DB como uma extensão de chat do OpenAI do Azure. |
elasticsearch | Representa o uso do índice do Elasticsearch® como uma extensão de chat do OpenAI do Azure. |
mongo_db | Representa o uso do Mongo DB como uma extensão de chat do OpenAI do Azure. |
pinecone | Representa o uso do índice do Pinecone como uma extensão de chat do OpenAI do Azure. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | azureSearchChatExtensionParameters | Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure. | Não |
azureSearchChatExtensionParameters
Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Sim | ||
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
max_search_queries | Número inteiro | O número máximo de consultas reescritas que deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | Não | |
allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | Não | Falso |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
endpoint | string | O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. | Sim | |
index_name | string | O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. | Sim | |
fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. | Não | |
query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. | Não | |
semantic_configuration | string | A configuração semântica adicional da consulta. | Não | |
filtro | string | Filtro de pesquisa. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | Não | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não | |
image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagens. | Não |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Descrição: o tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Tipo: string
Padrão:
Nome da Enumeração: AzureSearchQueryType
Valores da Enumeração:
Valor | Descrição |
---|---|
simple | Representa o analisador de consulta simples e padrão. |
semântica | Representa o analisador de consulta semântica para modelagem semântica avançada. |
vector | Representa a busca em vetores em relação aos dados computados. |
vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados de vetor. |
vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados de vetor. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o Azure Cosmos DB para vCore do MongoDB. |
Não |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Sim | |
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
max_search_queries | Número inteiro | O número máximo de consultas reescritas que deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | Não | |
allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | Não | Falso |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
database_name | string | O nome do banco de dados MongoDB vCore a ser usado com o Azure Cosmos DB. | Sim | |
container_name | string | O nome do contêiner de recursos do Azure Cosmos DB. | Sim | |
index_name | string | O nome do índice do MongoDB vCore a ser usado com o Azure Cosmos DB. | Sim | |
fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
elasticsearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do OpenAI do Azure. | Não |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Sim | ||
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
max_search_queries | Número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | Não | |
allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | Não | Falso |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
endpoint | string | O ponto de extremidade do Elasticsearch®. | Sim | |
index_name | string | O nome do índice do Elasticsearch®. | Sim | |
fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Elasticsearch®. | Não | |
query_type | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | Não | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Elasticsearch®.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
elasticsearchQueryType
O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Descrição: o tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Tipo: string
Padrão:
Nome da Enumeração: ElasticsearchQueryType
Valores da Enumeração:
Valor | Descrição |
---|---|
simple | Representa o analisador de consulta simples e padrão. |
vector | Representa a busca em vetores em relação aos dados computados. |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB | Não |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar o OpenAI do Azure nas extensões de chat Your Data ao usar o Mongo DB
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha. | Sim | |
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
max_search_queries | Número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | Não | |
allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | Não | Falso |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
endpoint | string | O nome do ponto de extremidade do cluster do Mongo DB. | Sim | |
database_name | string | O nome do banco de dados do Mongo DB. | Sim | |
collection_name | string | O nome da Coleção do Mongo DB. | Sim | |
app_name | string | O nome do aplicativo do Mongo DB. | Sim | |
index_name | string | O nome do índice do Mongo DB. | Sim | |
fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Mongo DB.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
pineconeChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Pinecone ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | pineconeChatExtensionParameters | Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure. | Não |
pineconeChatExtensionParameters
Parâmetros para configurar extensões de chat do Pinecone no OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API. | Sim | |
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
max_search_queries | Número inteiro | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se isso não for especificado, o sistema decidirá o número de consultas a serem enviadas. | Não | |
allow_partial_result | boolean | Se for especificado como true, o sistema permitirá que os resultados parciais da pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se isso não for especificado ou especificado como false, a solicitação falhará caso uma consulta de pesquisa falhe. | Não | Falso |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
ambiente | string | O nome do ambiente Pinecone. | Sim | |
index_name | string | O nome do índice do banco de dados Pinecone. | Sim | |
fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone. | Sim | |
embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure. |
Sim | |
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Pinecone.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não |
onYourDataAuthenticationOptions
As opções de autenticação do OpenAI do Azure On Your Data.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim |
onYourDataContextProperty
A propriedade de contexto.
Descrição: a propriedade de contexto.
Tipo: string
Padrão:
Nome da Enumeração: OnYourDataContextProperty
Valores da Enumeração:
Valor | Descrição |
---|---|
citações | A propriedade de citations . |
intenção | A propriedade de intent . |
all_retrieved_documents | A propriedade de all_retrieved_documents . |
onYourDataAuthenticationType
Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
Descrição: os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
Tipo: string
Padrão:
Nome da Enumeração: OnYourDataAuthenticationType
Valores da Enumeração:
Valor | Descrição |
---|---|
api_key | Autenticação por meio da chave de API. |
connection_string | Autenticação por meio de cadeia de conexão. |
key_and_key_id | Autenticação por meio de par de chave e Identificação da chave. |
encoded_api_key | Autenticação por meio de chave de API codificada. |
access_token | Autenticação por meio de token de acesso. |
system_assigned_managed_identity | Autenticação por meio de identidade gerenciada atribuída pelo sistema. |
user_assigned_managed_identity | Autenticação por meio de identidade gerenciada atribuída pelo usuário. |
username_and_password | Autenticação por meio de nome de usuário e senha. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
chave | string | A chave de API a ser usada para autenticação. | Não |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
connection_string | string | A cadeia de conexão a ser usada para autenticação. | Não |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para o OpenAI do Azure On Your Data ao usar um par de chave e de Identificação da chave do Elasticsearch.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
chave | string | A chave Elasticsearch a ser usada para autenticação. | Não | |
key_id | string | O ID da chave do Elasticsearch a ser usado para autenticação. | Não |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para Azure OpenAI On Your Data ao usar uma chave de API codificada pelo Elasticsearch.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
encoded_api_key | string | A chave de API codificada do Elasticsearch a ser usada para autenticação. | Não |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação para o OpenAI do Azure Em Seus Dados ao usar o token de acesso.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
access_token | string | O token de acesso a ser utilizado para autenticação. | Não |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
managed_identity_resource_id | string | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | Não |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação da OpenAI do Azure On Your Data ao usar uma cadeia um número de usuário e uma senha.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
nome de usuário | string | O nome de usuário a ser usado para autenticação. | Não | |
password | string | A senha. a ser usado para autenticação. | Não |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o OpenAI do Azure On Your Data com busca em vetores.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.
Descrição: Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
busca em vetores.
Tipo: string
Padrão:
Nome da Enumeração: OnYourDataVectorizationSourceType
Valores da Enumeração:
Valor | Descrição |
---|---|
endpoint | Representa a vetorização executada por chamadas de serviço públicas para um modelo de inserção do OpenAI do Azure. |
deployment_name | Representa um nome da implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, que habilita a busca em vetores mesmo em redes privadas. |
integrado | Representa o vetorizador integrado definido dentro do recurso de pesquisa. |
model_id | Representa uma ID de modelo de inserção específica, conforme definido no serviço de pesquisa. Atualmente, só há suporte do Elasticsearch®. |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma chamada de ponto de extremidade do OpenAI do Azure para inserções.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim | |
endpoint | string | Especifica a URL do ponto de extremidade do recurso da qual as incorporações devem ser recuperadas. O número da porta deve estar no formato https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings . O parâmetro de consulta api-version não é permitido. |
Não | |
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Não | ||
dimensões | Número inteiro | O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
Não |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim | |
deployment_name | string | Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. | Não | |
dimensões | Número inteiro | O número de dimensões que as inserções devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
Não |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido dentro do recurso de pesquisa.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma ID do modelo de serviço de pesquisa. Atualmente, só há suporte do Elasticsearch®.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim | |
model_id | string | Especifica o ID do modelo a ser usado para vetorização. Essa ID do modelo deve ser definida no serviço de pesquisa. | Não |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
intenção | string | A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. | Não | |
all_retrieved_documents | matriz | Todos os documentos recuperados. | Não |
citação
informações de citação para uma mensagem de resposta de preenchimento de chat.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | A URL da citação. | Não | |
filepath | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | A ID da parte da citação. | Não | |
rerank_score | número | A pontuação de reclassificação do documento recuperado. | Não |
retrievedDocument
O documento recuperado.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | A URL da citação. | Não | |
filepath | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | A ID da parte da citação. | Não | |
rerank_score | número | A pontuação de reclassificação do documento recuperado. | Não | |
search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | Não | |
data_source_index | Número inteiro | O índice da fonte de dados. | Não | |
original_search_score | número | A pontuação de pesquisa original do documento recuperado. | Não | |
filter_reason | filterReason | O motivo da filtragem do documento recuperado. | Não |
filterReason
O motivo da filtragem do documento recuperado.
Descrição: o motivo da filtragem do documento recuperado.
Tipo: string
Padrão:
Nome da Enumeração: FilterReason
Valores da Enumeração:
Valor | Descrição |
---|---|
score | O documento é filtrado pelo limite de pontuação de pesquisa original definido pela configuração strictness . |
rerank | O documento não é filtrado pelo limite de pontuação de pesquisa original, mas é filtrado por pontuação de reclassificação e pela configuração top_n_documents . |
chatCompletionMessageToolCall
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID da chamada da ferramenta. | Sim | |
tipo | toolCallType | O tipo da chamada de ferramenta, nesse caso, function . |
Sim | |
função | objeto | A função chamada pelo modelo. | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
toolCallType
O tipo da chamada de ferramenta, nesse caso, function
.
Descrição: o tipo da chamada de ferramenta, nesse caso, function
.
Tipo: string
Padrão:
Nome da Enumeração: ToolCallType
Valores da Enumeração:
Valor | Descrição |
---|---|
função | O tipo da chamada de ferramenta é função. |
chatCompletionRequestMessageTool
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Não | |
content | string | O conteúdo da mensagem. | Não |
chatCompletionRequestMessageFunction
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, function .Valores possíveis: função |
Não | |
name | string | O conteúdo da mensagem. | Não | |
content | string | O conteúdo da mensagem. | Não |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Identificador exclusivo para conclusão de chat. | Sim | |
prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | Não | |
opções | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Sim | |
modelo | string | O modelo usado para a conclusão do chat. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre chat.completion .Valores possíveis: chat.completion |
Sim | |
uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | Não |
createChatCompletionStreamResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. | Sim | |
opções | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. | Sim | |
modelo | string | O modelo para gerar a conclusão. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre chat.completion.chunk .Valores possíveis: chat.completion.chunk |
Sim |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | string | O conteúdo da mensagem de parte. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
tool_calls | matriz | Não | ||
role | enum | A função do autor dessa mensagem. Valores possíveis: sistema, usuário, assistente, ferramenta |
Não | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Não |
Propriedades de function_call
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
chatCompletionMessageToolCallChunk
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | Sim | ||
ID | string | A ID da chamada da ferramenta. | Não | |
type | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Não | |
função | objeto | Não |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE] . O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia. Todas as outras partes também incluirão um campo usage , mas com um valor nulo. |
Não |
chatCompletionChoiceLogProbs
Informações de probabilidade de log para a escolha.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | Sim | |
recusa | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | Não |
chatCompletionTokenLogprob
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
token | string | O token. | Sim | |
logprob | número | A probabilidade de log desse token. | Sim | |
bytes | matriz | Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Poderá ser null se não houver representação de bytes para o token. |
Sim | |
top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. |
Sim |
chatCompletionResponseMessage
Uma mensagem de conclusão de chat gerada pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | A função do autor da mensagem de resposta. | Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim | |
content | string | O conteúdo da mensagem. | Sim | |
tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente. |
Não |
chatCompletionResponseMessageRole
A função do autor da mensagem de resposta.
Descrição: a função do autor da mensagem de resposta.
Tipo: string
Padrão:
Valores da Enumeração:
- assistente
chatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo. none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required
significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta. none
é o padrão quando não há nenhuma ferramenta presente. auto
é o padrão se ferramentas estiverem presente.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Sim | |
função | objeto | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls
. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome da função a ser chamada. | Sim | |
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Sim |
completionUsage
Estatísticas de uso para a solicitação de preenchimento.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt_tokens | Número inteiro | Número de tokens no prompt. | Sim | |
completion_tokens | Número inteiro | Número de tokens na conclusão gerada. | Sim | |
total_tokens | Número inteiro | Número total de tokens utilizados na solicitação (prompt + conclusão). | Sim | |
prompt_tokens_details | objeto | Detalhes dos tokens de prompt. | Não | |
completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | Não |
Propriedades para prompt_tokens_details
cached_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
cached_tokens | Número inteiro | O número de tokens de prompt armazenados em cache. |
Propriedades para completion_tokens_details
reasoning_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
reasoning_tokens | Número inteiro | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Sim | |
função | FunctionObject | Sim |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters
define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
name | string | O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters . Somente um subconjunto de esquema JSON tem suporte quando strict é true . |
Não | Falso |
ResponseFormatText
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: text Valores possíveis: texto |
Sim |
ResponseFormatJsonObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_object Valores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schema Valores possíveis: json_schema |
Sim | |
json_schema | objeto | Sim |
Propriedades de json_schema
descrição
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
descrição | string | Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. |
strict
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true . |
Falso |
chatCompletionChoiceCommon
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | Não | ||
finish_reason | string | Não |
createTranslationRequest
Solicitação de tradução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O arquivo de áudio a ser traduzido. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format foi json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | Texto traduzido ou transcrito. | Sim | |
task | string | Tipo de tarefa de áudio. | Não | |
linguagem | string | Idioma. | Não | |
duration | número | Duração. | Não | |
segmentos | matriz | Não | ||
words | matriz | Não |
audioResponseFormat
Define o formato da saída.
Descrição: define o formato da saída.
Tipo: string
Padrão:
Valores da Enumeração:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Solicitação de transcrição.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O objeto do arquivo de áudio a transcrever. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
linguagem | string | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. | Não | |
timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para essa transcrição. response_format precisa ser definido como verbose_json para que granularidades de carimbo de data/hora possam ser usadas. Há suporte para uma ou duas destas opções, word ou segment . Observação: não há latência adicional para carimbos de data/hora do segmento, mas a geração de carimbos de data/hora de palavra produz latência adicional. |
Não | ['segment'] |
audioSegment
Segmento da transcrição ou tradução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | Número inteiro | Identificador do segmento. | Não | |
pesquisar | número | Deslocamento do segmento. | Não | |
iniciar | número | O deslocamento de início do segmento. | Não | |
end | número | Deslocamento final do segmento. | Não | |
text | string | Texto do segmento. | Não | |
tokens | matriz | Tokens do texto. | Não | |
temperatura | número | Temperatura. | Não | |
avg_logprob | número | Probabilidade de log média. | Não | |
compression_ratio | número | Taxa de compactação. | Não | |
no_speech_prob | número | Probabilidade de “sem fala”. | Não |
audioWord
Palavra de transcrição ou tradução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
word | string | Word | Não | |
iniciar | número | O deslocamento de início da palavra. | Não | |
end | número | Deslocamento de término da palavra. | Não |
createSpeechRequest
Solicitação de fala.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
input | string | O texto para o qual sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Sim | |
voice | enum | A voz a ser usada para sintetização de voz. Valores possíveis: alloy, echo, fable, onyx, nova, shimmer |
Sim | |
response_format | enum | O formato no qual sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
velocidade | número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 a 4.0 . 1.0 é o padrão. |
Não | 1.0 |
imageQuality
A qualidade da imagem que será gerada.
Descrição: a qualidade da imagem que será gerada.
Tipo: string
Padrão: padrão
Nome da Enumeração: Qualidade
Valores da Enumeração:
Valor | Descrição |
---|---|
padrão | A qualidade padrão cria imagens com qualidade padrão. |
hd | A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem. |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
Descrição: o formato no qual as imagens geradas são retornadas.
Tipo: string
Padrão: url
Nome da Enumeração: ImagesResponseFormat
Valores da Enumeração:
Valor | Descrição |
---|---|
url | A URL que fornece acesso temporário para baixar as imagens geradas. |
b64_json | As imagens geradas são retornadas como cadeia de caracteres codificada em base64. |
imageSize
O tamanho das imagens geradas.
Descrição: o tamanho das imagens geradas.
Tipo: string
Padrão: 1024x1024
Nome da Enumeração: Tamanho
Valores da Enumeração:
Valor | Descrição |
---|---|
256x256 | O tamanho desejado da imagem gerada é de 256 x 256 pixels. Só há suporte para dall-e-2. |
512 x 512 | O tamanho desejado da imagem gerada é de 512 x 512 pixels. Só há suporte para dall-e-2. |
1792x1024 | O tamanho desejado da imagem gerada é de 1792 x 1024 pixels. Só há suporte para dall-e-3. |
1024x1792 | O tamanho desejado da imagem gerada é de 1024 x 1792 pixels. Só há suporte para dall-e-3. |
1\.024 x 1.024 | O tamanho desejado da imagem gerada é de 1024 x 1024 pixels. |
imageStyle
O estilo das imagens geradas.
Descrição: o estilo das imagens geradas.
Tipo: string
Padrão: vívido
Nome da Enumeração: Estilo
Valores da Enumeração:
Valor | Descrição |
---|---|
vívido | Vívido cria imagens hiper-realistas e dramáticas. |
natural | Natural cria imagens mais naturais e menos hiper-realistas. |
imageGenerationsRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | string | Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. | Sim | |
n | Número inteiro | O número de imagens a serem geradas. | Não | 1 |
tamanho | imageSize | O tamanho das imagens geradas. | Não | 1\.024 x 1.024 |
response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | Não | url |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | Não | |
qualidade | imageQuality | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
generateImagesResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
criado | Número inteiro | O carimbo de data/hora UNIX quando a operação foi criada. | Sim | |
data | matriz | Os dados do resultado da operação, se bem-sucedida | Sim |
imageResult
A URL da imagem ou a imagem codificada, se foi bem-sucedida, e um erro se não foi.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
url | string | A URL da imagem. | Não | |
b64_json | string | A imagem codificada em base64 | Não | |
content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | Não | |
revised_prompt | string | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | Não | |
prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
line
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | Sim | ||
spans | matriz | Uma matriz de spans que representam objetos detectados e suas informações de caixa delimitadora. | Sim |
span
Um objeto span que representa um objeto detectado e suas informações de caixa delimitadora.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | O conteúdo do texto do span que representa o objeto detectado. | Sim | |
deslocamento | Número inteiro | spanO deslocamento de caractere dentro do texto em que o intervalo começa. Esse deslocamento é definido como a posição do primeiro caractere do span, contando desde o início do texto como pontos de código Unicode. | Sim | |
length | Número inteiro | O comprimento do span em caracteres, medido em pontos de código Unicode. | Sim | |
polygon | matriz | Uma matriz de objetos representando pontos no polígono que inclui o objeto detectado. | Sim |
runCompletionUsage
Estatísticas de uso relacionadas à execução. Esse valor será null
se a execução não estiver em um estado terminal (ou seja in_progress
, queued
etc.).
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
completion_tokens | Número inteiro | Número de tokens de conclusão usados ao longo da execução. | Sim | |
prompt_tokens | Número inteiro | Número de tokens de solicitação usados ao longo da execução. | Sim | |
total_tokens | Número inteiro | Número total de tokens usados (solicitação + conclusão). | Sim |
runStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null
enquanto o status da etapa de execução for in_progress
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
completion_tokens | Número inteiro | Número de tokens de conclusão usados ao longo da etapa de execução. | Sim | |
prompt_tokens | Número inteiro | Número de tokens de solicitação usados ao longo da etapa de execução. | Sim | |
total_tokens | Número inteiro | Número total de tokens usados (solicitação + conclusão). | Sim |
assistantsApiResponseFormatOption
Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106
.
A configuração para { "type": "json_object" }
habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.
Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length"
, o que indica que a geração excedeu max_tokens
ou a conversa excedeu o comprimento máximo do contexto.
Esse componente pode ser um dos seguintes:
assistantsApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se for json_object
, somente tools
do tipo function
terão permissão para ser passadas para a Execução. Se for text
, o modelo poderá retornar texto ou qualquer valor necessário.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Deve ser um de text ou json_object . |
Não | text |
Enumeração de tipo: AssistantsApiResponseFormat
Valor | Descrição |
---|---|
text | |
json_object |
assistantObject
Representa um assistant
que pode chamar o modelo e usar ferramentas.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre assistant . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora do Unix (em segundos), para quando o assistente foi criado. | Sim | |
nome | string | O nome do assistente. O tamanho máximo é de 256 caracteres. |
Sim | |
descrição | string | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Sim | |
modelo | string | ID do modelo a ser usado. Você pode usar a API Listar modelos para ver todos os modelos disponíveis. |
Sim | |
instruções | string | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
Sim | |
manuais | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser de tipos code_interpreter , file_search ou function . |
Sim | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
Enumeração de objeto: AssistantObjectType
Valor | Descrição |
---|---|
assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
modelo | Sim | |||
nome | string | O nome do assistente. O tamanho máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O tamanho máximo é de 256.000 caracteres. |
Não | |
manuais | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter , retrieval ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a este assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
modifyAssistantRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
modelo | Não | |||
name | string | O nome do assistente. O tamanho máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O tamanho máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O tamanho máximo é de 32.768 caracteres. |
Não | |
manuais | matriz | Uma lista de ferramentas habilitada no assistente. Pode haver no máximo 128 ferramentas por assistente. As ferramentas podem ser dos tipos code_interpreter , retrieval ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | Substitui o repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
deleteAssistantResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | cadeia de caracteres | Sim | ||
deleted | boolean | Sim | ||
objeto | string | Sim |
Enumeração de objeto: DeleteAssistantResponseState
Valor | Descrição |
---|---|
assistant.deleted |
listAssistantsResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
assistantToolsCode
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definida: code_interpreter |
Sim |
Enumeração de tipo: assistantToolsCodeType
Valor | Descrição |
---|---|
code_interpreter |
assistantToolsFileSearch
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definida: file_search |
Sim | |
file_search | objeto | Substitui a ferramenta de pesquisa de arquivos. | Não |
Propriedades de file_search
max_num_results
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
max_num_results | Número inteiro | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Esse número deve estar entre 1 e 50 inclusivo. Observe que a ferramenta de pesquisa de arquivos pode gerar menos de max_num_results resultados. |
Enumeração de tipo: assistantToolsFileSearchType
Valor | Descrição |
---|---|
file_search |
assistantToolsFileSearchTypeOnly
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definida: file_search |
Sim |
Enumeração de tipo: assistantToolsFileSearchType
Valor | Descrição |
---|---|
file_search |
assistantToolsFunction
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definida: function |
Sim | |
função | objeto | A definição de função. | Sim |
Propriedades da função
descrição
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
parâmetros
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
parâmetros | chatCompletionFunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. |
Enumeração de tipo: assistantToolsFunction
Valor | Descrição |
---|---|
função |
truncationObject
Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | A estratégia de truncamento a ser usada para o thread. O padrão é auto . Se definido como last_messages , o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto , as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens . |
Sim | |
last_messages | Número inteiro | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | Não |
Enumeração de tipo: TruncationType
Valor | Descrição |
---|---|
auto | |
last_messages |
assistantsApiToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo.
none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto
é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.
Especificar uma determinada ferramenta como {"type": "file_search"}
ou {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa função.
Esse componente pode ser um dos seguintes:
assistantsNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | O tipo da ferramenta. Se o tipo for function , o nome da função deverá ser definido |
Sim | |
função | objeto | Não |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
Enumeração de tipo: AssistantsNamedToolChoiceType
Valor | Descrição |
---|---|
função | |
code_interpreter | |
file_search |
runObject
Representa uma execução executada em um thread.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.run . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora do Unix (em segundos), para quando a execução foi criada. | Sim | |
thread_id | string | A ID do thread que foi executada como parte dessa execução. | Sim | |
assistant_id | string | A ID do assistente usada para a execução dessa execução. | Sim | |
status | string | O status da execução, que pode ser queued , in_progress , requires_action , cancelling , cancelled , failed , completed ou expired . |
Sim | |
required_action | objeto | Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. |
Sim | |
last_error | objeto | O último erro associado a esta execução. Será null se não houver erros. |
Sim | |
expires_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. | Sim | |
started_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. | Sim | |
cancelled_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando a execução foi cancelada. | Sim | |
failed_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. | Sim | |
completed_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. | Sim | |
incomplete_details | objeto | Detalhes sobre por que a execução está incompleta. Será null se a execução não estiver incompleta. |
Sim | |
modelo | string | O modelo que o assistente usou para esta execução. | Sim | |
instruções | string | As instruções que o assistente usou para esta execução. | Sim | |
manuais | matriz | A lista de ferramentas que o assistente usou para essa execução. | Sim | [] |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim | |
uso | runCompletionUsage | Estatísticas de uso relacionadas à execução. Esse valor será null se a execução não estiver em um estado terminal (ou seja in_progress , queued etc.). |
Sim | |
temperatura | número | A temperatura de amostragem usada para esta execução. Se não estiver definida, o padrão será 1. | Não | |
top_p | número | O valor de amostragem do núcleo usado para esta execução. Se não estiver definida, o padrão será 1. | Não | |
max_prompt_tokens | Número inteiro | O número máximo de tokens de prompt especificados que foram usados ao longo da execução. |
Sim | |
max_completion_tokens | Número inteiro | O número máximo de tokens de conclusão especificados que foram usados ao longo da execução. |
Sim | |
truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Sim | |
tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Sim | |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Sim |
Propriedades para required_action
tipo
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
tipo | string | Por enquanto, isso é sempre submit_tool_outputs . |
submit_tool_outputs
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
tool_calls | matriz | Uma lista das chamadas de ferramenta relevantes. |
Propriedades para last_error
código
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
código | string | Uma opção entre server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
message | string | Uma descrição do erro legível para humanos. |
Propriedades para incomplete_details
reason
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
reason | string | O motivo pelo qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. |
Enumeração de objeto: runObjectType
Valor | Descrição |
---|---|
thread.run | O tipo de objeto da execução, que é sempre thread.run |
Enumeração de status: RunObjectStatus
Valor | Descrição |
---|---|
na fila | O estado na fila |
in_progress | O estado in_progress |
requires_action | O estado required_action |
cancelando | O estado de cancelamento |
cancelled | O estado cancelado |
falhou | O estado com falha |
concluído | O estado concluído |
Expirado | O estado expirado |
createRunRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usada para executar esta execução. | Sim | |
modelo | string | O nome da implantação de modelo a ser usada para realizar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
instruções | string | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | Não | |
additional_instructions | string | Acrescenta instruções adicionais ao final das instruções para a execução. Isto é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
additional_messages | matriz | Acrescenta mensagens adicionais ao thread antes de criar a execução. | Não | |
manuais | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não | |
max_prompt_tokens | Número inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de solicitação especificados, em várias voltas da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
max_completion_tokens | Número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
listRunsResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
modifyRunRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
submitToolOutputsRunRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_outputs | matriz | Uma lista de ferramentas para as quais as saídas estão sendo enviadas. | Sim | |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não |
runToolCallObject
Objetos de chamada de ferramenta
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID da chamada da ferramenta. Essa ID deve ser referenciada quando você envia as saídas da ferramenta usando Enviar saídas da ferramenta para executar ponto de extremidade. | Sim | |
tipo | string | O tipo da chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function . |
Sim | |
função | objeto | A definição de função. | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos que o modelo espera que você passe para a função. |
Enumeração de tipo: RunToolCallObjectType
Valor | Descrição |
---|---|
função |
createThreadAndRunRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usada para executar esta execução. | Sim | |
thread | createThreadRequest | Não | ||
modelo | string | O nome da implantação de modelo a ser usada para realizar esta execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, o modelo associado ao assistente será usado. | Não | |
instruções | string | Substitua a mensagem do sistema padrão do assistente. Isto é útil para modificar o comportamento por execução. | Não | |
manuais | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isto é útil para modificar o comportamento por execução. | Não | |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não | |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente, é recomendável alterar este ou a temperatura, mas não ambos. |
Não | 1 |
fluxo | boolean | Se true , retornará um fluxo de eventos que ocorrem durante os eventos executados como enviados pelo servidor, encerrando quando a Execução entra em um estado de terminal com uma mensagem data: [DONE] . |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso somente quando você definir stream: true . |
Não | Nenhum |
max_prompt_tokens | Número inteiro | O número máximo de tokens de solicitação que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de solicitação especificados, em várias voltas da execução. Se a execução exceder o número de tokens de solicitação especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
max_completion_tokens | Número inteiro | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará o melhor esforço para usar apenas o número de tokens de conclusão especificados, em várias voltas da execução. Se a execução exceder o número de tokens de conclusão especificados, ela terminará com status incomplete . Confira incomplete_details para obter mais informações. |
Não | |
truncation_strategy | truncationObject | Controla como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistantsApiToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada ferramenta como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa função. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | assistantsApiResponseFormatOption | Especifica o formato que o modelo precisa gerar. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo a partir do gpt-3.5-turbo-1106 .A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | A ID do repositório de vetores anexado a esse assistente. Pode haver no máximo 1 repositório de vetores anexado ao assistente. |
threadObject
Representa um thread que contém mensagens.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora do Unix (em segundos), para quando o thread foi criado. | Sim | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Sim | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
Enumeração de objeto: ThreadObjectType
Valor | Descrição |
---|---|
thread | O tipo de objeto de thread, que é sempre thread |
createThreadRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
da nuvem para o dispositivo | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
modifyThreadRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste thread. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a ferramenta code_interpreter requer uma lista de IDs de arquivo, enquanto a ferramenta file_search requer uma lista de IDs do repositório de vetores. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Propriedades para tool_resources
code_interpreter
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de Arquivo disponibilizadas para a ferramenta code_interpreter . Pode haver no máximo 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
vector_store_ids | matriz | O repositório de vetores anexado a esse thread. Pode haver um máximo de 1 repositório de vetores anexado ao thread. |
deleteThreadResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | cadeia de caracteres | Sim | ||
deleted | boolean | Sim | ||
objeto | string | Sim |
Enumeração de objeto: DeleteThreadResponseObjectState
Valor | Descrição |
---|---|
thread.deleted | O estado do objeto de resposta do thread excluído, que é thread.deleted |
listThreadsResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
messageObject
Representa uma mensagem dentro de um thread.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.message . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora do Unix (em segundos), para quando a mensagem foi criada. | Sim | |
thread_id | string | a ID do thread à qual essa mensagem pertence. | Sim | |
status | string | O status da mensagem, que pode ser in_progress , incomplete ou completed . |
Sim | |
incomplete_details | objeto | Em uma mensagem incompleta, detalha sobre por que a mensagem está incompleta. | Sim | |
completed_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando a mensagem foi concluída. | Sim | |
incomplete_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando a mensagem foi marcada como incompleta. | Sim | |
role | string | A entidade que produziu a mensagem. Uma opção entre user ou assistant . |
Sim | |
content | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. | Sim | |
assistant_id | string | Se aplicável, a ID do assistente que criou esta mensagem. | Sim | |
run_id | string | Se aplicável, a ID da execução associada à criação dessa mensagem. | Sim | |
anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às que foram adicionados. | Sim | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim |
Propriedades para incomplete_details
reason
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
reason | string | O motivo pelo qual a mensagem está incompleta. |
Enumeração de objeto: MessageObjectType
Valor | Descrição |
---|---|
thread.message | O tipo de objeto da mensagem, que é thread.message |
Enumeração de status: MessageObjectStatus
Valor | Descrição |
---|---|
in_progress | |
incomplete | |
concluído |
Enumeração de função: MessageObjectRole
Valor | Descrição |
---|---|
usuário | |
assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador da mensagem, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.message.delta . |
Sim | |
delta | objeto | O delta que contém os campos que foram alterados na Mensagem. | Sim |
Propriedades para delta
role
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
role | string | A entidade que produziu a mensagem. Uma opção entre user ou assistant . |
content
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
content | matriz | O conteúdo da mensagem na matriz de texto e/ou imagens. |
Enumeração de objeto: MessageDeltaObjectType
Valor | Descrição |
---|---|
thread.message.delta |
createMessageRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | string | A função da entidade que está criando a mensagem. Entre os valores permitidos estão: - user : indica que a mensagem foi enviada por um usuário real e, geralmente, deve ser usada para representar mensagens geradas por usuários.- assistant : indica que a mensagem foi gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim | |
content | string | O conteúdo da mensagem. | Sim | |
anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais devem ser adicionados. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
Enumeração de função: CreateMessageRequestRole
Valor | Descrição |
---|---|
usuário | |
assistente |
modifyMessageRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
deleteMessageResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | cadeia de caracteres | Sim | ||
deleted | boolean | Sim | ||
objeto | string | Sim |
Enumeração de objeto: DeleteMessageResponseObject
Valor | Descrição |
---|---|
thread.message.deleted | O estado do objeto de resposta da mensagem excluída |
listMessagesResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
messageContentImageFileObject
Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre image_file . |
Sim | |
image_file | objeto | Sim |
Propriedades para image_file
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do Arquivo da imagem no conteúdo da mensagem. |
Enumeração de tipo: MessageContentImageFileObjectType
Valor | Descrição |
---|---|
image_file | O tipo de arquivo de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre text . |
Sim | |
text | objeto | Sim |
Propriedades para texto
value
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
value | string | Os dados que compõem o texto. |
annotations
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
annotations | matriz |
Enumeração de tipo: messageContentTextObjectType
Valor | Descrição |
---|---|
text | O tipo de Objeto de texto de conteúdo da mensagem |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta de "recuperação" para pesquisar arquivos.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre file_citation . |
Sim | |
text | string | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
file_citation | objeto | Sim | ||
start_index | Número inteiro | Sim | ||
end_index | Número inteiro | Sim |
Propriedades para file_citation
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do Arquivo específico do qual vem a citação. |
Enumeração de tipo: FileCitationObjectType
Valor | Descrição |
---|---|
file_citation | O tipo de objeto de citação do arquivo |
messageContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter
para gerar um arquivo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre file_path . |
Sim | |
text | string | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
file_path | objeto | Sim | ||
start_index | Número inteiro | Sim | ||
end_index | Número inteiro | Sim |
Propriedades para file_path
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do arquivo que foi gerado. |
Enumeração de tipo: FilePathObjectType
Valor | Descrição |
---|---|
file_path | O tipo de objeto de caminho do arquivo |
messageDeltaContentImageFileObject
Faz referência a um Arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da parte do conteúdo na mensagem. | Sim | |
tipo | string | Sempre image_file . |
Sim | |
image_file | objeto | Não |
Propriedades para image_file
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do Arquivo da imagem no conteúdo da mensagem. |
Enumeração de tipo: MessageDeltaContentImageFileObjectType
Valor | Descrição |
---|---|
image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da parte do conteúdo na mensagem. | Sim | |
tipo | string | Sempre text . |
Sim | |
text | objeto | Não |
Propriedades para texto
value
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
value | string | Os dados que compõem o texto. |
annotations
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
annotations | matriz |
Enumeração de tipo: MessageDeltaContentTextObjectType
Valor | Descrição |
---|---|
text |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um Arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da anotação na parte do conteúdo do texto. | Sim | |
tipo | string | Sempre file_citation . |
Sim | |
text | string | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
file_citation | objeto | Não | ||
start_index | Número inteiro | Não | ||
end_index | Número inteiro | Não |
Propriedades para file_citation
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do Arquivo específico do qual vem a citação. |
cotação
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
cotação | string | A citação específica no arquivo. |
Enumeração de tipo: MessageDeltaContentTextAnnotationsFileCitationObjectType
Valor | Descrição |
---|---|
file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Uma URL para o arquivo gerado quando o assistente usou a ferramenta code_interpreter
para gerar um arquivo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da anotação na parte do conteúdo do texto. | Sim | |
tipo | string | Sempre file_path . |
Sim | |
text | string | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
file_path | objeto | Não | ||
start_index | Número inteiro | Não | ||
end_index | Número inteiro | Não |
Propriedades para file_path
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do arquivo que foi gerado. |
Enumeração de tipo: MessageDeltaContentTextAnnotationsFilePathObjectType
Valor | Descrição |
---|---|
file_path |
runStepObject
Representa uma etapa de uma execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre assistant.run.step . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora do Unix (em segundos), para quando a etapa de execução foi criada. | Sim | |
assistant_id | string | A ID do assistente associado à etapa de execução. | Sim | |
thread_id | string | A ID do thread que foi executado. | Sim | |
run_id | string | A ID da execução da qual essa etapa de execução faz parte. | Sim | |
tipo | string | O tipo de etapa da execução, que pode ser message_creation ou tool_calls . |
Sim | |
status | string | O status da execução, que pode ser in_progress , cancelled , failed , completed ou expired . |
Sim | |
step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Sim | |
last_error | objeto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Sim | |
expired_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa será considerada expirada se a execução pai tiver expirado. | Sim | |
cancelled_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. | Sim | |
failed_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. | Sim | |
completed_at | Número inteiro | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. | Sim | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim |
Propriedades para last_error
código
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
código | string | Uma opção entre server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
message | string | Uma descrição do erro legível para humanos. |
Enumeração de objeto: RunStepObjectType
Valor | Descrição |
---|---|
assistant.run.step | O tipo de objeto, que é sempre assistant.run.step |
Enumeração de tipo: RunStepObjectType
Valor | Descrição |
---|---|
message_creation | A etapa de execução message_creation |
tool_calls | A etapa de execução tool_calls |
Enumeração de status: RunStepObjectStatus
Valor | Descrição |
---|---|
in_progress | O status de execução in_progress |
cancelled | O status da execução cancelada |
falhou | O status da execução cancelada |
concluído | O status da execução cancelada |
Expirado | O status da execução cancelada |
runStepDeltaObject
Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.run.step.delta . |
Sim | |
delta | objeto | O delta que contém os campos que foram alterados na etapa de execução. | Sim |
Propriedades para delta
step_details
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. |
Enumeração de objeto: RunStepDeltaObjectType
Valor | Descrição |
---|---|
thread.run.step.delta |
listRunStepsResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre message_creation . |
Sim | |
message_creation | objeto | Sim |
Propriedades para message_creation
message_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
message_id | string | A ID da mensagem que foi criada por esta etapa de execução. |
Enumeração de tipo: RunStepDetailsMessageCreationObjectType
Valor | Descrição |
---|---|
message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre message_creation . |
Sim | |
message_creation | objeto | Não |
Propriedades para message_creation
message_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
message_id | string | A ID da mensagem que foi criada por esta etapa de execução. |
Enumeração de tipo: RunStepDeltaStepDetailsMessageCreationObjectType
Valor | Descrição |
---|---|
message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre tool_calls . |
Sim | |
tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter , retrieval ou function . |
Sim |
Enumeração de tipo: RunStepDetailsToolCallsObjectType
Valor | Descrição |
---|---|
tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada de ferramenta.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre tool_calls . |
Sim | |
tool_calls | matriz | Uma matriz de chamadas de ferramenta na qual a etapa de execução estava envolvida. Elas podem ser associadas a um dos três tipos de ferramentas: code_interpreter , file_search ou function . |
Não |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsObjectType
Valor | Descrição |
---|---|
tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID da chamada da ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim | |
code_interpreter | objeto | A definição da chamada da ferramenta Intérprete de Código. | Sim |
Propriedades para code_interpreter
input
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
input | string | A entrada para a chamada da ferramenta Intérprete de Código. |
outputs
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
outputs | matriz | As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
Enumeração de tipo: RunStepDetailsToolCallsCodeObjectType
Valor | Descrição |
---|---|
code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Intérprete de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
ID | string | A ID da chamada da ferramenta. | Não | |
type | string | O tipo de chamada de ferramenta. Sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim | |
code_interpreter | objeto | A definição da chamada da ferramenta Intérprete de Código. | Não |
Propriedades para code_interpreter
input
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
input | string | A entrada para a chamada da ferramenta Intérprete de Código. |
outputs
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
outputs | matriz | As saídas da chamada da ferramenta Intérprete de Código. O Intérprete de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeObjectType
Valor | Descrição |
---|---|
code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre logs . |
Sim | |
logs | string | A saída de texto da chamada da ferramenta Intérprete de Código. | Sim |
Enumeração de tipo: RunStepDetailsToolCallsCodeOutputLogsObjectType
Valor | Descrição |
---|---|
logs |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Intérprete de Código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da saída na matriz de saídas. | Sim | |
tipo | string | Sempre logs . |
Sim | |
logs | string | A saída de texto da chamada da ferramenta Intérprete de Código. | Não |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
Valor | Descrição |
---|---|
logs |
runStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre image . |
Sim | |
imagem | objeto | Sim |
Propriedades para imagem
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do Arquivo da imagem. |
Enumeração de tipo: RunStepDetailsToolCallsCodeOutputImageObjectType
Valor | Descrição |
---|---|
imagem |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da saída na matriz de saídas. | Sim | |
tipo | string | Sempre image . |
Sim | |
imagem | objeto | Não |
Propriedades para imagem
file_id
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
file_id | string | A ID do arquivo da imagem. |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
Valor | Descrição |
---|---|
imagem |
runStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID do objeto da chamada de ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Sempre será file_search para esse tipo de chamada de ferramenta. |
Sim | |
file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Sim |
Enumeração de tipo: RunStepDetailsToolCallsFileSearchObjectType
Valor | Descrição |
---|---|
file_search |
runStepDeltaStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
ID | string | A ID do objeto da chamada de ferramenta. | Não | |
type | string | O tipo de chamada de ferramenta. Sempre será retrieval para esse tipo de chamada de ferramenta. |
Sim | |
file_search | objeto | Por enquanto, isso sempre será um objeto vazio. | Sim |
Enumeração de tipo: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
Valor | Descrição |
---|---|
file_search |
runStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID do objeto da chamada de ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. |
Sim | |
função | objeto | A definição da função que foi chamada. | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos passados para a função. |
output
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
output | string | A saída da função. Será null se as saídas ainda não tiverem sido enviadas. |
Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType
Valor | Descrição |
---|---|
função |
runStepDeltaStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
ID | string | A ID do objeto da chamada de ferramenta. | Não | |
type | string | O tipo de chamada de ferramenta. Sempre será function para esse tipo de chamada de ferramenta. |
Sim | |
função | objeto | A definição da função que foi chamada. | Não |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos passados para a função. |
output
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
output | string | A saída da função. Será null se as saídas ainda não tiverem sido enviadas. |
Enumeração de tipo: RunStepDetailsToolCallsFunctionObjectType
Valor | Descrição |
---|---|
função |
vectorStoreExpirationAfter
A política de expiração de um repositório de vetores.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
âncora | string | Carimbo de data/hora da âncora após o qual a política de expiração se aplica. Âncoras com suporte: last_active_at . |
Sim | |
dias | Número inteiro | O número de dias após o tempo de ancoragem em que o repositório de vetores expirará. | Sim |
Enumeração de âncora: VectorStoreExpirationAfterAnchor
Valor | Descrição |
---|---|
last_active_at | O carimbo de data/hora da âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um repositório de vetores é uma coleção de arquivos processados que pode ser usado pela ferramenta file_search
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | enum | O tipo de objeto, que é sempre vector_store .Valores possíveis: vector_store |
Sim | |
created_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Sim | |
nome | string | O nome do repositório de vetores. | Sim | |
usage_bytes | Número inteiro | O número total de bytes usados pelos arquivos no repositório de vetores. | Sim | |
file_counts | objeto | Sim | ||
status | string | O status do repositório de vetores, que pode ser expired , in_progress ou completed . Um status de completed indica que o repositório de vetores está pronto para uso. |
Sim | |
expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
expires_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores expirará. | Não | |
last_active_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores esteve ativo pela última vez. | Sim | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Sim |
Propriedades para file_counts
in_progress
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
in_progress | Número inteiro | O número de arquivos que estão sendo processados no momento. |
concluído
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
concluído | Número inteiro | O número de arquivos que foram processados com sucesso. |
falhou
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
falhou | Número inteiro | O número de arquivos que falharam ao processar. |
cancelled
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
cancelled | Número inteiro | O número de arquivos que foram cancelados. |
total
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
total | Número inteiro | O número total de arquivos. |
Enumeração de status: VectorStoreObjectStatus
Valor | Descrição |
---|---|
Expirado | |
in_progress | |
concluído |
createVectorStoreRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Não | |
name | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . Somente aplicável se file_ids não estiver vazio. |
Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
updateVectorStoreRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração de um repositório de vetores. | Não | |
metadata | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As chaves podem ter no máximo 64 caracteres e os valores podem ter no máximo 512 caracteres. |
Não |
listVectorStoresResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
deleteVectorStoreResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | cadeia de caracteres | Sim | ||
deleted | boolean | Sim | ||
objeto | string | Sim |
Enumeração de objeto: DeleteVectorStoreResponseObject
Valor | Descrição |
---|---|
vector_store.deleted | O estado do objeto de resposta do repositório de vetores excluído |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório de vetores.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre vector_store.file . |
Sim | |
usage_bytes | Número inteiro | O uso total do repositório de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Sim | |
created_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando o repositório de vetores foi criado. | Sim | |
vector_store_id | string | A ID do repositório de vetores ao qual o arquivo está anexado. | Sim | |
status | string | O status do arquivo do repositório de vetores, que pode ser in_progress , completed , cancelled ou failed . O status completed indica que o arquivo do repositório de vetores está pronto para uso. |
Sim | |
last_error | objeto | O último erro associado a esse arquivo do repositório de vetores. Será null se não houver erros. |
Sim | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . Somente aplicável se file_ids não estiver vazio. |
Não |
Propriedades para last_error
código
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
código | string | Uma opção entre server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
message | string | Uma descrição do erro legível para humanos. |
Enumeração de objeto: VectorStoreFileObjectType
Valor | Descrição |
---|---|
vector_store.file |
Enumeração de status: VectorStoreFileObjectStatus
Valor | Descrição |
---|---|
in_progress | |
concluído | |
cancelled | |
falhou |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de divisão em partes é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do conceito de chunking_strategy
ser introduzido na API.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre other . |
Sim |
type Enum: OtherChunkingStrategyResponseParamType
Valor | Descrição |
---|---|
other |
staticChunkingStrategyResponseParam
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | string | Sempre static . |
Sim | |
static | staticChunkingStrategy | Sim |
type Enum: StaticChunkingStrategyResponseParamType
Valor | Descrição |
---|---|
static |
staticChunkingStrategy
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
max_chunk_size_tokens | Número inteiro | O número máximo de tokens em cada parte. O valor padrão é 800 . O valor mínimo é 100 e o valor máximo é 4096 . |
Sim | |
chunk_overlap_tokens | Número inteiro | O número de tokens que se sobrepõem entre as partes. O valor padrão é 400 .Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens . |
Sim |
autoChunkingStrategyRequestParam
A estratégia padrão. Atualmente, essa estratégia usa um max_chunk_size_tokens
de 800
e chunk_overlap_tokens
de 400
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | Sempre auto .Valores possíveis: automático |
Sim |
staticChunkingStrategyRequestParam
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | Sempre static .Valores possíveis: estático |
Sim | |
static | staticChunkingStrategy | Sim |
chunkingStrategyRequestParam
A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto
.
Esse componente pode ser um dos seguintes:
createVectorStoreFileRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_id | string | Uma ID de arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . |
Não |
listVectorStoreFilesResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
data | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
deleteVectorStoreFileResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | cadeia de caracteres | Sim | ||
deleted | boolean | Sim | ||
objeto | string | Sim |
Enumeração de objeto: DeleteVectorStoreFileResponseObject
Valor | Descrição |
---|---|
vector_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um repositório de vetores.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre vector_store.file_batch . |
Sim | |
created_at | Número inteiro | O carimbo de data/hora Unix (em segundos) de quando o lote de arquivos do repositório de vetores foi criado. | Sim | |
vector_store_id | string | A ID do repositório de vetores ao qual o Arquivo está anexado. | Sim | |
status | string | O status do lote de arquivos do repositório de vetores, que pode ser in_progress , completed , cancelled ou failed . |
Sim | |
file_counts | objeto | Sim |
Propriedades para file_counts
in_progress
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
in_progress | Número inteiro | O número de arquivos que estão sendo processados no momento. |
concluído
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
concluído | Número inteiro | O número de arquivos que foram processados. |
falhou
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
falhou | Número inteiro | O número de arquivos que falharam ao processar. |
cancelled
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
cancelled | Número inteiro | O número de arquivos que foram cancelados. |
total
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
total | Número inteiro | O número total de arquivos. |
Enumeração de objeto: VectorStoreFileBatchObjectType
Valor | Descrição |
---|---|
vector_store.files_batch |
Enumeração de status: VectorStoreFileBatchObjectStatus
Valor | Descrição |
---|---|
in_progress | |
concluído | |
cancelled | |
falhou |
createVectorStoreFileBatchRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de Arquivo que o repositório de vetores deve usar. Útil para ferramentas como file_search , que podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de divisão em partes usada para dividir os arquivos. Se não estiver definida, usará a estratégia de auto . |
Não |
assistantStreamEvent
Representa um evento emitido ao transmitir uma execução.
Cada evento em um fluxo de eventos enviados pelo servidor tem uma propriedade event
e data
:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, faz a transição para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created
quando uma nova execução é criada, thread.run.completed
quando uma execução é concluída e assim por diante. Quando um Assistente opta por criar uma mensagem durante uma execução, emitimos um thread.message.created event
, um evento thread.message.in_progress
, muitos eventos thread.message.delta
e, por fim, um evento thread.message.completed
.
Podemos acrescentar eventos adicionais ao longo do tempo, portanto, recomendamos tratar eventos desconhecidos normalmente em seu código.
Esse componente pode ser um dos seguintes:
threadStreamEvent
Esse componente pode ser um dos seguintes:
thread.created
Ocorre quando um novo thread é criado.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | threadObject | Representa um thread que contém mensagens. | Sim |
Dados: threadObject
Enumeração de Evento: ThreadStreamEventEnum
Valor | Descrição |
---|---|
thread.created | O evento criado pelo thread |
runStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova execução é criada.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventCreated
Valor | Descrição |
---|---|
thread.run.created |
thread.run.queued
Ocorre quando uma execução é movida para um status queued
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventQueued
Valor | Descrição |
---|---|
thread.run.queued |
thread.run.in_progress
Ocorre quando uma execução é movida para um status in_progress
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventInProgress
Valor | Descrição |
---|---|
thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma execução é movida para um status requires_action
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventRequiresAction
Valor | Descrição |
---|---|
thread.run.requires_action |
thread.run.completed
Ocorre quando uma execução é concluída.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventCompleted
Valor | Descrição |
---|---|
thread.run.completed |
thread.run.failed
Ocorre quando uma execução falha.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventFailed
Valor | Descrição |
---|---|
thread.run.failed |
thread.run.cancelling
Ocorre quando uma execução é movida para um status cancelling
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventCancelling
Valor | Descrição |
---|---|
thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma execução é cancelada.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventCancelled
Valor | Descrição |
---|---|
thread.run.cancelled |
thread.run.expired
Ocorre quando uma execução expira.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enumeração de Evento: RunStreamEventExpired
Valor | Descrição |
---|---|
thread.run.expired |
runStepStreamEvent
Esse componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando uma etapa de execução é criada.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCreated
Valor | Descrição |
---|---|
thread.run.step.created |
thread.run.step.in_progress
Ocorre quando uma etapa de execução é movida para um estado in_progress
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventInProgress
Valor | Descrição |
---|---|
thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepDeltaObject | Representa um delta da etapa de execução, ou seja, todos os campos alterados em uma etapa de execução durante o streaming. |
Sim |
Dados: runStepDeltaObject
Enumeração de Evento: RunStepStreamEventDelta
Valor | Descrição |
---|---|
thread.run.step.delta |
thread.run.step.completed
Ocorre quando uma etapa de execução é concluída.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCompleted
Valor | Descrição |
---|---|
thread.run.step.completed |
thread.run.step.failed
Ocorre quando uma etapa de execução falha.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventFailed
Valor | Descrição |
---|---|
thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando uma etapa de execução é cancelada.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventCancelled
Valor | Descrição |
---|---|
thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando uma etapa de execução expira.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | runStepObject | Representa uma etapa de uma execução. |
Sim |
Dados: runStepObject
Enumeração de Evento: RunStepStreamEventExpired
Valor | Descrição |
---|---|
thread.run.step.expired |
messageStreamEvent
Esse componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enumeração de Evento: MessageStreamEventCreated
Valor | Descrição |
---|---|
thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem é movida para um estado in_progress
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enumeração de Evento: MessageStreamEventInProgress
Valor | Descrição |
---|---|
thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | messageDeltaObject | Representa um delta de mensagem, ou seja, todos os campos alterados em uma mensagem durante o streaming. |
Sim |
Dados: messageDeltaObject
Enumeração de Evento: MessageStreamEventDelta
Valor | Descrição |
---|---|
thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enumeração de Evento: MessageStreamEventCompleted
Valor | Descrição |
---|---|
thread.message.completed |
thread.message.incomplete
Ocorre quando uma mensagem termina antes de ser concluída.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enumeração de Evento: MessageStreamEventIncomplete
Valor | Descrição |
---|---|
thread.message.incomplete |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | error | Sim |
Enumeração de evento: ErrorEventEnum
Valor | Descrição |
---|---|
error |
doneEvent
Ocorre quando um fluxo termina.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
event | string | Sim | ||
data | string | Sim |
Enumeração de evento: DoneEventEnum
Valor | Descrição |
---|---|
concluído |
Enumeração de dados: DoneEventDataEnum
Valor | Descrição |
---|---|
[CONCLUÍDO] |
Próximas etapas
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.