Referência de visualização da API REST do Serviço OpenAI do Azure
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.
Especificações da API
O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:
- Plano de controlo
- Plano de dados - criação
- Plano de dados - inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de visualizações e versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
API | Versão de pré-visualização mais recente | Última versão do GA | Especificações | Description |
---|---|---|---|---|
Plano de controlo | 2024-06-01-preview |
2024-10-01 |
Arquivos de especificações | O Azure OpenAI compartilha um plano de controle comum com todos os outros Serviços de IA do Azure. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure. |
Plano de dados - criação | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificações | A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo |
Plano de dados - inferência | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificações | A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, fala/sussurro, em seus dados, Dall-e, assistentes, etc. |
Autenticação
O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a
api-key
chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o
Authorization
cabeçalho. O token fornecido deve ser precedido porBearer
, por exemploBearer YOUR_AUTH_TOKEN
, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço têm um controlo de versão com o parâmetro de consulta api-version
. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a versão de visualização mais recente da especificação de inferência do plano de dados do Azure OpenAI, 2024-10-01-preview
. Este artigo inclui documentação para os recursos de visualização mais recentes, como assistentes, threads e repositórios vetoriais.
Se você estiver procurando documentação sobre a versão mais recente da API do GA, consulte a API de inferência de plano de dados do GA mais recente
Finalizações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
best_of | integer | Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n o , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Echo de volta o prompt, além da conclusão |
Não | False |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
Logprobs | integer | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | integer | Quantas finalizações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
sementes | integer | Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
transmissão em fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhuma |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat). |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-01-preview
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporações - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
input | cadeia de caracteres ou matriz | Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002 ), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. |
Sim | |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
input_type | string | tipo de entrada de pesquisa de incorporação a ser usada | Não | |
encoding_format | string | O formato para retornar as incorporações. Pode ser qualquer um float ou base64 . O padrão é float . |
Não | |
dimensões | integer | O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. |
Não |
Respostas
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
modelo | string | Sim | ||
dados | matriz | Sim | ||
ativa | objeto | Sim |
Propriedades para uso
prompt_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
total_tokens | integer |
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objeto |
Exemplos
Exemplo
Retorne as incorporações para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-01-preview
{
"input": [
"this is a test"
]
}
Respostas: Código de status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05,
0.0032178196
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão do bate-papo - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
Cria uma conclusão para a mensagem de chat
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhuma |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
Logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message . |
Não | False |
top_logprobs | integer | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
n | integer | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 . Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | integer | Este recurso está em versão Beta. Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhuma |
ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. |
Não | |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes. |
Não | |
functions | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados vetoriais de imagem da Pesquisa do Azure.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"query_type": "vector",
"fields_mapping": {
"image_vector_fields": [
"image_vector"
]
},
"authentication": {
"type": "api_key",
"key": "{api key}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion."
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o banco de dados Mongo fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "mongo_db",
"parameters": {
"authentication": {
"type": "username_and_password",
"username": "<username>",
"password": "<password>"
},
"endpoint": "<endpoint_name>",
"app_name": "<application name>",
"database_name": "sampledb",
"collection_name": "samplecollection",
"index_name": "sampleindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Elasticsearch fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "elasticsearch",
"parameters": {
"endpoint": "https://your-elasticsearch-endpoint.eastus.azurecontainer.io",
"index_name": "{index name}",
"authentication": {
"type": "key_and_key_id",
"key": "{key}",
"key_id": "{key id}"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o recurso Pinecone fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-01-preview
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "pinecone",
"parameters": {
"authentication": {
"type": "api_key",
"key": "{api key}"
},
"environment": "{environment name}",
"index_name": "{index name}",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"title_field": "title",
"url_field": "url",
"filepath_field": "filepath",
"content_fields": [
"content"
],
"content_fields_separator": "\n"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Transcreve o áudio para o idioma de entrada.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo de sussurro. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O objeto do arquivo de áudio a ser transcrito. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
idioma | string | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não | |
timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word , ou segment . Nota: Não há latência adicional para carimbos de data/hora de segmento, mas a geração de carimbos de data/hora de palavras incorre em latência adicional. |
Não | ['segmento'] |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
Transcreve e traduz áudio de entrada para texto em inglês.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo de sussurro que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O arquivo de áudio a ser traduzido. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-01-preview
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Fala - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
Gera áudio a partir do texto de entrada.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo tts que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
entrada | string | O texto para sintetizar áudio. O comprimento máximo é de 4.096 caracteres. | Sim | |
voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: liga, eco, fábula, ônix, nova, brilho |
Sim | |
response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
velocidade | Número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0 . 1.0 é a predefinição. |
Não | 1.0 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/octet-stream | string |
Exemplos
Exemplo
Sintetiza o áudio do texto fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/speech?api-version=2024-10-01-preview
{
"input": "Hi! What are you going to make?",
"voice": "fable",
"response_format": "mp3"
}
Respostas: Código de status: 200
{
"body": "101010101"
}
Gerações de imagens - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo DALLE
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo dalle que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | string | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. | Sim | |
n | integer | O número de imagens a gerar. | Não | 1 |
size | imageSize | O tamanho das imagens geradas. | Não | 1024 x 1024 |
response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | url |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
Respostas
Código de status: 200
Descrição: Ok
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Exemplos
Exemplo
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-01-preview
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
},
"custom_blocklists": {
"filtered": false,
"details": []
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Lista - Assistentes
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Retorna uma lista de assistentes.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listAssistantsResponse |
Exemplos
Exemplo
Retorna uma lista de assistentes.
GET https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "asst_abc123",
"object": "assistant",
"created_at": 1707257477,
"name": "Stock Analyst",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "You are a financial analyst that analyzes stock market prices and other financial data present on user uploaded files or by calling external APIs.",
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc456",
"object": "assistant",
"created_at": 1698982718,
"name": "My Assistant",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant designed to make me better at coding!",
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
},
{
"id": "asst_abc789",
"object": "assistant",
"created_at": 1698982643,
"name": null,
"description": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [],
"tool_resources": {},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
],
"first_id": "asst_abc123",
"last_id": "asst_abc789",
"has_more": false
}
}
Criar - Assistente
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
Crie um assistente com um modelo e instruções.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
modelo | Sim | |||
nome | string | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Não | |
ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente. |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Crie um assistente com um modelo e instruções.
POST https://{endpoint}/openai/assistants?api-version=2024-10-01-preview
{
"name": "Math Tutor",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"model": "gpt-4-1106-preview"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant",
"created_at": 1707295707,
"name": "Math Tutor",
"description": null,
"model": "gpt-4-1106-preview",
"instructions": "When a customer asks about a specific math problem, use Python to evaluate their query.",
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Obter - Assistente
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Recupera um assistente.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
assistant_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Recupera um assistente.
GET https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_abc123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies.",
"tools": [
{
"type": "file_search"
}
],
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Modificar - Assistente
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Modifica um assistente.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
assistant_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
modelo | Não | |||
nome | string | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O comprimento máximo é de 32.768 caracteres. |
Não | |
ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente. |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | assistantObject | Representa um assistant que pode chamar o modelo e usar ferramentas. |
Exemplos
Exemplo
Modifica um assistente.
POST https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
{
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"model": "gpt-4-turbo"
}
Respostas: Código de status: 200
{
"body": {
"id": "asst_123",
"object": "assistant",
"created_at": 1699009709,
"name": "HR Helper",
"description": null,
"model": "gpt-4-turbo",
"instructions": "You are an HR bot, and you have access to files to answer employee questions about company policies. Always response with info from either of the files.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": []
}
},
"metadata": {},
"top_p": 1.0,
"temperature": 1.0,
"response_format": "auto"
}
}
Excluir - Assistente
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Excluir um assistente.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
assistant_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteAssistantResponse |
Exemplos
Exemplo
Exclui um assistente.
DELETE https://{endpoint}/openai/assistants/{assistant_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "asst_4nsG2qgNzimRPE7MazXTXbU7",
"object": "assistant.deleted",
"deleted": true
}
}
Criar - Thread
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Crie um thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
mensagens | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
|
vector_stores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de um armazenamento vetorial anexado ao thread. |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Cria um thread.
POST https://{endpoint}/openai/threads?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {}
}
}
Obter - Thread
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Recupera um thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Recupera um thread.
GET https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {},
"tool_resources": {
"code_interpreter": {
"file_ids": []
}
}
}
}
Modificar - Thread
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Modifica um thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de um armazenamento vetorial anexado ao thread. |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | threadObject | Representa um thread que contém mensagens. |
Exemplos
Exemplo
Modifica um thread.
POST https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread",
"created_at": 1707297136,
"metadata": {
"modified": "true",
"user": "abc123"
},
"tool_resources": {}
}
}
Excluir - Thread
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Exclua um thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteThreadResponse |
Exemplos
Exemplo
Exclui um thread.
DELETE https://{endpoint}/openai/threads/{thread_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"object": "thread.deleted",
"deleted": true
}
}
Lista - Mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Retorna uma lista de mensagens para um determinado thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
run_id | query | Não | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listMessagesResponse |
Exemplos
Exemplo
Listar mensagens
GET https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
},
{
"id": "msg_abc456",
"object": "thread.message",
"created_at": 1699016383,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "Hello, what is AI?",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
],
"first_id": "msg_abc123",
"last_id": "msg_abc456",
"has_more": false
}
}
Criar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
Criar uma mensagem.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | string | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user : Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant : Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim | |
content | string | O conteúdo da mensagem. | Sim | |
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Criar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages?api-version=2024-10-01-preview
{
"role": "user",
"content": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces."
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"assistant_id": null,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"attachments": [],
"metadata": {}
}
}
Obter - Mensagem
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Recuperar uma mensagem.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
message_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Recuperar uma mensagem.
GET https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "msg_as3XIk1tpVP3hdHjWBGg3uG4",
"object": "thread.message",
"created_at": 1707298421,
"thread_id": "thread_v7V4csrNOxtNmgcwGg496Smx",
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "What is the cube root of the sum of 12, 14, 1234, 4321, 90000, 123213541223, 443123123124, 5423324234, 234324324234, 653434534545, 200000000, 98237432984, 99999999, 99999999999, 220000000000, 3309587702? Give me the answer rounded to the nearest integer without commas or spaces.",
"annotations": []
}
}
],
"file_ids": [],
"assistant_id": null,
"run_id": null,
"metadata": {}
}
}
Modificar - Mensagem
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
Modifica uma mensagem.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
message_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | messageObject | Representa uma mensagem dentro de um thread. |
Exemplos
Exemplo
Modificar uma mensagem.
POST https://{endpoint}/openai/threads/{thread_id}/messages/{message_id}?api-version=2024-10-01-preview
{
"metadata": {
"modified": "true",
"user": "abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "msg_abc123",
"object": "thread.message",
"created_at": 1699017614,
"assistant_id": null,
"thread_id": "thread_abc123",
"run_id": null,
"role": "user",
"content": [
{
"type": "text",
"text": {
"value": "How does AI work? Explain it in simple terms.",
"annotations": []
}
}
],
"file_ids": [],
"metadata": {
"modified": "true",
"user": "abc123"
}
}
}
Criar - Thread e Executar
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
Crie um thread e execute-o em uma solicitação.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usado para executar essa execução. | Sim | |
thread | createThreadRequest | Não | ||
modelo | string | O nome de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
instruções | string | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhuma |
max_prompt_tokens | integer | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
max_completion_tokens | integer | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de um armazenamento vetorial anexado ao assistente. |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Crie um thread e execute-o em uma solicitação.
POST https://{endpoint}/openai/threads/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123",
"thread": {
"messages": [
{
"role": "user",
"content": "Explain deep learning to a 5 year old."
}
]
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076792,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": null,
"expires_at": 1699077392,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"required_action": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You are a helpful assistant.",
"tools": [],
"tool_resources": {},
"metadata": {},
"temperature": 1.0,
"top_p": 1.0,
"max_completion_tokens": null,
"max_prompt_tokens": null,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"incomplete_details": null,
"usage": null,
"response_format": "auto",
"tool_choice": "auto"
}
}
Lista - Execuções
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Retorna uma lista de execuções pertencentes a um thread.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listRunsResponse |
Exemplos
Exemplo
Retorna uma lista de execuções pertencentes a um thread.
GET https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
},
{
"id": "run_abc456",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
],
"first_id": "run_abc123",
"last_id": "run_abc456",
"has_more": false
}
}
Criar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
Crie uma execução.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usado para executar essa execução. | Sim | |
modelo | string | A ID do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
instruções | string | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
additional_instructions | string | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
max_prompt_tokens | integer | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
max_completion_tokens | integer | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Crie uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs?api-version=2024-10-01-preview
{
"assistant_id": "asst_abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699063290,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "queued",
"started_at": 1699063290,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699063291,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Obter - Executar
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Recupera uma execução.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Consegue uma corrida.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_HsO8tYM4K5AAMAHgK0J3om8Q",
"object": "thread.run",
"created_at": 1707303196,
"assistant_id": "asst_JtTwHk28cIocgFXZPCBxhOzl",
"thread_id": "thread_eRNwflE3ncDYak1np6MdMHJh",
"status": "completed",
"started_at": 1707303197,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1707303201,
"last_error": null,
"model": "gpt-4-1106-preview",
"instructions": "You are an AI model that empowers every person and every organization on the planet to achieve more.",
"tools": [],
"file_ids": [],
"metadata": {}
}
}
Modificar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
Modifica uma execução.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Modifica uma execução.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}?api-version=2024-10-01-preview
{
"metadata": {
"user_id": "user_abc123"
}
}
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699075072,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "completed",
"started_at": 1699075072,
"expires_at": null,
"cancelled_at": null,
"failed_at": null,
"completed_at": 1699075073,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"incomplete_details": null,
"tools": [
{
"type": "code_interpreter"
}
],
"tool_resources": {
"code_interpreter": {
"file_ids": [
"file-abc123",
"file-abc456"
]
}
},
"metadata": {
"user_id": "user_abc123"
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
},
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Enviar - Saídas da ferramenta para executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
Quando uma execução tem o status: "requires_action"
e required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Sim | |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Quando uma execução tem o status: "requires_action"
e required_action.type
é submit_tool_outputs
, esse ponto de extremidade pode ser usado para enviar as saídas das chamadas de ferramenta assim que todas forem concluídas. Todas as saídas devem ser enviadas em uma única solicitação.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/submit_tool_outputs?api-version=2024-10-01-preview
{
"tool_outputs": [
{
"tool_call_id": "call_001",
"output": "70 degrees and sunny."
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "run_123",
"object": "thread.run",
"created_at": 1699075592,
"assistant_id": "asst_123",
"thread_id": "thread_123",
"status": "queued",
"started_at": 1699075592,
"expires_at": 1699076192,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": null,
"tools": [
{
"type": "function",
"function": {
"name": "get_current_weather",
"description": "Get the current weather in a given location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city and state, e.g. San Francisco, CA"
},
"unit": {
"type": "string",
"enum": [
"celsius",
"fahrenheit"
]
}
},
"required": [
"location"
]
}
}
}
],
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"max_prompt_tokens": 1000,
"max_completion_tokens": 1000,
"truncation_strategy": {
"type": "auto",
"last_messages": null
},
"response_format": "auto",
"tool_choice": "auto"
}
}
Cancelar - Executar
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Cancela uma execução que é in_progress
.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runObject | Representa uma execução executada em um thread. |
Exemplos
Exemplo
Cancela uma execução que é in_progress
.
POST https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/cancel?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "run_abc123",
"object": "thread.run",
"created_at": 1699076126,
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"status": "cancelling",
"started_at": 1699076126,
"expires_at": 1699076726,
"cancelled_at": null,
"failed_at": null,
"completed_at": null,
"last_error": null,
"model": "gpt-4-turbo",
"instructions": "You summarize books.",
"tools": [
{
"type": "file_search"
}
],
"tool_resources": {
"file_search": {
"vector_store_ids": [
"vs_123"
]
}
},
"metadata": {},
"usage": null,
"temperature": 1.0,
"top_p": 1.0,
"response_format": "auto"
}
}
Lista - Executar etapas
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Retorna uma lista de etapas de execução pertencentes a uma execução.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listRunStepsResponse |
Exemplos
Exemplo
Retorna uma lista de etapas de execução pertencentes a uma execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
],
"first_id": "step_abc123",
"last_id": "step_abc456",
"has_more": false
}
}
Obter - Executar etapa
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Recupera uma etapa de execução.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
thread_id | path | Sim | string | |
run_id | path | Sim | string | |
step_id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | runStepObject | Representa uma etapa na execução de uma execução. |
Exemplos
Exemplo
Recupera uma etapa de execução.
GET https://{endpoint}/openai/threads/{thread_id}/runs/{run_id}/steps/{step_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "step_abc123",
"object": "thread.run.step",
"created_at": 1699063291,
"run_id": "run_abc123",
"assistant_id": "asst_abc123",
"thread_id": "thread_abc123",
"type": "message_creation",
"status": "completed",
"cancelled_at": null,
"completed_at": 1699063291,
"expired_at": null,
"failed_at": null,
"last_error": null,
"step_details": {
"type": "message_creation",
"message_creation": {
"message_id": "msg_abc123"
}
},
"usage": {
"prompt_tokens": 123,
"completion_tokens": 456,
"total_tokens": 579
}
}
}
Lista - Vetor Stores
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Retorna uma lista de repositórios vetoriais.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoresResponse |
Exemplos
Exemplo
Retorna uma lista de repositórios vetoriais.
GET https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
},
{
"id": "vs_abc456",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ v2",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
],
"first_id": "vs_abc123",
"last_id": "vs_abc456",
"has_more": false
}
}
Criar - Loja de vetores
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Crie um repositório vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Não | |
nome | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta. |
Exemplos
Exemplo
Cria um repositório vetorial.
POST https://{endpoint}/openai/vector_stores?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Obter - Loja de vetores
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Recupera um armazenamento de vetores.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta. |
Exemplos
Exemplo
Recupera um armazenamento de vetores.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776
}
}
Modificar - Vetor Store
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Modifica um armazenamento vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreObject | Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search ferramenta. |
Exemplos
Exemplo
Modifica um armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
{
"name": "Support FAQ"
}
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store",
"created_at": 1699061776,
"name": "Support FAQ",
"bytes": 139920,
"file_counts": {
"in_progress": 0,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 3
}
}
}
Excluir - Vetor Store
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Exclua um repositório de vetores.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreResponse |
Exemplos
Exemplo
Exclui um repositório vetorial.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vs_abc123",
"object": "vector_store.deleted",
"deleted": true
}
}
Lista - Arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Retorna uma lista de arquivos de armazenamento vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
filtrar | query | Não | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Criar - Arquivo de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_id | string | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject | Uma lista de arquivos anexados a um repositório vetorial. |
Exemplos
Exemplo
Crie um arquivo de armazenamento vetorial anexando um arquivo a um repositório vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/files?api-version=2024-10-01-preview
{
"file_id": "file-abc123"
}
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"usage_bytes": 1234,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Obter - Arquivo de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Recupera um arquivo de armazenamento vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
file_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileObject | Uma lista de arquivos anexados a um repositório vetorial. |
Exemplos
Exemplo
Recupera um arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abcd",
"status": "completed",
"last_error": null
}
}
Excluir - Arquivo de armazenamento vetorial
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
file_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | deleteVectorStoreFileResponse |
Exemplos
Exemplo
Exclua um arquivo de armazenamento vetorial. Isso removerá o arquivo do armazenamento vetorial, mas o arquivo em si não será excluído. Para excluir o arquivo, use o ponto de extremidade de exclusão.
DELETE https://{endpoint}/openai/vector_stores/{vector_store_id}/files/{file_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "file_abc123",
"object": "vector_store.file.deleted",
"deleted": true
}
}
Criar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
Crie um lote de arquivo de armazenamento vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um armazenamento vetorial. |
Exemplos
Exemplo
Crie um lote de arquivo de armazenamento vetorial.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches?api-version=2024-10-01-preview
{
"file_ids": [
"file-abc123",
"file-abc456"
]
}
Respostas: Código de status: 200
{
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
Obter - Vetor Store File Batch
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Recupera um lote de arquivo de armazenamento vetorial.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
batch_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um armazenamento vetorial. |
Exemplos
Exemplo
Recupera um lote de arquivo de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "in_progress",
"file_counts": {
"in_progress": 1,
"completed": 1,
"failed": 0,
"cancelled": 0,
"total": 0
}
}
}
Cancelar - Lote de arquivos de armazenamento vetorial
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
batch_id | path | Sim | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | vectorStoreFileBatchObject | Um lote de arquivos anexados a um armazenamento vetorial. |
Exemplos
Exemplo
Cancele um lote de arquivo de armazenamento vetorial. Isso tenta cancelar o processamento de arquivos neste lote o mais rápido possível.
POST https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/cancel?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"id": "vsfb_abc123",
"object": "vector_store.file_batch",
"created_at": 1699061776,
"vector_store_id": "vs_abc123",
"status": "cancelling",
"file_counts": {
"in_progress": 12,
"completed": 3,
"failed": 0,
"cancelled": 0,
"total": 15
}
}
}
Lista - Arquivos em lote de arquivos de armazenamento vetorial
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Retorna uma lista de arquivos de armazenamento vetorial em um lote.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
vector_store_id | path | Sim | string | |
batch_id | path | Sim | string | |
limit | query | Não | integer | |
ordem | query | Não | string | |
depois de | query | Não | string | |
antes | query | Não | string | |
filtrar | query | Não | string | |
api-version | query | Sim | string |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | listVectorStoreFilesResponse |
Exemplos
Exemplo
Retorna uma lista de arquivos de armazenamento vetorial.
GET https://{endpoint}/openai/vector_stores/{vector_store_id}/file_batches/{batch_id}/files?api-version=2024-10-01-preview
Respostas: Código de status: 200
{
"body": {
"object": "list",
"data": [
{
"id": "file-abc123",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
},
{
"id": "file-abc456",
"object": "vector_store.file",
"created_at": 1699061776,
"vector_store_id": "vs_abc123"
}
],
"first_id": "file-abc123",
"last_id": "file-abc456",
"has_more": false
}
}
Componentes
errorResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
error | erro | Não |
Base de erro
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | string | Não | ||
mensagem | string | Não |
error
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
param | string | Não | ||
tipo | string | Não | ||
inner_error | innerError | Erro interno com detalhes adicionais. | Não |
innerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: Códigos de erro para o objeto de erro interno.
Tipo: string
Predefinido:
Nome do Enum: InnerErrorCode
Valores de Enum:
valor | Description |
---|---|
ResponsávelAIPolicyViolation | O prompt violou uma das mais regras de filtro de conteúdo. |
dalleErrorResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
error | dalleError | Não |
dalleError
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
param | string | Não | ||
tipo | string | Não | ||
inner_error | dalleInnerError | Erro interno com detalhes adicionais. | Não |
dalleInnerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | dalleFilterResultados | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não | |
revised_prompt | string | O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. | Não |
contentFilterCompletionTextSpan
Descreve um intervalo dentro do texto de conclusão gerado. O deslocamento 0 é o primeiro ponto de código UTF32 do texto de conclusão.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
completion_start_offset | integer | Deslocamento do ponto de código UTF32 que inicia a extensão. | Sim | |
completion_end_offset | integer | Deslocamento do primeiro ponto de código UTF32 que é excluído da extensão. Este campo é sempre igual a completion_start_offset para vãos vazios. Este campo é sempre maior do que completion_start_offset para vãos não vazios. | Sim |
contentFilterResultBase
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim |
contentFilterSeverityResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
gravidade | string | Não |
contentFilterDetectedResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detetada | boolean | Não |
contentFilterDetectedWithCitationResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
citação | objeto | Não |
Imóveis para citação
URL
Nome | Tipo | Description | Predefinido |
---|---|---|---|
URL | string |
license
Nome | Tipo | Description | Predefinido |
---|---|---|---|
license | string |
contentFilterDetectedWithCompletionTextSpansResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
detalhes | matriz | Não |
contentFilterIdResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
id | string | Não |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
error | Base de erro | Não |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
error | Base de erro | Não | ||
fuga de presos | contentFilterDetectedResult | Não | ||
indirect_attack | contentFilterDetectedResult | Não |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não | |
error | Base de erro | Não | ||
protected_material_text | contentFilterDetectedResult | Não | ||
protected_material_code | contentFilterDetectedWithCitationResult | Não | ||
ungrounded_material | contentFilterDetectedWithCompletionTextSpansResult | Não |
contentFilterDetailedResults
Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detalhes | matriz | Não |
promptFilterResult
A filtragem de conteúdo resulta de um único prompt na solicitação.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
prompt_index | integer | Não | ||
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
promptFilterResults
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes.
Nenhuma propriedade definida para este componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não |
dalleFilterResultados
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
fuga de presos | contentFilterDetectedResult | Não | ||
custom_blocklists | contentFilterDetailedResults | Resultados da filtragem de conteúdo com um detalhe das ids de filtro de conteúdo para os segmentos filtrados. | Não |
chatCompletionsRequestCommon
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. | Não | |
max_tokens | integer | O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Isto não é compatível com os modelos da série o1. | Não | 4096 |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. | Não | |
Utilizador | string | Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. | Não |
createCompletionRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
best_of | integer | Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n o , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Echo de volta o prompt, além da conclusão |
Não | False |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
Logprobs | integer | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos 5 tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | integer | Quantas finalizações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
sementes | integer | Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
parar | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
transmissão em fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhuma |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
createCompletionResponse
Representa uma resposta de conclusão da API. Nota: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão. | Sim | |
escolhas | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. | Sim | |
modelo | string | O modelo utilizado para a conclusão. | Sim | |
prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. | Não | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Sim | |
ativa | conclusãoUso | Estatísticas de utilização do pedido de conclusão. | Não |
createChatCompletionRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até 4 sequências onde a API deixará de gerar mais tokens. |
Não | |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. Isto só é suportado em modelos da série o1. Expandirá o suporte para outros modelos em futuras versões da API. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhuma |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
Logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message . |
Não | False |
top_logprobs | integer | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
n | integer | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 . Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | integer | Este recurso está em versão Beta. Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhuma |
ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. |
Não | |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes. |
Não | |
functions | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
chatCompletionFunctions
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | string | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
chatCompletionFunctionCallOption
Especificar uma função específica através {"name": "my_function"}
força o modelo a chamar essa função.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionFunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia/ para obter exemplos e a referência do esquema JSON para obter documentação sobre o formato.
Nenhuma propriedade definida para este componente.
chatCompletionRequestMessage
Este componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Sim | |
função | enumeração | O papel do autor das mensagens, neste caso system .Valores possíveis: sistema |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não |
chatCompletionRequestUserMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Sim | |
função | enumeração | O papel do autor das mensagens, neste caso user .Valores possíveis: user |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não |
chatCompletionRequestAssistantMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
Não | |
recusa | string | A mensagem de recusa por parte do assistente. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso assistant .Valores possíveis: assistente |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não |
Imóveis para function_call
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
chatCompletionRequestToolMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso tool .Valores possíveis: ferramenta |
Sim | |
content | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Sim | |
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
chatCompletionRequestFunctionMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: função |
Sim | |
content | string | O conteúdo da mensagem de função. | Sim | |
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestSystemMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: texto |
Sim | |
texto | string | O conteúdo do texto. | Sim |
chatCompletionRequestMessageContentPartImage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim | |
image_url | objeto | Sim |
Imóveis para image_url
url
Nome | Tipo | Description | Predefinido |
---|---|---|---|
url | string | Um URL da imagem ou os dados de imagem codificados em base64. |
detalhe
Nome | Tipo | Description | Predefinido |
---|---|---|---|
detalhe | string | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: recusa |
Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Descrição: uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo
solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta.
O uso dessa configuração é compatível apenas com o Azure OpenAI.
Tipo: string
Predefinido:
Nome do Enum: AzureChatExtensionType
Valores de Enum:
valor | Description |
---|---|
azure_search | Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI. |
azure_cosmos_db | Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI. |
elasticsearch | Representa o uso do índice Elasticsearch® como uma extensão de chat do Azure OpenAI. |
mongo_db | Representa o uso do Mongo DB como uma extensão de chat do Azure OpenAI. |
pinha | Representa o uso do índice Pinecone como uma extensão de chat do Azure OpenAI. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | azureSearchChatExtensionParameters | Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. | Não |
azureSearchChatExtensionParameters
Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Sim | ||
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
max_search_queries | integer | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | False |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
endpoint | string | O caminho de ponto de extremidade absoluto para o recurso de Pesquisa do Azure a ser usado. | Sim | |
index_name | string | O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. | Sim | |
fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | Não | |
query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | Não | |
semantic_configuration | string | A configuração semântica adicional para a consulta. | Não | |
filtrar | string | Filtro de pesquisa. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataIntegratedVectorizationSource | Não | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não | |
image_vector_fields | matriz | Os nomes dos campos que representam dados vetoriais de imagem. | Não |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Descrição: O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Tipo: string
Predefinido:
Nome do Enum: AzureSearchQueryType
Valores de Enum:
valor | Description |
---|---|
simples | Representa o analisador de consulta simples padrão. |
semânticos | Representa o analisador de consulta semântica para modelagem semântica avançada. |
vetor | Representa a pesquisa vetorial sobre dados computados. |
vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados vetoriais. |
vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados vetoriais. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. |
Não |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Sim | |
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
max_search_queries | integer | O número máximo de consultas reescritas que devem ser enviadas ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | False |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
database_name | string | O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. | Sim | |
container_name | string | O nome do contêiner de recursos do Azure Cosmos DB. | Sim | |
index_name | string | O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. | Sim | |
fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
elasticsearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Elasticsearch ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | elasticsearchChatExtensionParameters | Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI. | Não |
elasticsearchChatExtensionParameters
Parâmetros a serem usados ao configurar o Elasticsearch® como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataKeyAndKeyIdAuthenticationOptions ou onYourDataEncodedApiKeyAuthenticationOptions | Sim | ||
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
max_search_queries | integer | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | False |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
endpoint | string | O ponto de extremidade do Elasticsearch®. | Sim | |
index_name | string | O nome do índice do Elasticsearch®. | Sim | |
fields_mapping | elasticsearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado. | Não | |
query_type | elasticsearchQueryType | O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource ou onYourDataModelIdVectorizationSource | Não | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
elasticsearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Elasticsearch® configurado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
elasticsearchQueryType
O tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Descrição: o tipo de consulta de recuperação do Elasticsearch® que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Tipo: string
Predefinido:
Nome do Enum: ElasticsearchQueryType
Valores de Enum:
valor | Description |
---|---|
simples | Representa o analisador de consulta simples padrão. |
vetor | Representa a pesquisa vetorial sobre dados computados. |
mongoDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Mongo DB ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | mongoDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB. | Não |
mongoDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Mongo DB.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataUsernameAndPasswordAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha. | Sim | |
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
max_search_queries | integer | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | False |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
endpoint | string | O nome do ponto de extremidade do cluster Mongo DB. | Sim | |
database_name | string | O nome do banco de dados Mongo DB. | Sim | |
collection_name | string | O nome da Coleção Mongo DB. | Sim | |
app_name | string | O nome do aplicativo Mongo DB. | Sim | |
index_name | string | O nome do índice Mongo DB. | Sim | |
fields_mapping | mongoDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim | ||
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
mongoDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de banco de dados Mongo configurado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
pineconeChatExtensionConfiguration
Uma representação específica de opções configuráveis para Pinecone ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | pineconeChatExtensionParameters | Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone. | Não |
pineconeChatExtensionParameters
Parâmetros para configurar as extensões de chat do Azure OpenAI Pinecone.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. | Sim | |
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
max_search_queries | integer | O número máximo de consultas reescritas deve ser enviado ao provedor de pesquisa para uma mensagem de usuário. Se não for especificado, o sistema decidirá o número de consultas a enviar. | Não | |
allow_partial_result | boolean | Se especificado como true, o sistema permitirá que resultados parciais de pesquisa sejam usados e a solicitação falhará se todas as consultas falharem. Se não for especificado ou especificado como falso, a solicitação falhará se qualquer consulta de pesquisa falhar. | Não | False |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
ambiente | string | O nome do ambiente de Pinecone. | Sim | |
index_name | string | O nome do índice do banco de dados Pinecone. | Sim | |
fields_mapping | pineconeFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado. | Sim | |
embedding_dependency | onYourDataDeploymentNameVectorizationSource | Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que é baseada em um nome de implantação de modelo de incorporação interna no mesmo recurso OpenAI do Azure. |
Sim | |
include_contexts | matriz | As propriedades incluídas do contexto de saída. Se não for especificado, o valor padrão será citations e intent . |
Não |
pineconeFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso Pinecone configurado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não |
onYourDataAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataContextProperty
A propriedade context.
Descrição: A propriedade context.
Tipo: string
Predefinido:
Nome do Enum: OnYourDataContextProperty
Valores de Enum:
valor | Description |
---|---|
Citações | A citations propriedade. |
intenção | A intent propriedade. |
all_retrieved_documents | A all_retrieved_documents propriedade. |
onYourDataAuthenticationType
Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Descrição: Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Tipo: string
Predefinido:
Nome do Enum: OnYourDataAuthenticationType
Valores de Enum:
valor | Description |
---|---|
api_key | Autenticação via chave API. |
connection_string | Autenticação via cadeia de conexão. |
key_and_key_id | Autenticação através de chave e par de ID de chave. |
encoded_api_key | Autenticação via chave de API codificada. |
access_token | Autenticação via token de acesso. |
system_assigned_managed_identity | Autenticação através da identidade gerenciada atribuída pelo sistema. |
user_assigned_managed_identity | Autenticação através da identidade gerenciada atribuída pelo usuário. |
username_and_password | Autenticação via username e password. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
key | string | A chave de API a ser usada para autenticação. | Não |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
connection_string | string | A cadeia de conexão a ser usada para autenticação. | Não |
onYourDataKeyAndKeyIdAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave Elasticsearch e um par de ID de chave.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
key | string | A chave Elasticsearch a ser usada para autenticação. | Não | |
key_id | string | O ID da chave do Elasticsearch a ser usado para autenticação. | Não |
onYourDataEncodedApiKeyAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API codificada do Elasticsearch.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
encoded_api_key | string | A chave de API codificada do Elasticsearch a ser usada para autenticação. | Não |
onYourDataAccessTokenAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar o token de acesso.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
access_token | string | O token de acesso a ser usado para autenticação. | Não |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
managed_identity_resource_id | string | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | Não |
onYourDataUsernameAndPasswordAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar um nome de usuário e uma senha.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
nome de utilizador | string | O nome de usuário a ser usado para autenticação. | Não | |
password | string | A senha. para usar para autenticação. | Não |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.
Descrição: Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Tipo: string
Predefinido:
Nome do Enum: OnYourDataVectorizationSourceType
Valores de Enum:
valor | Description |
---|---|
endpoint | Representa a vetorização executada por chamadas de serviço público para um modelo de incorporação do Azure OpenAI. |
deployment_name | Representa um nome de implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, o que habilita o vetor pesquise mesmo em redes privadas. |
integrado | Representa o vetorizador integrado definido no recurso de pesquisa. |
model_id | Representa um ID de modelo de incorporação específico, conforme definido no serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®. |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma chamada de ponto de extremidade do Azure OpenAI para incorporações.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim | |
endpoint | string | Especifica a URL do ponto de extremidade do recurso a partir da qual as incorporações devem ser recuperadas. Deve ser no formato de https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/embeddings . O parâmetro de consulta api-version não é permitido. |
Não | |
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataAccessTokenAuthenticationOptions | Não | ||
dimensões | integer | O número de dimensões que as incorporações devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. |
Não |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo de incorporação interno no mesmo recurso do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim | |
deployment_name | string | Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. | Não | |
dimensões | integer | O número de dimensões que as incorporações devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. |
Não |
onYourDataIntegratedVectorizationSource
Representa o vetorizador integrado definido no recurso de pesquisa.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim |
onYourDataModelIdVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma ID de modelo de serviço de pesquisa. Atualmente suportado apenas pelo Elasticsearch®.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim | |
model_id | string | Especifica o ID do modelo a ser usado para vetorização. Este ID de modelo deve ser definido no serviço de pesquisa. | Não |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
intenção | string | A intenção detetada a partir do histórico de bate-papo, usado para passar para o próximo turno para transportar o contexto. | Não | |
all_retrieved_documents | matriz | Todos os documentos recuperados. | Não |
citação
informações de citação para uma mensagem de resposta de conclusão de chat.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | O URL da citação. | Não | |
caminho do arquivo | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | O ID do bloco da citação. | Não | |
rerank_score | Número | A pontuação de reclassificação do documento recuperado. | Não |
recuperadoDocumento
O documento recuperado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | O URL da citação. | Não | |
caminho do arquivo | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | O ID do bloco da citação. | Não | |
rerank_score | Número | A pontuação de reclassificação do documento recuperado. | Não | |
search_queries | matriz | As consultas de pesquisa usadas para recuperar o documento. | Não | |
data_source_index | integer | O índice da fonte de dados. | Não | |
original_search_score | Número | A pontuação de pesquisa original do documento recuperado. | Não | |
filter_reason | filterReason | O motivo de filtragem do documento recuperado. | Não |
filterReason
O motivo de filtragem do documento recuperado.
Descrição: O motivo de filtragem do documento recuperado.
Tipo: string
Predefinido:
Nome do Enum: FilterReason
Valores de Enum:
valor | Description |
---|---|
score | O documento é filtrado pelo limite de pontuação de pesquisa original definido por strictness configure. |
reclassificação | O documento não é filtrado pelo limite de pontuação de pesquisa original, mas é filtrado por pontuação de reclassificação e top_n_documents configuração. |
chatCompletionMessageToolCall
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O ID da chamada da ferramenta. | Sim | |
tipo | toolCallType | O tipo de chamada de ferramenta, neste caso function . |
Sim | |
function | objeto | A função que o modelo chamou. | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
toolCallType
O tipo de chamada de ferramenta, neste caso function
.
Descrição: O tipo de chamada da ferramenta, neste caso function
.
Tipo: string
Predefinido:
Nome do Enum: ToolCallType
Valores de Enum:
valor | Description |
---|---|
function | O tipo de chamada de ferramenta é função. |
chatCompletionRequestMessageTool
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Não | |
content | string | O conteúdo da mensagem. | Não |
chatCompletionRequestMessageFunction
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: função |
Não | |
nome | string | O conteúdo da mensagem. | Não | |
content | string | O conteúdo da mensagem. | Não |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada por modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão do chat. | Sim | |
prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. | Não | |
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. | Sim | |
modelo | string | O modelo usado para a conclusão do chat. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre chat.completion .Valores possíveis: chat.completion |
Sim | |
ativa | conclusãoUso | Estatísticas de utilização do pedido de conclusão. | Não |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. | Sim | |
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. | Sim | |
modelo | string | O modelo para gerar a conclusão. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk .Valores possíveis: chat.completion.chunk |
Sim |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | string | O conteúdo da mensagem de bloco. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
tool_calls | matriz | Não | ||
função | enumeração | O papel do autor desta mensagem. Valores possíveis: sistema, utilizador, assistente, ferramenta |
Não | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Não |
Imóveis para function_call
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
chatCompletionMessageToolCallChunk
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | Sim | ||
id | string | O ID da chamada da ferramenta. | Não | |
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Não | |
function | objeto | Não |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso apenas quando definir stream: true
.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
include_usage | boolean | Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
Não |
chatCompletionChoiceLogProbs
Registre informações de probabilidade para a escolha.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | matriz | Uma lista de tokens de conteúdo de mensagem com informações de probabilidade de log. | Sim | |
recusa | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. | Não |
chatCompletionTokenLogprob
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
token | string | O token. | Sim | |
Logprob | Número | A probabilidade de log desse token. | Sim | |
bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Sim | |
top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nesta posição de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Sim |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | chatCompletionResponseMessageRole | O papel do autor da mensagem de resposta. | Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim | |
content | string | O conteúdo da mensagem. | Sim | |
tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
Contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essas informações de contexto só são preenchidas quando usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente. |
Não |
chatCompletionResponseMessageRole
O papel do autor da mensagem de resposta.
Descrição: a função do autor da mensagem de resposta.
Tipo: string
Predefinido:
Valores de Enum:
- assistente
chatCompletionToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo. none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required
significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta. none
é o padrão quando nenhuma ferramenta está presente. auto
é o padrão se as ferramentas estiverem presentes.
Este componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Sim | |
function | objeto | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
ParallelToolCalls
Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.
Nenhuma propriedade definida para este componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para este componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls
. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome da função a ser chamada. | Sim | |
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Sim |
conclusãoUso
Estatísticas de utilização do pedido de conclusão.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
prompt_tokens | integer | Número de tokens no prompt. | Sim | |
completion_tokens | integer | Número de tokens na conclusão gerada. | Sim | |
total_tokens | integer | Número total de tokens usados na solicitação (prompt + conclusão). | Sim | |
prompt_tokens_details | objeto | Detalhes dos tokens de prompt. | Não | |
completion_tokens_details | objeto | Detalhamento dos tokens usados em uma conclusão. | Não |
Imóveis para prompt_tokens_details
cached_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
cached_tokens | integer | O número de tokens de prompt armazenados em cache. |
Imóveis para completion_tokens_details
reasoning_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
reasoning_tokens | integer | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Sim | |
function | FunctionObject | Sim |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters
define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | string | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
estrito | boolean | Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
Não | False |
ResponseFormatText
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: text Valores possíveis: texto |
Sim |
ResponseFormatJsonObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_object Valores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para este componente.
ResponseFormatJsonSchema
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schema Valores possíveis: json_schema |
Sim | |
json_schema | objeto | Sim |
Imóveis para json_schema
descrição
Name | Tipo | Description | Predefinido |
---|---|---|---|
descrição | string | Uma descrição do formato de resposta, usado pelo modelo para determinar como responder no formato. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
Nome | Tipo | Description | Predefinido |
---|---|---|---|
esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. |
estrito
Nome | Tipo | Description | Predefinido |
---|---|---|---|
estrito | boolean | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
False |
chatCompletionChoiceCommon
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | Não | ||
finish_reason | string | Não |
createTranslationRequest
Pedido de tradução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O arquivo de áudio a ser traduzido. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
audioResposta
Resposta de tradução ou transcrição quando response_format foi json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | Texto traduzido ou transcrito. | Sim | |
tarefa | string | Tipo de tarefa de áudio. | Não | |
idioma | string | Idioma. | Não | |
duration | Número | Duração. | Não | |
segmentos | matriz | Não | ||
Palavras | matriz | Não |
audioResponseFormat
Define o formato da saída.
Descrição: Define o formato da saída.
Tipo: string
Predefinido:
Valores de Enum:
- json
- texto
- SRT
- verbose_json
- VTT
createTranscriptionRequest
Pedido de transcrição.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O objeto do arquivo de áudio a ser transcrito. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
idioma | string | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não | |
timestamp_granularities[] | matriz | As granularidades de carimbo de data/hora a serem preenchidas para esta transcrição. response_format deve ser definido verbose_json para usar granularidades de carimbo de data/hora. Há suporte para uma ou ambas as opções: word , ou segment . Nota: Não há latência adicional para carimbos de data/hora de segmento, mas a geração de carimbos de data/hora de palavras incorre em latência adicional. |
Não | ['segmento'] |
audioSegmento
Segmento de transcrição ou tradução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | integer | Identificador de segmento. | Não | |
procurar | Número | Deslocamento do segmento. | Não | |
iniciar | Número | Compensação de início de segmento. | Não | |
end | Número | Compensação final do segmento. | Não | |
texto | string | Segmentar texto. | Não | |
fichas | matriz | Fichas do texto. | Não | |
temperatura | Número | Temperatura. | Não | |
avg_logprob | Número | Probabilidade média de log. | Não | |
compression_ratio | Número | Taxa de compressão. | Não | |
no_speech_prob | Número | Probabilidade de 'não falar'. | Não |
audioWord
Transcrição ou tradução de palavras.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
palavra | string | Word | Não | |
iniciar | Número | Deslocamento de início do Word. | Não | |
end | Número | Compensação final do Word. | Não |
createSpeechRequest
Pedido de voz.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
entrada | string | O texto para sintetizar áudio. O comprimento máximo é de 4096 caracteres. | Sim | |
voice | enumeração | A voz a ser usada para síntese de fala. Valores possíveis: liga, eco, fábula, ônix, nova, brilho |
Sim | |
response_format | enumeração | O formato para sintetizar o áudio. Valores possíveis: mp3, opus, aac, flac, wav, pcm |
Não | |
velocidade | Número | A velocidade do áudio sintetizado. Selecione um valor de 0.25 para 4.0 . 1.0 é a predefinição. |
Não | 1.0 |
qualidade de imagem
A qualidade da imagem que será gerada.
Descrição: A qualidade da imagem que será gerada.
Tipo: string
Padrão: padrão
Enum Nome: Qualidade
Valores de Enum:
valor | Description |
---|---|
padrão | A qualidade padrão cria imagens com qualidade padrão. |
ALTA | A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem. |
imagesResponseFormat
O formato em que as imagens geradas são retornadas.
Descrição: O formato no qual as imagens geradas são retornadas.
Tipo: string
Padrão: url
Nome do Enum: ImagesResponseFormat
Valores de Enum:
valor | Description |
---|---|
url | O URL que fornece acesso temporário para baixar as imagens geradas. |
b64_json | As imagens geradas são retornadas como cadeia de caracteres codificada base64. |
imageSize
O tamanho das imagens geradas.
Descrição: O tamanho das imagens geradas.
Tipo: string
Padrão: 1024x1024
Nome do Enum: Tamanho
Valores de Enum:
valor | Description |
---|---|
256x256 | O tamanho desejado da imagem gerada é 256x256 pixels. Apenas suportado para dall-e-2. |
512 x 512 | O tamanho desejado da imagem gerada é 512x512 pixels. Apenas suportado para dall-e-2. |
1792x1024 | O tamanho desejado da imagem gerada é 1792x1024 pixels. Apenas suportado para dall-e-3. |
1024x1792 | O tamanho desejado da imagem gerada é 1024x1792 pixels. Apenas suportado para dall-e-3. |
1024 x 1024 | O tamanho desejado da imagem gerada é 1024x1024 pixels. |
imageStyle
O estilo das imagens geradas.
Descrição: O estilo das imagens geradas.
Tipo: string
Padrão: vívido
Nome do Enum: Estilo
Valores de Enum:
valor | Description |
---|---|
vívido | Vivid cria imagens que são hiper-realistas e dramáticas. |
naturais | Natural cria imagens mais naturais e menos hiper-realistas. |
imagemGeraçõesPedido
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | string | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4000 caracteres. | Sim | |
n | integer | O número de imagens a gerar. | Não | 1 |
size | imageSize | O tamanho das imagens geradas. | Não | 1024 x 1024 |
response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | url |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
generateImagesResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
criado | integer | O carimbo de data/hora unix quando a operação foi criada. | Sim | |
dados | matriz | Os dados de resultado da operação, se bem-sucedida | Sim |
imageResult
O url da imagem ou imagem codificada, se bem-sucedida, e um erro de outra forma.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
url | string | O url da imagem. | Não | |
b64_json | string | A imagem codificada base64 | Não | |
content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | Não | |
revised_prompt | string | O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. | Não | |
prompt_filter_results | dalleFilterResultados | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
linha
Um objeto de linha de conteúdo que consiste em uma sequência adjacente de elementos de conteúdo, como palavras e marcas de seleção.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | Sim | ||
vãos | matriz | Uma matriz de extensões que representam objetos detetados e suas informações de caixa delimitadora. | Sim |
Extensão
Um objeto span que representa um objeto detetado e suas informações de caixa delimitadora.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | O conteúdo de texto da extensão que representa o objeto detetado. | Sim | |
offset | integer | O deslocamento de caracteres dentro do texto onde a extensão começa. Esse deslocamento é definido como a posição do primeiro caractere da extensão, contando desde o início do texto como pontos de código Unicode. | Sim | |
length | integer | O comprimento da extensão em caracteres, medido em pontos de código Unicode. | Sim | |
polígono | matriz | Uma matriz de objetos que representa pontos no polígono que encerra o objeto detetado. | Sim |
runCompletionUsage
Estatísticas de utilização relacionadas com a execução. Este valor será null
se a execução não estiver em um estado terminal (ou seja in_progress
, , queued
, etc.).
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
completion_tokens | integer | Número de tokens de conclusão usados ao longo da execução. | Sim | |
prompt_tokens | integer | Número de tokens de prompt usados ao longo da execução. | Sim | |
total_tokens | integer | Número total de tokens usados (prompt + conclusão). | Sim |
runStepCompletionUsage
Estatísticas de uso relacionadas à etapa de execução. Esse valor será null
enquanto o status da etapa de execução for in_progress
.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
completion_tokens | integer | Número de tokens de conclusão usados ao longo da etapa de execução. | Sim | |
prompt_tokens | integer | Número de tokens de prompt usados ao longo da etapa de execução. | Sim | |
total_tokens | integer | Número total de tokens usados (prompt + conclusão). | Sim |
assistentesApiResponseFormatOption
Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106
.
Configuração para { "type": "json_object" }
habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.
Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length"
, o que indica que a geração excedeu max_tokens
ou a conversa excedeu o comprimento máximo de contexto.
Este componente pode ser um dos seguintes:
assistentesApiResponseFormat
Um objeto que descreve a saída esperada do modelo. Se json_object
apenas function
o tipo tools
tiver permissão para ser passado para a Execução. Se text
o modelo pode retornar texto ou qualquer valor necessário.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Deve ser um dos text ou json_object . |
Não | texto |
digite Enum: AssistantsApiResponseFormat
valor | Description |
---|---|
texto | |
json_object |
assistantObject
Representa um assistant
que pode chamar o modelo e usar ferramentas.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre assistant . |
Sim | |
created_at | integer | O carimbo de data/hora Unix (em segundos) para quando o assistente foi criado. | Sim | |
nome | string | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Sim | |
descrição | string | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Sim | |
modelo | string | ID do modelo a utilizar. Você pode usar a API Listar modelos para ver todos os modelos disponíveis. |
Sim | |
instruções | string | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Sim | |
ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , file_search , ou function . |
Sim | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
objeto Enum: AssistantObjectType
valor | Description |
---|---|
assistente | O tipo de objeto, que é sempre assistente |
createAssistantRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
modelo | Sim | |||
nome | string | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O comprimento máximo é de 256.000 caracteres. |
Não | |
ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
|
vector_stores | matriz | Um auxiliar para criar um repositório de vetores com file_ids e anexá-lo a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
modificarAssistantRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
modelo | Não | |||
nome | string | O nome do assistente. O comprimento máximo é de 256 caracteres. |
Não | |
descrição | string | A descrição do assistente. O comprimento máximo é de 512 caracteres. |
Não | |
instruções | string | As instruções do sistema que o assistente usa. O comprimento máximo é de 32768 caracteres. |
Não | |
ferramentas | matriz | Uma lista de ferramentas ativadas no assistente. Pode haver um máximo de 128 ferramentas por assistente. As ferramentas podem ser do tipo code_interpreter , retrieval , ou function . |
Não | [] |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Substitui a lista de IDs de arquivo disponibilizada para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | Substitui o repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
deleteAssistantResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Sim | ||
eliminada | boolean | Sim | ||
objeto | string | Sim |
objeto Enum: DeleteAssistantResponseState
valor | Description |
---|---|
assistente.excluído |
listAssistantsResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
assistantToolsCode
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definido: code_interpreter |
Sim |
tipo Enum: assistantToolsCodeType
valor | Description |
---|---|
code_interpreter |
assistantToolsFileSearch
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definido: file_search |
Sim | |
file_search | objeto | Substitui a ferramenta de pesquisa de arquivos. | Não |
Imóveis para file_search
max_num_results
Nome | Tipo | Description | Predefinido |
---|---|---|---|
max_num_results | integer | O número máximo de resultados que a ferramenta de pesquisa de arquivos deve produzir. O padrão é 20 para modelos gpt-4* e 5 para gpt-3.5-turbo. Este número deve situar-se entre 1 e 50, inclusive. Observe que a ferramenta de pesquisa de arquivos pode produzir menos do que max_num_results os resultados. |
digite Enum: assistantToolsFileSearchType
valor | Description |
---|---|
file_search |
assistantToolsFileSearchTypeOnly
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definido: file_search |
Sim |
digite Enum: assistantToolsFileSearchType
valor | Description |
---|---|
file_search |
assistantToolsFunction
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | O tipo de ferramenta que está sendo definido: function |
Sim | |
function | objeto | A definição da função. | Sim |
Propriedades para função
descrição
Name | Tipo | Description | Predefinido |
---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
parâmetros
Nome | Tipo | Description | Predefinido |
---|---|---|---|
parâmetros | chatCompletionFunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. |
digite Enum: assistantToolsFunction
valor | Description |
---|---|
function |
truncationObject
Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | A estratégia de truncamento a ser usada para o thread. A predefinição é auto . Se definido como last_messages , o thread será truncado para as n mensagens mais recentes no thread. Quando definido como auto , as mensagens no meio do thread serão descartadas para se ajustarem ao comprimento de contexto do modelo, max_prompt_tokens . |
Sim | |
last_messages | integer | O número de mensagens mais recentes do thread ao construir o contexto para a execução. | Não |
type Enum: TruncationType
valor | Description |
---|---|
auto | |
last_messages |
assistentesApiToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo.
none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.
auto
é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.
Especificar uma ferramenta específica como {"type": "file_search"}
ou {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta.
Este componente pode ser um dos seguintes:
assistentesNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma ferramenta específica.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | O tipo da ferramenta. Se type for function , o nome da função deve ser definido |
Sim | |
function | objeto | Não |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
type Enum: AssistantsNamedToolChoiceType
valor | Description |
---|---|
function | |
code_interpreter | |
file_search |
runObject
Representa uma execução executada em um thread.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.run . |
Sim | |
created_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução foi criada. | Sim | |
thread_id | string | A ID do thread que foi executado como parte desta execução. | Sim | |
assistant_id | string | O ID do assistente usado para a execução desta execução. | Sim | |
estado | string | O status da execução, que pode ser , , , , cancelling , cancelled failed , completed , ou expired . requires_action in_progress queued |
Sim | |
required_action | objeto | Detalhes sobre a ação necessária para continuar a execução. Será null se nenhuma ação for necessária. |
Sim | |
last_error | objeto | O último erro associado a esta execução. Será null se não houver erros. |
Sim | |
expires_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução expirará. | Sim | |
started_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução foi iniciada. | Sim | |
cancelled_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução foi cancelada. | Sim | |
failed_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução falhou. | Sim | |
completed_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a execução foi concluída. | Sim | |
incomplete_details | objeto | Detalhes sobre o motivo pelo qual a execução está incompleta. Será null se a execução não estiver incompleta. |
Sim | |
modelo | string | O modelo que o assistente usou para esta execução. | Sim | |
instruções | string | As instruções que o assistente usou para esta execução. | Sim | |
ferramentas | matriz | A lista de ferramentas que o assistente usou para esta execução. | Sim | [] |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim | |
ativa | runCompletionUsage | Estatísticas de utilização relacionadas com a execução. Este valor será null se a execução não estiver em um estado terminal (ou seja in_progress , , queued , etc.). |
Sim | |
temperatura | Número | A temperatura de amostragem utilizada para este ensaio. Se não estiver definido, o padrão será 1. | Não | |
top_p | Número | O valor de amostragem do núcleo utilizado para esta corrida. Se não estiver definido, o padrão será 1. | Não | |
max_prompt_tokens | integer | O número máximo de tokens de prompt especificado para ter sido usado ao longo da execução. |
Sim | |
max_completion_tokens | integer | O número máximo de tokens de conclusão especificado para ter sido usado ao longo da execução. |
Sim | |
truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Sim | |
tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Sim | |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Sim |
Imóveis para required_action
tipo
Nome | Tipo | Description | Predefinido |
---|---|---|---|
tipo | string | Por enquanto, isso é sempre submit_tool_outputs . |
submit_tool_outputs
Nome | Tipo | Description | Predefinido |
---|---|---|---|
tool_calls | matriz | Uma lista das chamadas de ferramentas relevantes. |
Imóveis para last_error
code
Nome | Tipo | Description | Predefinido |
---|---|---|---|
code | string | Um de server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Description | Predefinido |
---|---|---|---|
mensagem | string | Uma descrição do erro legível por humanos. |
Imóveis para incomplete_details
reason
Nome | Tipo | Description | Predefinido |
---|---|---|---|
reason | string | A razão pela qual a execução está incompleta. Isso apontará para qual limite de token específico foi atingido ao longo da execução. |
objeto Enum: runObjectType
valor | Description |
---|---|
thread.run | O tipo de objeto run que é sempre thread.run |
status Enum: RunObjectStatus
valor | Description |
---|---|
em fila | O estado em fila |
in_progress | O Estado in_progress |
requires_action | O Estado required_action |
Cancelamento | O estado de cancelamento |
cancelado | O estado cancelado |
com falhas | O estado falhado |
concluído | O estado concluído |
expirou | O estado expirado |
createRunRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usado para executar essa execução. | Sim | |
modelo | string | A ID de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
instruções | string | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
additional_instructions | string | Acrescenta instruções adicionais no final das instruções para a execução. Isso é útil para modificar o comportamento por execução sem substituir outras instruções. | Não | |
additional_messages | matriz | Adiciona mensagens adicionais ao thread antes de criar a execução. | Não | |
ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
max_prompt_tokens | integer | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
max_completion_tokens | integer | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
listRunsResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
modifyRunRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
submitToolOutputsRunRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_outputs | matriz | Uma lista de ferramentas para as quais os resultados estão sendo enviados. | Sim | |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não |
runToolCallObject
Objetos de chamada de ferramenta
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O ID da chamada da ferramenta. Esse ID deve ser referenciado quando você envia as saídas da ferramenta usando as saídas da ferramenta Enviar para executar o ponto de extremidade. | Sim | |
tipo | string | O tipo de chamada de ferramenta para a qual a saída é necessária. Por enquanto, isso é sempre function . |
Sim | |
function | objeto | A definição da função. | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos que o modelo espera que você passe para a função. |
digite Enum: RunToolCallObjectType
valor | Description |
---|---|
function |
createThreadAndRunRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
assistant_id | string | A ID do assistente a ser usado para executar essa execução. | Sim | |
thread | createThreadRequest | Não | ||
modelo | string | O nome de implantação do modelo a ser usado para executar essa execução. Se um valor for fornecido aqui, ele substituirá o modelo associado ao assistente. Caso contrário, será utilizado o modelo associado ao assistente. | Não | |
instruções | string | Substitua a mensagem padrão do sistema do assistente. Isso é útil para modificar o comportamento por execução. | Não | |
ferramentas | matriz | Substitua as ferramentas que o assistente pode usar para esta execução. Isso é útil para modificar o comportamento por execução. | Não | |
tool_resources | objeto | Um conjunto de recursos que são usados pelas ferramentas do assistente. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não | |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente recomendamos alterar esta ou a temperatura, mas não ambas. |
Não | 1 |
transmissão em fluxo | boolean | Se true , retorna um fluxo de eventos que acontecem durante a Execução como eventos enviados pelo servidor, terminando quando a Execução entra em um estado de terminal com uma data: [DONE] mensagem. |
Não | |
stream_options | chatCompletionStreamOptions | Opções para resposta de streaming. Defina isso apenas quando definir stream: true . |
Não | Nenhuma |
max_prompt_tokens | integer | O número máximo de tokens de prompt que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de prompt especificados, em várias voltas da execução. Se a execução exceder o número de tokens de prompt especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
max_completion_tokens | integer | O número máximo de tokens de conclusão que podem ser usados ao longo da execução. A execução fará um esforço melhor para usar apenas o número de tokens de conclusão especificados, em várias voltas da corrida. Se a execução exceder o número de tokens de conclusão especificados, a execução terminará com status incomplete . Consulte incomplete_details para mais informações. |
Não | |
truncation_strategy | truncationObject | Controles de como um thread será truncado antes da execução. Use isso para controlar a janela de contexto inicial da execução. | Não | |
tool_choice | assistentesApiToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo.none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem.auto é o valor padrão e significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ferramenta.Especificar uma ferramenta específica como {"type": "file_search"} ou {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. |
Não | |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | assistentesApiResponseFormatOption | Especifica o formato que o modelo deve produzir. Compatível com GPT-4 Turbo e todos os modelos GPT-3.5 Turbo desde gpt-3.5-turbo-1106 .Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O ID do repositório de vetores anexado a este assistente. Pode haver um máximo de 1 armazenamento vetorial anexado ao assistente. |
threadObject
Representa um thread que contém mensagens.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread . |
Sim | |
created_at | integer | O carimbo de data/hora do Unix (em segundos) para quando o thread foi criado. | Sim | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Sim | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
objeto Enum: ThreadObjectType
valor | Description |
---|---|
thread | O tipo de objeto de thread que é sempre thread |
createThreadRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
mensagens | matriz | Uma lista de mensagens para iniciar o thread. | Não | |
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
|
vector_stores | matriz | Um auxiliar para criar um armazenamento de vetores com file_ids e anexá-lo a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
modificarThreadRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_resources | objeto | Um conjunto de recursos que são disponibilizados para as ferramentas do assistente neste tópico. Os recursos são específicos para o tipo de ferramenta. Por exemplo, a code_interpreter ferramenta requer uma lista de IDs de arquivo, enquanto a file_search ferramenta requer uma lista de IDs de armazenamento vetorial. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Imóveis para tool_resources
code_interpreter
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo disponibilizados para a code_interpreter ferramenta. Pode haver um máximo de 20 arquivos associados à ferramenta. |
[] |
file_search
Nome | Tipo | Description | Predefinido |
---|---|---|---|
vector_store_ids | matriz | O armazenamento vetorial anexado a este thread. Pode haver um máximo de 1 armazenamento vetorial anexado ao thread. |
deleteThreadResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Sim | ||
eliminada | boolean | Sim | ||
objeto | string | Sim |
objeto Enum: DeleteThreadResponseObjectState
valor | Description |
---|---|
thread.excluído | O estado do objeto de resposta de thread de exclusão que é thread.deleted |
listThreadsResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
messageObject
Representa uma mensagem dentro de um thread.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.message . |
Sim | |
created_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi criada. | Sim | |
thread_id | string | o ID do thread ao qual esta mensagem pertence. | Sim | |
estado | string | O status da mensagem, que pode ser , in_progress incomplete ou completed . |
Sim | |
incomplete_details | objeto | Em uma mensagem incompleta, detalhes sobre por que a mensagem está incompleta. | Sim | |
completed_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi concluída. | Sim | |
incomplete_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a mensagem foi marcada como incompleta. | Sim | |
função | string | A entidade que produziu a mensagem. Um de user ou assistant . |
Sim | |
content | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. | Sim | |
assistant_id | string | Se aplicável, o ID do assistente autor desta mensagem. | Sim | |
run_id | string | Se aplicável, a ID da execução associada à criação desta mensagem. | Sim | |
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais foram adicionados. | Sim | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim |
Imóveis para incomplete_details
reason
Nome | Tipo | Description | Predefinido |
---|---|---|---|
reason | string | O motivo pelo qual a mensagem está incompleta. |
objeto Enum: MessageObjectType
valor | Description |
---|---|
thread.mensagem | O tipo de objeto de mensagem que é thread.message |
status Enum: MessageObjectStatus
valor | Description |
---|---|
in_progress | |
incompleto | |
concluído |
função Enum: MessageObjectRole
valor | Description |
---|---|
Utilizador | |
assistente |
messageDeltaObject
Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador da mensagem, que pode ser referenciado em pontos de extremidade da API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.message.delta . |
Sim | |
delta | objeto | O delta que contém os campos que foram alterados na mensagem. | Sim |
Propriedades para delta
função
Nome | Tipo | Description | Predefinido |
---|---|---|---|
função | string | A entidade que produziu a mensagem. Um de user ou assistant . |
content
Nome | Tipo | Description | Predefinido |
---|---|---|---|
content | matriz | O conteúdo da mensagem em matriz de texto e/ou imagens. |
objeto Enum: MessageDeltaObjectType
valor | Description |
---|---|
thread.message.delta |
createMessageRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | string | A função da entidade que está criando a mensagem. Os valores permitidos incluem: - user : Indica que a mensagem é enviada por um usuário real e deve ser usada na maioria dos casos para representar mensagens geradas pelo usuário.- assistant : Indica que a mensagem é gerada pelo assistente. Use esse valor para inserir mensagens do assistente na conversa. |
Sim | |
content | string | O conteúdo da mensagem. | Sim | |
Anexos | matriz | Uma lista de arquivos anexados à mensagem e as ferramentas às quais eles devem ser adicionados. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
Enum da função: CreateMessageRequestRole
valor | Description |
---|---|
Utilizador | |
assistente |
modificarMessageRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
deleteMessageResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Sim | ||
eliminada | boolean | Sim | ||
objeto | string | Sim |
objeto Enum: DeleteMessageResponseObject
valor | Description |
---|---|
thread.message.deleted | O estado do objeto de resposta de mensagem de exclusão |
listMessagesResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
messageContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre image_file . |
Sim | |
image_file | objeto | Sim |
Imóveis para image_file
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID de arquivo da imagem no conteúdo da mensagem. |
digite Enum: MessageContentImageFileObjectType
valor | Description |
---|---|
image_file | O tipo de arquivo de imagem de conteúdo da mensagem |
messageContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre text . |
Sim | |
texto | objeto | Sim |
Propriedades do texto
valor
Nome | Tipo | Description | Predefinido |
---|---|---|---|
valor | string | Os dados que compõem o texto. |
anotações
Nome | Tipo | Description | Predefinido |
---|---|---|---|
anotações | matriz |
digite Enum: messageContentTextObjectType
valor | Description |
---|---|
texto | O texto do conteúdo da mensagem Tipo de objeto |
messageContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Gerado quando o assistente usa a ferramenta "recuperação" para pesquisar arquivos.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre file_citation . |
Sim | |
texto | string | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
file_citation | objeto | Sim | ||
start_index | integer | Sim | ||
end_index | integer | Sim |
Imóveis para file_citation
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID do arquivo específico do qual a citação é originada. |
digite Enum: FileCitationObjectType
valor | Description |
---|---|
file_citation | O tipo de objeto de citação de arquivo |
messageContentTextAnnotationsFilePathObject
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter
ferramenta para gerar um arquivo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre file_path . |
Sim | |
texto | string | O texto no conteúdo da mensagem que precisa ser substituído. | Sim | |
file_path | objeto | Sim | ||
start_index | integer | Sim | ||
end_index | integer | Sim |
Imóveis para file_path
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | A ID do arquivo que foi gerado. |
digite Enum: FilePathObjectType
valor | Description |
---|---|
file_path | O tipo de objeto de caminho de arquivo |
messageDeltaContentImageFileObject
Faz referência a um arquivo de imagem no conteúdo de uma mensagem.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da parte de conteúdo na mensagem. | Sim | |
tipo | string | Sempre image_file . |
Sim | |
image_file | objeto | Não |
Imóveis para image_file
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID de arquivo da imagem no conteúdo da mensagem. |
digite Enum: MessageDeltaContentImageFileObjectType
valor | Description |
---|---|
image_file |
messageDeltaContentTextObject
O conteúdo de texto que faz parte de uma mensagem.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da parte de conteúdo na mensagem. | Sim | |
tipo | string | Sempre text . |
Sim | |
texto | objeto | Não |
Propriedades do texto
valor
Nome | Tipo | Description | Predefinido |
---|---|---|---|
valor | string | Os dados que compõem o texto. |
anotações
Nome | Tipo | Description | Predefinido |
---|---|---|---|
anotações | matriz |
digite Enum: MessageDeltaContentTextObjectType
valor | Description |
---|---|
texto |
messageDeltaContentTextAnnotationsFileCitationObject
Uma citação dentro da mensagem que aponta para uma citação específica de um arquivo específico associado ao assistente ou à mensagem. Criado quando o assistente usa a ferramenta "file_search" para pesquisar arquivos.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da anotação na parte de conteúdo do texto. | Sim | |
tipo | string | Sempre file_citation . |
Sim | |
texto | string | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
file_citation | objeto | Não | ||
start_index | integer | Não | ||
end_index | integer | Não |
Imóveis para file_citation
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID do arquivo específico do qual a citação é originada. |
citação
Nome | Tipo | Description | Predefinido |
---|---|---|---|
citação | string | A citação específica no arquivo. |
digite Enum: MessageDeltaContentTextAnnotationsFileCitationObjectType
valor | Description |
---|---|
file_citation |
messageDeltaContentTextAnnotationsFilePathObject
Um URL para o arquivo que é gerado quando o assistente usou a code_interpreter
ferramenta para gerar um arquivo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da anotação na parte de conteúdo do texto. | Sim | |
tipo | string | Sempre file_path . |
Sim | |
texto | string | O texto no conteúdo da mensagem que precisa ser substituído. | Não | |
file_path | objeto | Não | ||
start_index | integer | Não | ||
end_index | integer | Não |
Imóveis para file_path
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | A ID do arquivo que foi gerado. |
digite Enum: MessageDeltaContentTextAnnotationsFilePathObjectType
valor | Description |
---|---|
file_path |
runStepObject
Representa uma etapa na execução de uma execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Sim | |
objeto | string | O tipo de objeto, que é sempre assistant.run.step . |
Sim | |
created_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi criada. | Sim | |
assistant_id | string | A ID do assistente associada à etapa de execução. | Sim | |
thread_id | string | A ID do thread que foi executado. | Sim | |
run_id | string | A ID da execução da qual esta etapa de execução faz parte. | Sim | |
tipo | string | O tipo de etapa de execução, que pode ser ou message_creation tool_calls . |
Sim | |
estado | string | O status da execução, que pode ser in_progress , cancelled , failed , completed , ou expired . |
Sim | |
step_details | runStepDetailsMessageCreationObject ou runStepDetailsToolCallsObject | Os detalhes da etapa de execução. | Sim | |
last_error | objeto | O último erro associado a esta etapa de execução. Será null se não houver erros. |
Sim | |
expired_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução expirou. Uma etapa é considerada expirada se a execução pai tiver expirado. | Sim | |
cancelled_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi cancelada. | Sim | |
failed_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução falhou. | Sim | |
completed_at | integer | O carimbo de data/hora do Unix (em segundos) para quando a etapa de execução foi concluída. | Sim | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim |
Imóveis para last_error
code
Nome | Tipo | Description | Predefinido |
---|---|---|---|
code | string | Um de server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Description | Predefinido |
---|---|---|---|
mensagem | string | Uma descrição do erro legível por humanos. |
objeto Enum: RunStepObjectType
valor | Description |
---|---|
assistente.run.step | O tipo de objeto, que é sempre assistant.run.step |
digite Enum: RunStepObjectType
valor | Description |
---|---|
message_creation | A etapa de execução message_creation |
tool_calls | A etapa de execução tool_calls |
status Enum: RunStepObjectStatus
valor | Description |
---|---|
in_progress | O status de execução do in_progress |
cancelado | O status de execução cancelado |
com falhas | O status de execução cancelado |
concluído | O status de execução cancelado |
expirou | O status de execução cancelado |
runStepDeltaObject
Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador da etapa de execução, que pode ser referenciado em pontos de extremidade da API. | Sim | |
objeto | string | O tipo de objeto, que é sempre thread.run.step.delta . |
Sim | |
delta | objeto | O delta que contém os campos que foram alterados na etapa de execução. | Sim |
Propriedades para delta
step_details
Nome | Tipo | Description | Predefinido |
---|---|---|---|
step_details | runStepDeltaStepDetailsMessageCreationObject ou runStepDeltaStepDetailsToolCallsObject | Os detalhes da etapa de execução. |
objeto Enum: RunStepDeltaObjectType
valor | Description |
---|---|
thread.run.step.delta |
listRunStepsResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
runStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre message_creation . |
Sim | |
message_creation | objeto | Sim |
Imóveis para message_creation
message_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
message_id | string | A ID da mensagem que foi criada por esta etapa de execução. |
digite Enum: RunStepDetailsMessageCreationObjectType
valor | Description |
---|---|
message_creation |
runStepDeltaStepDetailsMessageCreationObject
Detalhes da criação da mensagem pela etapa de execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre message_creation . |
Sim | |
message_creation | objeto | Não |
Imóveis para message_creation
message_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
message_id | string | A ID da mensagem que foi criada por esta etapa de execução. |
digite Enum: RunStepDeltaStepDetailsMessageCreationObjectType
valor | Description |
---|---|
message_creation |
runStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre tool_calls . |
Sim | |
tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter , retrieval ou function . |
Sim |
digite Enum: RunStepDetailsToolCallsObjectType
valor | Description |
---|---|
tool_calls |
runStepDeltaStepDetailsToolCallsObject
Detalhes da chamada da ferramenta.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre tool_calls . |
Sim | |
tool_calls | matriz | Uma série de chamadas de ferramentas na etapa de execução estava envolvida. Estes podem ser associados a um dos três tipos de ferramentas: code_interpreter , file_search ou function . |
Não |
digite Enum: RunStepDeltaStepDetailsToolCallsObjectType
valor | Description |
---|---|
tool_calls |
runStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O ID da chamada da ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim | |
code_interpreter | objeto | A definição de chamada da ferramenta Interpretador de Código. | Sim |
Imóveis para code_interpreter
input
Nome | Tipo | Description | Predefinido |
---|---|---|---|
entrada | string | A entrada para a chamada da ferramenta Interpretador de Código. |
saídas
Nome | Tipo | Description | Predefinido |
---|---|---|---|
saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
digite Enum: RunStepDetailsToolCallsCodeObjectType
valor | Description |
---|---|
code_interpreter |
runStepDeltaStepDetailsToolCallsCodeObject
Detalhes da chamada da ferramenta Interpretador de Código na qual a etapa de execução estava envolvida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
id | string | O ID da chamada da ferramenta. | Não | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será code_interpreter para esse tipo de chamada de ferramenta. |
Sim | |
code_interpreter | objeto | A definição de chamada da ferramenta Interpretador de Código. | Não |
Imóveis para code_interpreter
input
Nome | Tipo | Description | Predefinido |
---|---|---|---|
entrada | string | A entrada para a chamada da ferramenta Interpretador de Código. |
saídas
Nome | Tipo | Description | Predefinido |
---|---|---|---|
saídas | matriz | As saídas da chamada da ferramenta Interpretador de Código. O Interpretador de Código pode gerar um ou mais itens, incluindo texto (logs ) ou imagens (image ). Cada um deles é representado por um tipo de objeto diferente. |
digite Enum: RunStepDeltaStepDetailsToolCallsCodeObjectType
valor | Description |
---|---|
code_interpreter |
runStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre logs . |
Sim | |
registos | string | A saída de texto da chamada da ferramenta Interpretador de Código. | Sim |
digite Enum: RunStepDetailsToolCallsCodeOutputLogsObjectType
valor | Description |
---|---|
registos |
runStepDeltaStepDetailsToolCallsCodeOutputLogsObject
Saída de texto da chamada da ferramenta Interpretador de código como parte de uma etapa de execução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da saída na matriz de saídas. | Sim | |
tipo | string | Sempre logs . |
Sim | |
registos | string | A saída de texto da chamada da ferramenta Interpretador de Código. | Não |
tipo Enum: RunStepDeltaStepDetailsToolCallsCodeOutputLogsObjectType
valor | Description |
---|---|
registos |
runStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre image . |
Sim | |
image | objeto | Sim |
Propriedades da imagem
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID de arquivo da imagem. |
digite Enum: RunStepDetailsToolCallsCodeOutputImageObjectType
valor | Description |
---|---|
image |
runStepDeltaStepDetailsToolCallsCodeOutputImageObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da saída na matriz de saídas. | Sim | |
tipo | string | Sempre image . |
Sim | |
image | objeto | Não |
Propriedades da imagem
file_id
Nome | Tipo | Description | Predefinido |
---|---|---|---|
file_id | string | O ID do arquivo da imagem. |
digite Enum: RunStepDeltaStepDetailsToolCallsCodeOutputImageObject
valor | Description |
---|---|
image |
runStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | A ID do objeto de chamada da ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será file_search para esse tipo de chamada de ferramenta. |
Sim | |
file_search | objeto | Por enquanto, este será sempre um objeto vazio. | Sim |
digite Enum: RunStepDetailsToolCallsFileSearchObjectType
valor | Description |
---|---|
file_search |
runStepDeltaStepDetailsToolCallsFileSearchObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
id | string | A ID do objeto de chamada da ferramenta. | Não | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será retrieval para esse tipo de chamada de ferramenta. |
Sim | |
file_search | objeto | Por enquanto, este será sempre um objeto vazio. | Sim |
digite Enum: RunStepDeltaStepDetailsToolCallsFileSearchObjectType
valor | Description |
---|---|
file_search |
runStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | A ID do objeto de chamada da ferramenta. | Sim | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Sim | |
function | objeto | A definição da função que foi chamada. | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos passaram para a função. |
saída
Nome | Tipo | Description | Predefinido |
---|---|---|---|
saída | string | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
digite Enum: RunStepDetailsToolCallsFunctionObjectType
valor | Description |
---|---|
function |
runStepDeltaStepDetailsToolCallsFunctionObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | O índice da chamada de ferramenta na matriz de chamadas de ferramenta. | Sim | |
id | string | A ID do objeto de chamada da ferramenta. | Não | |
tipo | string | O tipo de chamada de ferramenta. Isso sempre será function para esse tipo de chamada de ferramenta. |
Sim | |
function | objeto | A definição da função que foi chamada. | Não |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos passaram para a função. |
saída
Nome | Tipo | Description | Predefinido |
---|---|---|---|
saída | string | A saída da função. Isto será null feito se os resultados ainda não tiverem sido enviados. |
digite Enum: RunStepDetailsToolCallsFunctionObjectType
valor | Description |
---|---|
function |
vectorStoreExpirationAfter
A política de expiração para um repositório de vetores.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
âncora | string | Carimbo de data/hora âncora após o qual a política de expiração se aplica. Âncoras suportadas: last_active_at . |
Sim | |
dias | integer | O número de dias após o tempo de ancoragem que o armazenamento do vetor expirará. | Sim |
âncora Enum: VectorStoreExpirationAfterAnchor
valor | Description |
---|---|
last_active_at | O carimbo de data/hora âncora após o qual a política de expiração se aplica. |
vectorStoreObject
Um armazenamento vetorial é uma coleção de arquivos processados que podem ser usados pela file_search
ferramenta.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | enumeração | O tipo de objeto, que é sempre vector_store .Valores possíveis: vetor_store |
Sim | |
created_at | integer | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi criado. | Sim | |
nome | string | O nome do repositório de vetores. | Sim | |
usage_bytes | integer | O número total de bytes usados pelos arquivos no armazenamento vetorial. | Sim | |
file_counts | objeto | Sim | ||
estado | string | O status do armazenamento vetorial, que pode ser , expired in_progress ou completed . Um status de indica que o armazenamento de completed vetores está pronto para uso. |
Sim | |
expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
expires_at | integer | O carimbo de data/hora do Unix (em segundos) para quando o armazenamento vetorial expirará. | Não | |
last_active_at | integer | O carimbo de data/hora Unix (em segundos) para quando o armazenamento vetorial foi ativo pela última vez. | Sim | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Sim |
Imóveis para file_counts
in_progress
Nome | Tipo | Description | Predefinido |
---|---|---|---|
in_progress | integer | O número de arquivos que estão sendo processados no momento. |
concluído
Nome | Tipo | Description | Predefinido |
---|---|---|---|
concluído | integer | O número de arquivos que foram processados com êxito. |
com falhas
Nome | Tipo | Description | Predefinido |
---|---|---|---|
com falhas | integer | O número de arquivos que não conseguiram processar. |
cancelado
Nome | Tipo | Description | Predefinido |
---|---|---|---|
cancelado | integer | O número de arquivos que foram cancelados. |
total
Nome | Tipo | Description | Predefinido |
---|---|---|---|
total | integer | O número total de ficheiros. |
status Enum: VectorStoreObjectStatus
valor | Description |
---|---|
expirou | |
in_progress | |
concluído |
createVectorStoreRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Não | |
nome | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
updateVectorStoreRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome do repositório de vetores. | Não | |
expires_after | vectorStoreExpirationAfter | A política de expiração para um repositório de vetores. | Não | |
do IdP | objeto | Conjunto de 16 pares chave-valor que podem ser anexados a um objeto. Isso pode ser útil para armazenar informações adicionais sobre o objeto em um formato estruturado. As teclas podem ter no máximo 64 caracteres e os valores podem ter, no máximo, 512 caracteres. |
Não |
listVectorStoresResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
deleteVectorStoreResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Sim | ||
eliminada | boolean | Sim | ||
objeto | string | Sim |
objeto Enum: DeleteVectorStoreResponseObject
valor | Description |
---|---|
vetor_store.deleted | O estado do objeto de resposta do repositório de vetores de exclusão |
vectorStoreFileObject
Uma lista de arquivos anexados a um repositório vetorial.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre vector_store.file . |
Sim | |
usage_bytes | integer | O uso total do armazenamento de vetores em bytes. Observe que isso pode ser diferente do tamanho do arquivo original. | Sim | |
created_at | integer | O carimbo de data/hora Unix (em segundos) para quando o arquivo de armazenamento vetorial foi criado. | Sim | |
vector_store_id | string | A ID do armazenamento de vetores ao qual o arquivo está anexado. | Sim | |
estado | string | O status do arquivo de armazenamento vetorial, que pode ser in_progress , completed , cancelled , ou failed . O status completed indica que o arquivo de armazenamento vetorial está pronto para uso. |
Sim | |
last_error | objeto | O último erro associado a este arquivo de armazenamento vetorial. Será null se não houver erros. |
Sim | |
chunking_strategy | autoChunkingStrategyRequestParam ou staticChunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. Aplicável apenas se file_ids não estiver vazio. |
Não |
Imóveis para last_error
code
Nome | Tipo | Description | Predefinido |
---|---|---|---|
code | string | Um de server_error ou rate_limit_exceeded . |
mensagem
Nome | Tipo | Description | Predefinido |
---|---|---|---|
mensagem | string | Uma descrição do erro legível por humanos. |
objeto Enum: VectorStoreFileObjectType
valor | Description |
---|---|
vetor_store.file |
status Enum: VectorStoreFileObjectStatus
valor | Description |
---|---|
in_progress | |
concluído | |
cancelado | |
com falhas |
otherChunkingStrategyResponseParam
Isso é retornado quando a estratégia de fragmentação é desconhecida. Normalmente, isso ocorre porque o arquivo foi indexado antes do chunking_strategy
conceito ser introduzido na API.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre other . |
Sim |
digite Enum: OtherChunkingStrategyResponseParamType
valor | Description |
---|---|
outro |
staticChunkingStrategyResponseParam
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | string | Sempre static . |
Sim | |
estático | staticChunkingStrategy | Sim |
tipo Enum: StaticChunkingStrategyResponseParamType
valor | Description |
---|---|
estático |
staticChunkingStrategy
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
max_chunk_size_tokens | integer | O número máximo de tokens em cada bloco. O valor predefinido é 800 . O valor mínimo é 100 e o valor máximo é 4096 . |
Sim | |
chunk_overlap_tokens | integer | O número de tokens que se sobrepõem entre partes. O valor predefinido é 400 .Observe que a sobreposição não deve exceder metade de max_chunk_size_tokens . |
Sim |
autoChunkingStrategyRequestParam
A estratégia padrão. Esta estratégia utiliza atualmente um max_chunk_size_tokens
de 800
e chunk_overlap_tokens
de 400
.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | Sempre auto .Valores possíveis: auto |
Sim |
staticChunkingStrategyRequestParam
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | Sempre static .Valores possíveis: estático |
Sim | |
estático | staticChunkingStrategy | Sim |
chunkingStrategyRequestParam
A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto
estratégia.
Este componente pode ser um dos seguintes:
createVectorStoreFileRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_id | string | Um ID de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não |
listVectorStoreFilesResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
dados | matriz | Sim | ||
first_id | string | Sim | ||
last_id | string | Sim | ||
has_more | boolean | Sim |
deleteVectorStoreFileResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Sim | ||
eliminada | boolean | Sim | ||
objeto | string | Sim |
objeto Enum: DeleteVectorStoreFileResponseObject
valor | Description |
---|---|
vetor_store.file.deleted |
vectorStoreFileBatchObject
Um lote de arquivos anexados a um armazenamento vetorial.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O identificador, que pode ser referenciado em pontos de extremidade de API. | Sim | |
objeto | string | O tipo de objeto, que é sempre vector_store.file_batch . |
Sim | |
created_at | integer | O carimbo de data/hora Unix (em segundos) para quando o lote de arquivos de armazenamento vetorial foi criado. | Sim | |
vector_store_id | string | A ID do armazenamento vetorial ao qual o arquivo está anexado. | Sim | |
estado | string | O status do lote de arquivos de armazenamento vetorial, que pode ser in_progress , completed cancelled ou failed . |
Sim | |
file_counts | objeto | Sim |
Imóveis para file_counts
in_progress
Nome | Tipo | Description | Predefinido |
---|---|---|---|
in_progress | integer | O número de arquivos que estão sendo processados no momento. |
concluído
Nome | Tipo | Description | Predefinido |
---|---|---|---|
concluído | integer | O número de arquivos que foram processados. |
com falhas
Nome | Tipo | Description | Predefinido |
---|---|---|---|
com falhas | integer | O número de arquivos que não conseguiram processar. |
cancelado
Nome | Tipo | Description | Predefinido |
---|---|---|---|
cancelado | integer | O número de arquivos que foram cancelados. |
total
Nome | Tipo | Description | Predefinido |
---|---|---|---|
total | integer | O número total de ficheiros. |
objeto Enum: VectorStoreFileBatchObjectType
valor | Description |
---|---|
vetor_store.files_lote |
status Enum: VectorStoreFileBatchObjectStatus
valor | Description |
---|---|
in_progress | |
concluído | |
cancelado | |
com falhas |
createVectorStoreFileBatchRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
file_ids | matriz | Uma lista de IDs de arquivo que o armazenamento de vetores deve usar. Útil para ferramentas como file_search essa podem acessar arquivos. |
Sim | |
chunking_strategy | chunkingStrategyRequestParam | A estratégia de fragmentação usada para fragmentar o(s) arquivo(s). Se não estiver definido, usará a auto estratégia. |
Não |
assistantStreamEvent
Representa um evento emitido durante o streaming de uma Execução.
Cada evento em um fluxo de eventos enviado pelo servidor tem uma event
propriedade e data
:
event: thread.created
data: {"id": "thread_123", "object": "thread", ...}
Emitimos eventos sempre que um novo objeto é criado, transita para um novo estado ou está sendo transmitido em partes (deltas). Por exemplo, emitimos thread.run.created
quando uma nova execução é criada, thread.run.completed
quando uma execução é concluída e assim por diante. Quando um Assistente escolhe criar uma mensagem durante uma corrida, emitimos um thread.message.created event
, um thread.message.in_progress
evento, muitos thread.message.delta
eventos e, finalmente, um thread.message.completed
evento.
Podemos adicionar eventos adicionais ao longo do tempo, por isso recomendamos lidar com eventos desconhecidos graciosamente em seu código.
Este componente pode ser um dos seguintes:
threadStreamEvent
Este componente pode ser um dos seguintes:
thread.criado
Ocorre quando um novo thread é criado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | threadObject | Representa um thread que contém mensagens. | Sim |
Dados: threadObject
Enum do evento: ThreadStreamEventEnum
valor | Description |
---|---|
thread.criado | O evento criado pelo thread |
runStreamEvent
Este componente pode ser um dos seguintes:
thread.run.created
Ocorre quando uma nova execução é criada.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventCreated
valor | Description |
---|---|
thread.run.created |
thread.run.queued
Ocorre quando uma execução é movida para um queued
status.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventQueued
valor | Description |
---|---|
thread.run.queued |
thread.run.in_progress
Ocorre quando uma execução é movida para um in_progress
status.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventInProgress
valor | Description |
---|---|
thread.run.in_progress |
thread.run.requires_action
Ocorre quando uma execução é movida para um requires_action
status.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventRequiresAction
valor | Description |
---|---|
thread.run.requires_action |
thread.run.concluído
Ocorre quando uma execução é concluída.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventCompleted
valor | Description |
---|---|
thread.run.concluído |
thread.run.failed
Ocorre quando uma execução falha.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventFailed
valor | Description |
---|---|
thread.run.failed |
thread.run.cancelling
Ocorre quando uma execução é movida para um cancelling
status.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventCancelling
valor | Description |
---|---|
thread.run.cancelling |
thread.run.cancelled
Ocorre quando uma execução é cancelada.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventCancelled
valor | Description |
---|---|
thread.run.cancelled |
thread.run.expired
Ocorre quando uma execução expira.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runObject | Representa uma execução executada em um thread. | Sim |
Dados: runObject
Enum do evento: RunStreamEventExpired
valor | Description |
---|---|
thread.run.expired |
runStepStreamEvent
Este componente pode ser um dos seguintes:
thread.run.step.created
Ocorre quando uma etapa de execução é criada.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventCreated
valor | Description |
---|---|
thread.run.step.created |
thread.run.step.in_progress
Ocorre quando uma etapa de execução se move para um in_progress
estado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventInProgress
valor | Description |
---|---|
thread.run.step.in_progress |
thread.run.step.delta
Ocorre quando partes de uma etapa de execução estão sendo transmitidas.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepDeltaObject | Representa um delta de etapa de execução, ou seja, quaisquer campos alterados em uma etapa de execução durante o streaming. |
Sim |
Dados: runStepDeltaObject
Enum do evento: RunStepStreamEventDelta
valor | Description |
---|---|
thread.run.step.delta |
thread.run.step.completed
Ocorre quando uma etapa de execução é concluída.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventCompleted
valor | Description |
---|---|
thread.run.step.completed |
thread.run.step.failed
Ocorre quando uma etapa de execução falha.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventFailed
valor | Description |
---|---|
thread.run.step.failed |
thread.run.step.cancelled
Ocorre quando uma etapa de execução é cancelada.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventCancelled
valor | Description |
---|---|
thread.run.step.cancelled |
thread.run.step.expired
Ocorre quando uma etapa de execução expira.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | runStepObject | Representa uma etapa na execução de uma execução. |
Sim |
Dados: runStepObject
Enum do evento: RunStepStreamEventExpired
valor | Description |
---|---|
thread.run.step.expired |
messageStreamEvent
Este componente pode ser um dos seguintes:
thread.message.created
Ocorre quando uma mensagem é criada.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventCreated
valor | Description |
---|---|
thread.message.created |
thread.message.in_progress
Ocorre quando uma mensagem é movida para um in_progress
estado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventInProgress
valor | Description |
---|---|
thread.message.in_progress |
thread.message.delta
Ocorre quando partes de uma mensagem estão sendo transmitidas.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | messageDeltaObject | Representa um delta de mensagem, ou seja, quaisquer campos alterados em uma mensagem durante o streaming. |
Sim |
Dados: messageDeltaObject
Enum do evento: MessageStreamEventDelta
valor | Description |
---|---|
thread.message.delta |
thread.message.completed
Ocorre quando uma mensagem é concluída.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventCompleted
valor | Description |
---|---|
thread.message.completed |
thread.message.incompleto
Ocorre quando uma mensagem termina antes de ser concluída.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | messageObject | Representa uma mensagem dentro de um thread. | Sim |
Dados: messageObject
Enum do evento: MessageStreamEventIncomplete
valor | Description |
---|---|
thread.message.incompleto |
errorEvent
Ocorre quando ocorre um erro. Isso pode acontecer devido a um erro interno do servidor ou a um tempo limite.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | erro | Sim |
Enum do evento: ErrorEventEnum
valor | Description |
---|---|
error |
doneEvento
Ocorre quando um fluxo termina.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
evento | string | Sim | ||
dados | string | Sim |
evento Enum: DoneEventEnum
valor | Description |
---|---|
concluído |
Enum de dados: DoneEventDataEnum
valor | Description |
---|---|
[CONCLUÍDO] |
Próximos passos
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.