Referência de API REST do Serviço OpenAI do Azure
Este artigo fornece detalhes sobre a API REST de pontos de extremidade de inferência para o OpenAI do Azure.
Especificações da API
O gerenciamento e a interação com modelos e recursos do OpenAI do Azure são divididos em três superfícies principais da API:
- Painel de controle
- Plano de dados – criação
- Plano de dados – inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do OpenAI do Azure. Cada API tem seu próprio conjunto exclusivo de versões de API de versão prévia e estável/disponibilidade geral (GA). Atualmente, lançamentos de versões prévias tendem a seguir uma cadência mensal.
API | Lançamento de versão prévia mais recente | Versão de GA mais recente | Especificações | Descrição |
---|---|---|---|---|
Painel de controle | 2024-06-01-preview |
2024-10-01 |
Arquivos de especificação | O OpenAI do Azure compartilha um painel de controle comum com todos os outros Serviços de IA do Azure. A API do painel de controle é usada para coisas como criação de recursos do OpenAI do Azure, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O painel de controle também controla o que é possível fazer com recursos como Azure Resource Manager, Bicep, Terraform e a CLI do Azure. |
Plano de dados – criação | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificação | A API de criação do plano de dados controla ajuste, upload de arquivos, trabalhos de ingestão, lote e determinadas consultas de nível de modelo |
Plano de dados – inferência | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificação | A API de inferência do plano de dados fornece as capacidades de inferência/pontos de extremidade para recursos como conclusões, conclusões de chat, inserções, fala/sussurro, em seus dados, DALL-E, assistentes, etc. |
Autenticação
O OpenAI do Azure fornece dois métodos de autenticação. Você pode usar chaves de API ou o Microsoft Entra ID.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API deverão incluir a Chave de API no cabeçalho HTTP da
api-key
. O Início Rápido fornece um tutorial de como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada à API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o cabeçalho
Authorization
. O token fornecido deverá ser precedido porBearer
, por exemploBearer YOUR_AUTH_TOKEN
. Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão de API REST
As APIs de serviço são versões que usam o parâmetro de consulta api-version
. Todas as versões seguem a estrutura de data AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a disponibilidade geral mais recente da especificação de inferência do plano de dados do OpenAI do Azure, 2024-10-21
.
Se você procura a documentação sobre a versão mais recente da API em versão prévia, consulte a API de inferência do plano de dados em versão prévia mais recente
Preenchimentos
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. |
Sim | |
best_of | Número inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n , o best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n .Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Transmite o prompt de volta além da conclusão |
Não | Falso |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
Não | Nenhum |
logprobs | Número inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
Não | 16 |
n | Número inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
seed | Número inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente de dados à medida que se tornarem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] . |
Não | Falso |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat). |
Código de Status: padrão
Descrição: Serviço indisponível
Content-Type | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de Status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Inserções
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos de machine learning e algoritmos.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
input | cadeia de caracteres ou matriz | Texto de entrada para inserir, codificado como uma cadeia de caracteres ou matriz de tokens. Para inserir várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002 ), não pode ser uma cadeia de caracteres vazia e toda matriz deve ter 2.048 dimensões ou menos. |
Sim | |
usuário | string | Um identificador exclusivo representando o seu usuário final, que pode ajudar a monitorar e a detectar abusos. | Não | |
input_type | string | tipo de entrada de inserção de pesquisa a ser usada | Não | |
encoding_format | string | O formato no qual as inserções devem ser retornadas. Pode ser float ou base64 . Assume o padrão de float . |
Não | |
dimensões | Número inteiro | O número de dimensões que as inserções de saída resultantes devem ter. Só há suporte em modelos text-embedding-3 e posteriores. |
Não |
Respostas
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
objeto | string | Sim | ||
modelo | string | Sim | ||
data | matriz | Sim | ||
uso | objeto | Sim |
Propriedades para uso
prompt_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
prompt_tokens | Número inteiro |
total_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
total_tokens | Número inteiro |
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | objeto |
Exemplos
Exemplo
Retorne as inserções para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respostas: Código de Status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Preenchimentos de chat
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Cria uma conclusão para a mensagem de chat
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Se forem definidos, os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
Não | Nenhum |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não | |
da nuvem para o dispositivo | matriz | Uma lista de mensagens que resumem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
Não | |
logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message . |
Não | Falso |
top_logprobs | Número inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. |
Não | |
n | Número inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106 .Configurar como { "type": "json_schema", "json_schema": {...} } habilita as Saídas Estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
seed | Número inteiro | Esse recurso está em beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
manuais | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. |
Não | |
function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de Status: padrão
Descrição: Serviço indisponível
Content-Type | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria um preenchimento para a solicitação fornecida, parâmetros e o modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados do Azure Search e na identidade gerenciada atribuída pelo sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados de vetor do Azure Search, na mensagem anterior do assistente e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de Status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcreve o áudio no idioma de entrada.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo de sussurro. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O objeto do arquivo de áudio a transcrever. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
linguagem | string | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. | Não |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções – Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcreve e traduz o áudio de entrada em texto em inglês.
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo de sussurro que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Content-Type: multipart/form-data
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O arquivo de áudio a ser traduzido. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
Respostas
Código de Status: 200
Descrição: OK
Content-Type | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format foi um de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de Status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Geração de imagem
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Gera um lote de imagens de uma legenda de texto em uma determinada implantação de modelo do DALL-E
Parâmetros de URI
Nome | Em | Obrigatório | Type | Descrição |
---|---|---|---|---|
endpoint | caminho | Sim | string url |
Pontos de extremidade do OpenAI do Azure com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua “aoairesource” pelo nome do recurso do OpenAI do Azure). https://{nome-do-recurso}.openai.azure.com |
deployment-id | caminho | Sim | string | ID de implantação do modelo do DALL-E que foi implantado. |
api-version | consulta | Sim | string | Versão da API |
Cabeçalho da solicitação
Nome | Obrigatória | Type | Descrição |
---|---|---|---|
api-key | True | string | Forneça a chave da API do OpenAI do Azure aqui |
Corpo da solicitação
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | string | Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. | Sim | |
n | Número inteiro | O número de imagens a serem geradas. | Não | 1 |
tamanho | imageSize | O tamanho das imagens geradas. | Não | 1\.024 x 1.024 |
response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | Não | url |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | Não | |
qualidade | imageQuality | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
Respostas
Código de Status: 200
Descrição: Ok
Content-Type | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de Status: padrão
Descrição: ocorreu um erro.
Content-Type | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Exemplos
Exemplo
Cria imagens a partir de uma solicitação.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de Status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Componentes
errorResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
erro | error | Não |
errorBase
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | cadeia de caracteres | No | ||
message | string | Não |
error
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
param | string | Não | ||
type | string | Não | ||
inner_error | innerError | Erro interno com detalhes adicionais. | Não |
innerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: códigos de erro para o objeto de erro interno.
Tipo: string
Padrão:
Nome da Enumeração: InnerErrorCode
Valores da Enumeração:
Valor | Descrição |
---|---|
ResponsibleAIPolicyViolation | A solicitação violou uma ou mais regras de filtro de conteúdo. |
dalleErrorResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
error | dalleError | Não |
dalleError
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
param | string | Não | ||
type | string | Não | ||
inner_error | dalleInnerError | Erro interno com detalhes adicionais. | Não |
dalleInnerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
código | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não | |
revised_prompt | string | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | Não |
contentFilterResultBase
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim |
contentFilterSeverityResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
severidade | string | Não |
contentFilterDetectedResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detectado | boolean | Não |
contentFilterDetectedWithCitationResult
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
citação | objeto | Não |
Propriedades para citação
URL
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
URL | string |
license
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
license | string |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
error | errorBase | Não |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
error | errorBase | Não | ||
jailbreak | contentFilterDetectedResult | Não |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre texto de terceiros e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
error | errorBase | Não | ||
protected_material_text | contentFilterDetectedResult | Não | ||
protected_material_code | contentFilterDetectedWithCitationResult | Não |
promptFilterResult
Resultados de filtragem de conteúdo para uma única solicitação.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt_index | Número inteiro | Não | ||
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
promptFilterResults
Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes.
Nenhuma propriedade definida para esse componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não |
dalleFilterResults
Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
conteúdo ofensivo | contentFilterDetectedResult | Não | ||
jailbreak | contentFilterDetectedResult | Não |
chatCompletionsRequestCommon
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. | Não | |
max_tokens | Número inteiro | O número máximo de tokens permitidos para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 — tokens de prompt). Esse valor agora foi preterido em favor de max_completion_tokens , e não é compatível com modelos da série o1. |
Não | 4096 |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. | Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. | Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um respectivo valor de viés de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. | Não | |
usuário | string | Um identificador único representando o seu usuário final, que pode ajudar o OpenAI do Azure a monitorar e detectar abusos. | Não |
createCompletionRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | cadeia de caracteres ou matriz | Os prompts para gerar conclusões, codificados como uma sequência, uma matriz de sequências, uma matriz de tokens ou uma matriz de matrizes de tokens. Observe que <|endoftext|> é o separador de documentos que o modelo vê durante o treinamento. Portanto, se uma solicitação não for especificada, o modelo será gerado como se fosse o início de um novo documento. |
Sim | |
best_of | Número inteiro | Gera best_of conclusões do lado do servidor e retorna a “melhor” (aquela com a menor probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n , o best_of controla o número de conclusões de candidatos e n especifica quantos retornar – best_of deve ser maior que n .Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Transmite o prompt de volta além da conclusão |
Não | Falso |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados pela ID de token no tokenizer GPT) para um valor de polarização associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para evitar que o token <|endoftext|> seja gerado. |
Não | Nenhum |
logprobs | Número inteiro | Inclua as probabilidades de log nos logprobs tokens mais prováveis de logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob do token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhum |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt mais max_tokens não pode exceder o tamanho do contexto do modelo. |
Não | 16 |
n | Número inteiro | Quantas conclusões devem ser geradas para cada prompt. Observação: como esse parâmetro gera muitas conclusões, ele poderá consumir rapidamente a sua cota de token. Use com cuidado e garanta configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
seed | Número inteiro | Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
fluxo | boolean | Se o progresso parcial deverá ser transmitido de volta. Se definido, os tokens serão enviados como eventos enviados pelo servidor somente de dados à medida que se tornarem disponíveis, com o fluxo encerrado por uma mensagem data: [DONE] . |
Não | Falso |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Esse parâmetro só tem suporte para gpt-3.5-turbo-instruct . |
Não | Nenhum |
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham o mesmo formato (diferentemente do ponto de extremidade do chat).
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Um identificador exclusivo do preenchimento. | Sim | |
opções | matriz | A lista de opções de preenchimento que o modelo gerou para o prompt de entrada. | Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Sim | |
modelo | string | O modelo usado para conclusão. | Sim | |
prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | Não | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Sim | |
uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | Não |
createChatCompletionRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
temperatura | número | Qual temperatura de amostragem usar, entre 0 e 2. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente recomendamos alterar isso ou top_p , mas não as duas coisas. |
Não | 1 |
top_p | número | Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. Geralmente recomendamos alterar isso ou temperature , mas não as duas coisas. |
Não | 1 |
fluxo | boolean | Se forem definidos, os deltas de mensagens parciais serão enviados, como no ChatGPT. Se forem definidos, os tokens serão enviados como eventos somente de dados enviados pelo servidor à medida que estiverem disponíveis, com a transmissão sendo encerrada por uma mensagem data: [DONE] . |
Não | Falso |
stop | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | Número inteiro | O número máximo de tokens que podem ser gerados na conclusão. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento de contexto do modelo. |
Não | |
max_completion_tokens | Número inteiro | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se apareceram no texto até o momento, aumentando a probabilidade do modelo apresentar novos tópicos. |
Não | 0 |
frequency_penalty | número | Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até o momento, diminuindo a probabilidade do modelo repetir a mesma linha na íntegra. |
Não | 0 |
logit_bias | objeto | Modifica a probabilidade de tokens especificados que aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizer) para um valor de viés associado de -100 a 100. Matematicamente, o desvio é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas os valores entre -1 e 1 deverão diminuir ou aumentar a probabilidade da seleção, os valores como -100 ou 100 deverão resultar em uma proibição ou seleção exclusiva do token relevante. |
Não | Nenhum |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. |
Não | |
da nuvem para o dispositivo | matriz | Uma lista de mensagens que resumem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do OpenAI do Azure que as usam. Essa especificação adicional só é compatível com o OpenAI do Azure. |
Não | |
logprobs | boolean | Se você quer retornar as probabilidades de log dos tokens de saída ou não. Se for true, retornará as probabilidades de log de cada token de saída retornado no content da message . |
Não | Falso |
top_logprobs | Número inteiro | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis a serem retornados em cada posição de token, cada um com uma probabilidade de log associada. logprobs precisa estar definido como true se esse parâmetro for usado. |
Não | |
n | Número inteiro | Quantas opções de preenchimento de chat serão geradas para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Mantenha n como 1 para minimizar os custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se deseja habilitar a chamada de função paralela durante o uso da ferramenta. | Não | Verdadeiro |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve gerar. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais novos que gpt-3.5-turbo-1106 .Configurar como { "type": "json_schema", "json_schema": {...} } habilita as Saídas Estruturadas que garantem que o modelo corresponderá ao esquema JSON fornecido.A configuração para { "type": "json_object" } habilita o modo JSON, que garante que a mensagem gerada pelo modelo seja um JSON válido.Importante: ao usar o modo JSON, você também deve instruir o modelo para que ele produza o JSON por uma mensagem do sistema ou do usuário. Sem isso, o modelo pode gerar um fluxo sem fim de espaço em branco até que a geração atinja o limite de tokens, resultando em uma solicitação de execução longa e aparentemente "paralisada". Além disso, observe que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo do contexto. |
Não | |
seed | Número inteiro | Esse recurso está em beta. Se especificado, nosso sistema fará o melhor esforço para amostrar de forma determinística, de modo que solicitações repetidas com os mesmos seed e os parâmetros retornem o mesmo resultado.O determinismo não é garantido e você deve consultar o parâmetro de resposta system_fingerprint para monitorar as alterações no back-end. |
Não | |
manuais | matriz | Uma lista de ferramentas que o modelo pode chamar. No momento, há suporte apenas para funções como uma ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Há suporte para um máximo de 128 funções. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual ferramenta (se houver) é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando não há nenhuma ferramenta presente. auto é o padrão se ferramentas estiverem presente. |
Não | |
function_call | cadeia de caracteres ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual função (se houver) é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma determinada função por meio de {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando não há funções presentes. auto é o padrão, caso haja funções presentes. |
Não | |
funções | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
chatCompletionFunctions
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
name | string | O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
chatCompletionFunctionCallOption
Especificar uma determinada função por meio de {"name": "my_function"}
força o modelo a chamar essa função.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestMessage
Esse componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Sim | |
role | enum | A função do autor das mensagens, nesse caso, system .Valores possíveis: estático |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não |
chatCompletionRequestUserMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Sim | |
role | enum | A função do autor das mensagens, nesse caso, user .Valores possíveis: automático |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não |
chatCompletionRequestAssistantMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
Não | |
recusa | string | A mensagem de recusa do assistente. | Não | |
role | enum | A função do autor das mensagens, nesse caso, assistant .Valores possíveis: assistente |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações de modelo para diferenciar entre os participantes da mesma função. | Não | |
tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não |
Propriedades de function_call
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
chatCompletionRequestToolMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, tool .Valores possíveis: ferramenta |
Sim | |
content | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Sim | |
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
chatCompletionRequestFunctionMessage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, function .Valores possíveis: função |
Sim | |
content | string | O conteúdo da mensagem de função. | Sim | |
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestSystemMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Esse componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: texto |
Sim | |
text | string | O conteúdo do texto. | Sim |
chatCompletionRequestMessageContentPartImage
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim | |
image_url | objeto | Sim |
Propriedades de image_url
url
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
url | string | Uma URL da imagem ou os dados de imagem codificados em base64. |
detail
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
detail | string | Especifica o nível de detalhes da imagem. Saiba mais no Guia do Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: recusa |
Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Descrição: uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure.
Tipo: string
Padrão:
Nome da Enumeração: AzureChatExtensionType
Valores da Enumeração:
Valor | Descrição |
---|---|
azure_search | Representa o uso do Azure Search como uma extensão de chat do OpenAI do Azure. |
azure_cosmos_db | Representa o uso do Azure Cosmos DB como uma extensão de chat do OpenAI do Azure. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | azureSearchChatExtensionParameters | Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure. | Não |
azureSearchChatExtensionParameters
Parâmetros para o Azure Search quando usado como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions | Sim | ||
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
role_information | string | Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens. | Não | |
endpoint | string | O caminho de ponto de extremidade absoluto para o recurso do Azure Search a ser usado. | Sim | |
index_name | string | O nome do índice a ser usado conforme disponível no recurso referenciado do Azure Search. | Sim | |
fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search. | Não | |
query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure. | Não | |
semantic_configuration | string | A configuração semântica adicional da consulta. | Não | |
filtro | string | Filtro de pesquisa. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Não |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Search.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Descrição: o tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-lo como uma extensão de chat do OpenAI do Azure.
Tipo: string
Padrão:
Nome da Enumeração: AzureSearchQueryType
Valores da Enumeração:
Valor | Descrição |
---|---|
simple | Representa o analisador de consulta simples e padrão. |
semântica | Representa o analisador de consulta semântica para modelagem semântica avançada. |
vector | Representa a busca em vetores em relação aos dados computados. |
vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados de vetor. |
vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados de vetor. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do OpenAI do Azure. Isso será usado por uma solicitação de conclusões de chat que deve usar extensões de chat do OpenAI do Azure para aumentar o comportamento da resposta. O uso dessa configuração é compatível apenas com o OpenAI do Azure. |
Sim | |
parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o Azure Cosmos DB para vCore do MongoDB. |
Não |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do OpenAI do Azure On Your Data ao usar o vCore do Azure Cosmos DB for MongoDB.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Sim | |
top_n_documents | Número inteiro | O número máximo de documentos configurados a serem apresentados para a consulta configurada. | Não | |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigorosidade | Número inteiro | A rigorosidade configurada da filtragem de relevância da pesquisa. Quanto maior a rigorosidade, maior a precisão, mas menor a recuperação da resposta. | Não | |
role_information | string | Forneça ao modelo instruções sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Você pode descrever a personalidade do assistente e como formatar as respostas. Há um limite de 100 tokens para isso, que conta para o limite geral de tokens. | Não | |
database_name | string | O nome do banco de dados MongoDB vCore a ser usado com o Azure Cosmos DB. | Sim | |
container_name | string | O nome do contêiner de recursos do Azure Cosmos DB. | Sim | |
index_name | string | O nome do índice do MongoDB vCore a ser usado com o Azure Cosmos DB. | Sim | |
fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser utilizado como título. | Não | |
url_field | string | O nome do campo de índice a ser utilizado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser utilizado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
onYourDataAuthenticationOptions
As opções de autenticação do OpenAI do Azure On Your Data.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim |
onYourDataAuthenticationType
Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
Descrição: os tipos de autenticação com suporte para o OpenAI do Azure On Your Data.
Tipo: string
Padrão:
Nome da Enumeração: OnYourDataAuthenticationType
Valores da Enumeração:
Valor | Descrição |
---|---|
api_key | Autenticação por meio da chave de API. |
connection_string | Autenticação por meio de cadeia de conexão. |
system_assigned_managed_identity | Autenticação por meio de identidade gerenciada atribuída pelo sistema. |
user_assigned_managed_identity | Autenticação por meio de identidade gerenciada atribuída pelo usuário. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
chave | string | A chave de API a ser usada para autenticação. | Não |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma cadeia de conexão.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
connection_string | string | A cadeia de conexão a ser usada para autenticação. | Não |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo sistema.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação do Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação com suporte para o OpenAI do Azure On Your Data. | Sim | |
managed_identity_resource_id | string | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | Não |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o OpenAI do Azure On Your Data com busca em vetores.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores.
Descrição: Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a
busca em vetores.
Tipo: string
Padrão:
Nome da Enumeração: OnYourDataVectorizationSourceType
Valores da Enumeração:
Valor | Descrição |
---|---|
endpoint | Representa a vetorização executada por chamadas de serviço públicas para um modelo de inserção do OpenAI do Azure. |
deployment_name | Representa um nome da implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, que habilita a busca em vetores mesmo em redes privadas. |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em um nome de implantação de modelo de inserções interno no mesmo recurso do OpenAI do Azure.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim | |
deployment_name | string | Especifica o nome da implantação de modelo a ser usada para vetorização. Essa implantação de modelo deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. | Não |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo OpenAI do Azure On Your Data ao aplicar a busca em vetores, com base em uma chamada pública de ponto de extremidade do OpenAI do Azure para inserções.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o OpenAI do Azure On Your Data pode usar para configurar a vetorização de dados para uso com a busca em vetores. |
Sim | |
autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação do Azure OpenAI On Your Data ao usar uma chave de API. | Não | |
endpoint | string | Especifica o endpoint a ser usado para vetorização. Esse endpoint deve estar no mesmo recurso do OpenAI do Azure, mas o On Your Data usará essa o endpoint por meio de uma chamada interna em vez de uma pública, o que permite a busca em vetores mesmo em redes privadas. | Não |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
intenção | string | A intenção detectada do histórico de chat, usada para passar para a próxima curva para carregar o contexto. | Não |
citação
informações de citação para uma mensagem de resposta de preenchimento de chat.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | A URL da citação. | Não | |
filepath | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | A ID da parte da citação. | Não |
chatCompletionMessageToolCall
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | A ID da chamada da ferramenta. | Sim | |
tipo | toolCallType | O tipo da chamada de ferramenta, nesse caso, function . |
Sim | |
função | objeto | A função chamada pelo modelo. | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
toolCallType
O tipo da chamada de ferramenta, nesse caso, function
.
Descrição: o tipo da chamada de ferramenta, nesse caso, function
.
Tipo: string
Padrão:
Nome da Enumeração: ToolCallType
Valores da Enumeração:
Valor | Descrição |
---|---|
função | O tipo da chamada de ferramenta é função. |
chatCompletionRequestMessageTool
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Não | |
content | string | O conteúdo da mensagem. | Não |
chatCompletionRequestMessageFunction
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | enum | A função do autor das mensagens, nesse caso, function .Valores possíveis: função |
Não | |
name | string | O conteúdo da mensagem. | Não | |
content | string | O conteúdo da mensagem. | Não |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Identificador exclusivo para conclusão de chat. | Sim | |
prompt_filter_results | promptFilterResults | Resultados de filtragem de conteúdo para zero ou mais solicitações na solicitação. Em uma solicitação de streaming, os resultados de solicitações diferentes podem chegar em horários ou ordens diferentes. | Não | |
opções | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. | Sim | |
modelo | string | O modelo usado para a conclusão do chat. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre chat.completion .Valores possíveis: chat.completion |
Sim | |
uso | completionUsage | Estatísticas de uso para a solicitação de preenchimento. | Não |
createChatCompletionStreamResponse
Representa uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | string | Identificador exclusivo para conclusão de chat. Cada parte tem a mesma ID. | Sim | |
opções | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Sim | |
criado | Número inteiro | O carimbo de data/hora do UNIX (em segundos) de quando o preenchimento foi criado. Cada parte tem o mesmo carimbo de data/hora. | Sim | |
modelo | string | O modelo para gerar a conclusão. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado com o parâmetro seed solicitação para entender quando foram feitas alterações de backend que podem impactar o determinismo. |
Não | |
objeto | enum | O tipo de objeto, que é sempre chat.completion.chunk .Valores possíveis: chat.completion.chunk |
Sim |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | string | O conteúdo da mensagem de parte. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
tool_calls | matriz | Não | ||
role | enum | A função do autor dessa mensagem. Valores possíveis: sistema, usuário, assistente, ferramenta |
Não | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Não |
Propriedades de function_call
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
chatCompletionMessageToolCallChunk
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | Sim | ||
ID | string | A ID da chamada da ferramenta. | Não | |
type | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Não | |
função | objeto | Não |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
argumentos
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso somente quando você definir stream: true
.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
include_usage | boolean | Se definido, uma parte adicional será transmitida antes da mensagem data: [DONE] . O campo usage nessa parte mostra as estatísticas de uso do token para toda a solicitação, e o campo choices sempre será uma matriz vazia. Todas as outras partes também incluirão um campo usage , mas com um valor nulo. |
Não |
chatCompletionChoiceLogProbs
Informações de probabilidade de log para a escolha.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
content | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | Sim | |
recusa | matriz | Uma lista de tokens de conteúdo da mensagem com informações de probabilidade de log. | Não |
chatCompletionTokenLogprob
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
token | string | O token. | Sim | |
logprob | número | A probabilidade de log desse token. | Sim | |
bytes | matriz | Uma lista de inteiros da representação de bytes UTF-8 do token. Útil em instâncias em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Sim | |
top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nessa posição de token. Em casos raros, pode haver menos do que o número de top_logprobs retornados solicitados. |
Sim |
chatCompletionResponseMessage
Uma mensagem de conclusão de chat gerada pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
role | chatCompletionResponseMessageRole | A função do autor da mensagem de resposta. | Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim | |
content | string | O conteúdo da mensagem. | Sim | |
tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do OpenAI do Azure estão envolvidas na geração de uma resposta de conclusões de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do OpenAI do Azure configurada para uso de uma extensão correspondente. |
Não |
chatCompletionResponseMessageRole
A função do autor da mensagem de resposta.
Descrição: a função do autor da mensagem de resposta.
Tipo: string
Padrão:
Valores da Enumeração:
- assistente
chatCompletionToolChoiceOption
Controla qual ferramenta (se houver) é chamada pelo modelo. none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required
significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma determinada ferramenta por meio de {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta. none
é o padrão quando não há nenhuma ferramenta presente. auto
é o padrão se ferramentas estiverem presente.
Esse componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Sim | |
função | objeto | Sim |
Propriedades da função
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome da função a ser chamada. |
ParallelToolCalls
Se deseja habilitar a chamada de função paralela durante o uso da ferramenta.
Nenhuma propriedade definida para esse componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para esse componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls
. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
name | string | O nome da função a ser chamada. | Sim | |
argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode fabricar parâmetros não definidos pelo esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Sim |
completionUsage
Estatísticas de uso para a solicitação de preenchimento.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt_tokens | Número inteiro | Número de tokens no prompt. | Sim | |
completion_tokens | Número inteiro | Número de tokens na conclusão gerada. | Sim | |
total_tokens | Número inteiro | Número total de tokens utilizados na solicitação (prompt + conclusão). | Sim | |
completion_tokens_details | objeto | Divisão de tokens usados em uma conclusão. | Não |
Propriedades para completion_tokens_details
reasoning_tokens
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
reasoning_tokens | Número inteiro | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, há suporte apenas para function .Valores possíveis: função |
Sim | |
função | FunctionObject | Sim |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters
define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para esse componente.
FunctionObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
name | string | O nome da função que será chamada. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de Esquema JSON. Consulte o guia para obter exemplos e a Referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no campo parameters . Somente um subconjunto de esquema JSON tem suporte quando strict é true . |
Não | Falso |
ResponseFormatText
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: text Valores possíveis: texto |
Sim |
ResponseFormatJsonObject
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_object Valores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para esse componente.
ResponseFormatJsonSchema
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schema Valores possíveis: json_schema |
Sim | |
json_schema | objeto | Sim |
Propriedades de json_schema
descrição
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
descrição | string | Uma descrição do formato de resposta usado pelo modelo para determinar como responder no formato. |
name
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
name | string | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9 ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. |
strict
Nome | Tipo | Descrição | Padrão |
---|---|---|---|
strict | boolean | Se deseja habilitar a adesão estrita do esquema ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON tem suporte quando strict é true . |
Falso |
chatCompletionChoiceCommon
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
índice | Número inteiro | Não | ||
finish_reason | string | Não |
createTranslationRequest
Solicitação de tradução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O arquivo de áudio a ser traduzido. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. A solicitação deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
audioResponse
Resposta de tradução ou transcrição quando response_format foi json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
text | string | Texto traduzido ou transcrito. | Sim | |
task | string | Tipo de tarefa de áudio. | Não | |
linguagem | string | Idioma. | Não | |
duration | número | Duração. | Não | |
segmentos | matriz | Não |
audioResponseFormat
Define o formato da saída.
Descrição: define o formato da saída.
Tipo: string
Padrão:
Valores da Enumeração:
- json
- text
- srt
- verbose_json
- vtt
createTranscriptionRequest
Solicitação de transcrição.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
arquivo | string | O objeto do arquivo de áudio a transcrever. | Sim | |
prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | número | A temperatura da amostragem, entre 0 e 1. Valores mais altos, como 0,8, tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se for definido como 0, o modelo usa a probabilidade de log para aumentar automaticamente a temperatura até que determinados limites sejam atingidos. | Não | 0 |
linguagem | string | O idioma do áudio de entrada. Fornecer o idioma de entrada no formato ISO-639-1 melhorará a exatidão e a latência. | Não |
audioSegment
Segmento da transcrição ou tradução.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
ID | Número inteiro | Identificador do segmento. | Não | |
pesquisar | número | Deslocamento do segmento. | Não | |
iniciar | número | O deslocamento de início do segmento. | Não | |
end | número | Deslocamento final do segmento. | Não | |
text | string | Texto do segmento. | Não | |
tokens | matriz | Tokens do texto. | Não | |
temperatura | número | Temperatura. | Não | |
avg_logprob | número | Probabilidade de log média. | Não | |
compression_ratio | número | Taxa de compactação. | Não | |
no_speech_prob | número | Probabilidade de no speech . |
Não |
imageQuality
A qualidade da imagem que será gerada.
Descrição: a qualidade da imagem que será gerada.
Tipo: string
Padrão: padrão
Nome da Enumeração: Qualidade
Valores da Enumeração:
Valor | Descrição |
---|---|
padrão | A qualidade padrão cria imagens com qualidade padrão. |
hd | A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem. |
imagesResponseFormat
O formato no qual as imagens geradas são retornadas.
Descrição: o formato no qual as imagens geradas são retornadas.
Tipo: string
Padrão: url
Nome da Enumeração: ImagesResponseFormat
Valores da Enumeração:
Valor | Descrição |
---|---|
url | A URL que fornece acesso temporário para baixar as imagens geradas. |
b64_json | As imagens geradas são retornadas como cadeia de caracteres codificada em base64. |
imageSize
O tamanho das imagens geradas.
Descrição: o tamanho das imagens geradas.
Tipo: string
Padrão: 1024x1024
Nome da Enumeração: Tamanho
Valores da Enumeração:
Valor | Descrição |
---|---|
1792x1024 | O tamanho desejado da imagem gerada é de 1792 x 1024 pixels. |
1024x1792 | O tamanho desejado da imagem gerada é de 1024 x 1792 pixels. |
1\.024 x 1.024 | O tamanho desejado da imagem gerada é de 1024 x 1024 pixels. |
imageStyle
O estilo das imagens geradas.
Descrição: o estilo das imagens geradas.
Tipo: string
Padrão: vívido
Nome da Enumeração: Estilo
Valores da Enumeração:
Valor | Descrição |
---|---|
vívido | Vívido cria imagens hiper-realistas e dramáticas. |
natural | Natural cria imagens mais naturais e menos hiper-realistas. |
imageGenerationsRequest
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
prompt | string | Uma descrição de texto das imagens desejadas. O tamanho máximo é de 4.000 caracteres. | Sim | |
n | Número inteiro | O número de imagens a serem geradas. | Não | 1 |
tamanho | imageSize | O tamanho das imagens geradas. | Não | 1\.024 x 1.024 |
response_format | imagesResponseFormat | O formato no qual as imagens geradas são retornadas. | Não | url |
usuário | string | Um identificador exclusivo que representa o usuário final, o qual pode ajudar a monitorar e detectar abusos. | Não | |
qualidade | imageQuality | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
generateImagesResponse
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
criado | Número inteiro | O carimbo de data/hora UNIX quando a operação foi criada. | Sim | |
data | matriz | Os dados do resultado da operação, se bem-sucedida | Sim |
imageResult
A URL da imagem ou a imagem codificada, se foi bem-sucedida, e um erro se não foi.
Nome | Tipo | Descrição | Obrigatório | Padrão |
---|---|---|---|---|
url | string | A URL da imagem. | Não | |
b64_json | string | A imagem codificada em base64 | Não | |
content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | Não | |
revised_prompt | string | A solicitação que foi usada para gerar a imagem, se houve alguma revisão na solicitação. | Não | |
prompt_filter_results | dalleFilterResults | Informações sobre a categoria de filtragem de conteúdo (ódio, sexual, violência, self_harm), se tiver sido detectada, bem como o nível de gravidade (very_low, baixa, média, alta escala, que determina a intensidade e o nível de risco de conteúdo nocivo) e se foi filtrado ou não. Informações sobre conteúdo de desbloqueio por jailbreak e ofensivo, se foi detectado, e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela tiver sido filtrada, e sua ID. | Não |
Extensões de preenchimento
As extensões de conclusão não fazem parte da versão mais recente de GA da especificação de inferência do plano de dados do Azure OpenAI.
Chatmessage
O objeto de mensagem de chat não faz parte da versão de GA mais recente da especificação de inferência do plano de dados do Azure OpenAI.
Texto em fala
Atualmente, não faz parte da versão mais recente do Azure OpenAI de GA da especificação de inferência do plano de dados do Azure OpenAI. Consulte a versão prévia mais recente para essa funcionalidade.
Próximas etapas
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.