Referência da API REST do Azure OpenAI Service
Este artigo fornece detalhes sobre os pontos de extremidade da API REST de inferência para o Azure OpenAI.
Especificações da API
O gerenciamento e a interação com modelos e recursos do Azure OpenAI são divididos em três superfícies de API principais:
- Plano de controlo
- Plano de dados - criação
- Plano de dados - inferência
Cada superfície/especificação da API encapsula um conjunto diferente de recursos do Azure OpenAI. Cada API tem seu próprio conjunto exclusivo de visualizações e versões de API estáveis/geralmente disponíveis (GA). Atualmente, os lançamentos de pré-visualização tendem a seguir uma cadência mensal.
API | Versão de pré-visualização mais recente | Última versão do GA | Especificações | Description |
---|---|---|---|---|
Plano de controlo | 2024-06-01-preview |
2024-10-01 |
Arquivos de especificações | O Azure OpenAI compartilha um plano de controle comum com todos os outros Serviços de IA do Azure. A API do plano de controle é usada para coisas como criar recursos do Azure OpenAI, implantação de modelo e outras tarefas de gerenciamento de recursos de nível superior. O plano de controle também governa o que é possível fazer com recursos como o Gerenciador de Recursos do Azure, Bicep, Terraform e CLI do Azure. |
Plano de dados - criação | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificações | A API de criação do plano de dados controla o ajuste fino, o upload de arquivos, os trabalhos de ingestão, o lote e determinadas consultas de nível de modelo |
Plano de dados - inferência | 2024-10-01-preview |
2024-10-21 |
Arquivos de especificações | A API de inferência do plano de dados fornece os recursos/pontos de extremidade de inferência para recursos como conclusão, conclusão de bate-papo, incorporações, fala/sussurro, em seus dados, Dall-e, assistentes, etc. |
Autenticação
O Azure OpenAI fornece dois métodos para autenticação. Você pode usar chaves de API ou ID do Microsoft Entra.
Autenticação de chave de API: para esse tipo de autenticação, todas as solicitações de API devem incluir a
api-key
chave de API no cabeçalho HTTP. O Guia de início rápido fornece orientação sobre como fazer chamadas com esse tipo de autenticação.Autenticação do Microsoft Entra ID: você pode autenticar uma chamada de API usando um token do Microsoft Entra. Os tokens de autenticação são incluídos em uma solicitação como o
Authorization
cabeçalho. O token fornecido deve ser precedido porBearer
, por exemploBearer YOUR_AUTH_TOKEN
, . Você pode ler nosso guia de instruções sobre autenticação com o Microsoft Entra ID.
Controle de versão da API REST
As APIs de serviço têm um controlo de versão com o parâmetro de consulta api-version
. Todas as versões seguem a estrutura de datas AAAA-MM-DD. Por exemplo:
POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01
Inferência do plano de dados
O restante do artigo aborda a versão mais recente do GA da especificação de inferência do plano de dados OpenAI do Azure, 2024-10-21
.
Se você estiver procurando documentação sobre a versão mais recente da API de visualização, consulte a API de inferência de plano de dados de visualização mais recente
Conclusões
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
best_of | integer | Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n o , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Echo de volta o prompt, além da conclusão |
Não | False |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
Logprobs | integer | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | integer | Quantas finalizações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
sementes | integer | Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
transmissão em fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhuma |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | createCompletionResponse | Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat). |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21
{
"prompt": [
"tell me a joke about mango"
],
"max_tokens": 32,
"temperature": 1.0,
"n": 1
}
Respostas: Código de status: 200
{
"body": {
"id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
"created": 1686617332,
"choices": [
{
"text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
"index": 0,
"finish_reason": "stop",
"logprobs": null
}
],
"usage": {
"completion_tokens": 20,
"prompt_tokens": 6,
"total_tokens": 26
}
}
}
Incorporações
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
Obtenha uma representação vetorial de uma determinada entrada que pode ser facilmente consumida por modelos e algoritmos de aprendizado de máquina.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
input | cadeia de caracteres ou matriz | Insira texto para incorporar, codificado como uma cadeia de caracteres ou matriz de tokens. Para incorporar várias entradas em uma única solicitação, passe uma matriz de cadeias de caracteres ou matriz de matrizes de token. A entrada não deve exceder o máximo de tokens de entrada para o modelo (8.192 tokens para text-embedding-ada-002 ), não pode ser uma cadeia de caracteres vazia e qualquer matriz deve ter 2.048 dimensões ou menos. |
Sim | |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
input_type | string | tipo de entrada de pesquisa de incorporação a ser usada | Não | |
encoding_format | string | O formato para retornar as incorporações. Pode ser qualquer um float ou base64 . O padrão é float . |
Não | |
dimensões | integer | O número de dimensões que as incorporações de saída resultantes devem ter. Apenas suportado em text-embedding-3 modelos e modelos posteriores. |
Não |
Respostas
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
objeto | string | Sim | ||
modelo | string | Sim | ||
dados | matriz | Sim | ||
ativa | objeto | Sim |
Propriedades para uso
prompt_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
prompt_tokens | integer |
total_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
total_tokens | integer |
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | objeto |
Exemplos
Exemplo
Retorne as incorporações para um determinado prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21
{
"input": [
"this is a test"
]
}
Respostas: Código de status: 200
{
"body": {
"data": [
{
"index": 0,
"embedding": [
-0.012838088,
-0.007421397,
-0.017617522,
-0.028278312,
-0.018666342,
0.01737855,
-0.01821495,
-0.006950092,
-0.009937238,
-0.038580645,
0.010674067,
0.02412286,
-0.013647936,
0.013189907,
0.0021125758,
0.012406612,
0.020790534,
0.00074595667,
0.008397198,
-0.00535031,
0.008968075,
0.014351576,
-0.014086051,
0.015055214,
-0.022211088,
-0.025198232,
0.0065186154,
-0.036350243,
0.009180495,
-0.009698266,
0.009446018,
-0.008463579,
-0.0040426035,
-0.03443847,
-0.00091273896,
-0.0019217303,
0.002349888,
-0.021560553,
0.016515596,
-0.015572986,
0.0038666942,
-8.432463e-05
]
}
],
"usage": {
"prompt_tokens": 4,
"total_tokens": 4
}
}
}
Conclusão do chat
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
Cria uma conclusão para a mensagem de chat
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhuma |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
Logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message . |
Não | False |
top_logprobs | integer | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
n | integer | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 . Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | integer | Este recurso está em versão Beta. Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. |
Não | |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes. |
Não | |
functions | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | createChatCompletionResponse ou createChatCompletionStreamResponse |
Código de status: padrão
Descrição: Serviço indisponível
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | errorResponse |
Exemplos
Exemplo
Cria uma conclusão para o prompt fornecido, parâmetros e modelo escolhido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "system",
"content": "you are a helpful assistant that talks like a pirate"
},
{
"role": "user",
"content": "can you tell me how to care for a parrot?"
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados da Pesquisa do Azure e na identidade gerenciada atribuída ao sistema.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"index_name": "{index name}",
"authentication": {
"type": "system_assigned_managed_identity"
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão com base nos dados vetoriais da Pesquisa do Azure, na mensagem do assistente anterior e na identidade gerenciada atribuída pelo usuário.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a cat?"
},
{
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"intent": "cat care"
}
},
{
"role": "user",
"content": "how about dog?"
}
],
"data_sources": [
{
"type": "azure_search",
"parameters": {
"endpoint": "https://your-search-endpoint.search.windows.net/",
"authentication": {
"type": "user_assigned_managed_identity",
"managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
},
"index_name": "{index name}",
"query_type": "vector",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"in_scope": true,
"top_n_documents": 5,
"strictness": 3,
"role_information": "You are an AI assistant that helps people find information.",
"fields_mapping": {
"content_fields_separator": "\\n",
"content_fields": [
"content"
],
"filepath_field": "filepath",
"title_field": "title",
"url_field": "url",
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content 2.",
"title": "Citation Title 2",
"filepath": "contoso2.txt",
"url": "https://contoso.blob.windows.net/container/contoso2.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Exemplo
Cria uma conclusão para o Azure Cosmos DB fornecido.
POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21
{
"messages": [
{
"role": "user",
"content": "can you tell me how to care for a dog?"
}
],
"data_sources": [
{
"type": "azure_cosmos_db",
"parameters": {
"authentication": {
"type": "connection_string",
"connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
},
"database_name": "vectordb",
"container_name": "azuredocs",
"index_name": "azuredocindex",
"embedding_dependency": {
"type": "deployment_name",
"deployment_name": "{embedding deployment name}"
},
"fields_mapping": {
"content_fields": [
"content"
],
"vector_fields": [
"contentvector"
]
}
}
}
]
}
Respostas: Código de status: 200
{
"body": {
"id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
"created": 1686676106,
"choices": [
{
"index": 0,
"finish_reason": "stop",
"message": {
"role": "assistant",
"content": "Content of the completion [doc1].",
"context": {
"citations": [
{
"content": "Citation content.",
"title": "Citation Title",
"filepath": "contoso.txt",
"url": "https://contoso.blob.windows.net/container/contoso.txt",
"chunk_id": "0"
}
],
"intent": "dog care"
}
}
}
],
"usage": {
"completion_tokens": 557,
"prompt_tokens": 33,
"total_tokens": 590
}
}
}
Transcrições - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Transcreve o áudio para o idioma de entrada.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo sussurrado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O objeto do arquivo de áudio a ser transcrito. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
idioma | string | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito e metadados associados a partir de dados de áudio falado fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Traduções - Criar
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
Transcreve e traduz áudio de entrada para texto em inglês.
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo de sussurro que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: multipart/form-data
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O arquivo de áudio a ser traduzido. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
Respostas
Código de status: 200
Descrição: OK
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | audioResponse ou audioVerboseResponse | |
text/plain | string | Texto transcrito no formato de saída (quando response_format era de texto, vtt ou srt). |
Exemplos
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"body": {
"text": "A structured object when requesting json or verbose_json"
}
}
Exemplo
Obtém texto transcrito em inglês e metadados associados a partir de dados de áudio falados fornecidos.
POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21
"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"
Respostas: Código de status: 200
{
"type": "string",
"example": "plain text when requesting text, srt, or vtt"
}
Geração de imagens
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
Gera um lote de imagens a partir de uma legenda de texto em uma determinada implantação de modelo dall-e
Parâmetros do URI
Nome | Em | Necessário | Type | Description |
---|---|---|---|---|
endpoint | path | Sim | string url |
Pontos de extremidade do Azure OpenAI com suporte (protocolo e nome do host, por exemplo: https://aoairesource.openai.azure.com . Substitua "aoairesource" pelo nome do recurso do Azure OpenAI). https://{seu-nome-de-recurso}.openai.azure.com |
deployment-id | path | Sim | string | ID de implantação do modelo dall-e que foi implantado. |
api-version | query | Sim | string | Versão da API |
Cabeçalho do Pedido
Nome | Obrigatório | Type | Description |
---|---|---|---|
Chave API | True | string | Forneça a chave da API do Azure OpenAI aqui |
Corpo do Pedido
Tipo de conteúdo: application/json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | string | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. | Sim | |
n | integer | O número de imagens a gerar. | Não | 1 |
size | imageSize | O tamanho das imagens geradas. | Não | 1024 x 1024 |
response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | url |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
Respostas
Código de status: 200
Descrição: Ok
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | generateImagesResponse |
Código de status: padrão
Descrição: Ocorreu um erro.
Tipo de conteúdo | Tipo | Descrição |
---|---|---|
application/json | dalleErrorResponse |
Exemplos
Exemplo
Cria imagens com um prompt.
POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21
{
"prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
"n": 1,
"style": "natural",
"quality": "standard"
}
Respostas: Código de status: 200
{
"body": {
"created": 1698342300,
"data": [
{
"revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
"prompt_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
},
"profanity": {
"detected": false,
"filtered": false
}
},
"url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
"content_filter_results": {
"sexual": {
"severity": "safe",
"filtered": false
},
"violence": {
"severity": "safe",
"filtered": false
},
"hate": {
"severity": "safe",
"filtered": false
},
"self_harm": {
"severity": "safe",
"filtered": false
}
}
}
]
}
}
Componentes
errorResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
error | erro | Não |
Base de erro
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | string | Não | ||
mensagem | string | Não |
error
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
param | string | Não | ||
tipo | string | Não | ||
inner_error | innerError | Erro interno com detalhes adicionais. | Não |
innerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
innerErrorCode
Códigos de erro para o objeto de erro interno.
Descrição: Códigos de erro para o objeto de erro interno.
Tipo: string
Predefinido:
Nome do Enum: InnerErrorCode
Valores de Enum:
valor | Description |
---|---|
ResponsávelAIPolicyViolation | O prompt violou uma das mais regras de filtro de conteúdo. |
dalleErrorResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
error | dalleError | Não |
dalleError
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
param | string | Não | ||
tipo | string | Não | ||
inner_error | dalleInnerError | Erro interno com detalhes adicionais. | Não |
dalleInnerError
Erro interno com detalhes adicionais.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
code | innerErrorCode | Códigos de erro para o objeto de erro interno. | Não | |
content_filter_results | dalleFilterResultados | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não | |
revised_prompt | string | O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. | Não |
contentFilterResultBase
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim |
contentFilterSeverityResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
gravidade | string | Não |
contentFilterDetectedResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
filtrado | boolean | Sim | ||
detetada | boolean | Não |
contentFilterDetectedWithCitationResult
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
citação | objeto | Não |
Imóveis para citação
URL
Nome | Tipo | Description | Predefinido |
---|---|---|---|
URL | string |
license
Nome | Tipo | Description | Predefinido |
---|---|---|---|
license | string |
contentFilterResultsBase
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
error | Base de erro | Não |
contentFilterPromptResults
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
error | Base de erro | Não | ||
fuga de presos | contentFilterDetectedResult | Não |
contentFilterChoiceResults
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre texto e palavrões de terceiros, se foram detetados e se foram filtrados ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
error | Base de erro | Não | ||
protected_material_text | contentFilterDetectedResult | Não | ||
protected_material_code | contentFilterDetectedWithCitationResult | Não |
promptFilterResult
A filtragem de conteúdo resulta de um único prompt na solicitação.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
prompt_index | integer | Não | ||
content_filter_results | contentFilterPromptResults | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
promptFilterResults
A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes.
Nenhuma propriedade definida para este componente.
dalleContentFilterResults
Informações sobre os resultados da filtragem de conteúdo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não |
dalleFilterResultados
Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
sexual | contentFilterSeverityResult | Não | ||
violência | contentFilterSeverityResult | Não | ||
ódio | contentFilterSeverityResult | Não | ||
self_harm | contentFilterSeverityResult | Não | ||
palavrões | contentFilterDetectedResult | Não | ||
fuga de presos | contentFilterDetectedResult | Não |
chatCompletionsRequestCommon
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. | Não | |
max_tokens | integer | O número máximo de tokens permitido para a resposta gerada. Por padrão, o número de tokens que o modelo pode retornar será (4096 - tokens de prompt). Este valor foi agora preterido em favor do , e não é compatível com os modelos da max_completion_tokens série o1. |
Não | 4096 |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. | Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. | Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto json que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. | Não | |
Utilizador | string | Um identificador exclusivo que representa seu usuário final, que pode ajudar o Azure OpenAI a monitorar e detetar abusos. | Não |
createCompletionRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | cadeia de caracteres ou matriz | O(s) prompt(s) para gerar completações para, codificado como uma cadeia de caracteres, matriz de cadeias de caracteres, matriz de tokens ou matriz de matrizes de token. Observe que <|endoftext|> é o separador de documento que o modelo vê durante o treinamento, portanto, se um prompt não for especificado, o modelo será gerado como se fosse do início de um novo documento. |
Sim | |
best_of | integer | Gera best_of finalizações do lado do servidor e retorna o "melhor" (aquele com a maior probabilidade de log por token). Os resultados não podem ser transmitidos.Quando usado com n o , best_of controla o número de candidatos concluídos e n especifica quantos devem retornar - best_of devem ser maiores que n .Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
echo | boolean | Echo de volta o prompt, além da conclusão |
Não | False |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador GPT) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. Como exemplo, você pode passar {"50256": -100} para impedir que o <token |endoftext|> seja gerado. |
Não | Nenhuma |
Logprobs | integer | Inclua as probabilidades de log nos logprobs tokens de saída mais prováveis, bem como os tokens escolhidos. Por exemplo, se logprobs for 5, a API retornará uma lista dos cinco tokens mais prováveis. A API sempre retornará o logprob token amostrado, portanto, pode haver até logprobs+1 elementos na resposta.O valor máximo para logprobs é 5. |
Não | Nenhuma |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão. A contagem de tokens do prompt plus max_tokens não pode exceder o comprimento de contexto do modelo. |
Não | 16 |
n | integer | Quantas finalizações gerar para cada prompt. Nota: Como esse parâmetro gera muitas conclusões, ele pode consumir rapidamente sua cota de token. Use com cuidado e certifique-se de ter configurações razoáveis para max_tokens e stop . |
Não | 1 |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
sementes | integer | Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada. |
Não | |
transmissão em fluxo | boolean | Se o progresso parcial deve ser transmitido. Se definidos, os tokens serão enviados como eventos enviados pelo servidor somente dados à medida que estiverem disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
sufixo | string | O sufixo que vem após a conclusão do texto inserido. Este parâmetro só é suportado para gpt-3.5-turbo-instruct . |
Não | Nenhuma |
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não |
createCompletionResponse
Representa uma resposta de conclusão da API. Observação: os objetos de resposta transmitidos e não transmitidos compartilham a mesma forma (ao contrário do ponto de extremidade do chat).
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão. | Sim | |
escolhas | matriz | A lista de opções de conclusão que o modelo gerou para o prompt de entrada. | Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão foi criada. | Sim | |
modelo | string | O modelo utilizado para a conclusão. | Sim | |
prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. | Não | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre "text_completion" Valores possíveis: text_completion |
Sim | |
ativa | conclusãoUso | Estatísticas de utilização do pedido de conclusão. | Não |
createChatCompletionRequest
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
temperatura | Número | Qual a temperatura de amostragem a utilizar, entre 0 e 2. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Geralmente, recomendamos alterar isso ou top_p mas não ambos. |
Não | 1 |
top_p | Número | Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com top_p massa de probabilidade. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. Geralmente, recomendamos alterar isso ou temperature mas não ambos. |
Não | 1 |
transmissão em fluxo | boolean | Se definido, deltas de mensagem parciais serão enviados, como no ChatGPT. Os tokens serão enviados como eventos enviados apenas pelo servidor de dados à medida que ficam disponíveis, com o fluxo encerrado por uma data: [DONE] mensagem. |
Não | False |
parar | cadeia de caracteres ou matriz | Até quatro sequências em que a API deixará de gerar mais tokens. |
Não | |
max_tokens | integer | O número máximo de tokens que podem ser gerados na conclusão do chat. O comprimento total dos tokens de entrada e dos tokens gerados é limitado pelo comprimento do contexto do modelo. |
Não | |
max_completion_tokens | integer | Um limite superior para o número de tokens que podem ser gerados para uma conclusão, incluindo tokens de saída visíveis e tokens de raciocínio. | Não | |
presence_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade do modelo falar sobre novos tópicos. |
Não | 0 |
frequency_penalty | Número | Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade do modelo repetir a mesma linha textualmente. |
Não | 0 |
logit_bias | objeto | Modifique a probabilidade de tokens especificados aparecerem na conclusão. Aceita um objeto JSON que mapeia tokens (especificados por sua ID de token no tokenizador) para um valor de viés associado de -100 a 100. Matematicamente, o viés é adicionado aos logits gerados pelo modelo antes da amostragem. O efeito exato varia de acordo com o modelo, mas valores entre -1 e 1 devem diminuir ou aumentar a probabilidade de seleção; Valores como -100 ou 100 devem resultar em um banimento ou seleção exclusiva do token relevante. |
Não | Nenhuma |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. |
Não | |
mensagens | matriz | Uma lista de mensagens que compõem a conversa até agora. | Sim | |
data_sources | matriz | As entradas de configuração para extensões de chat do Azure OpenAI que as utilizam. Esta especificação adicional só é compatível com o Azure OpenAI. |
Não | |
Logprobs | boolean | Se deve retornar as probabilidades de log dos tokens de saída ou não. Se true, retorna as probabilidades de log de cada token de saída retornado no content de message . |
Não | False |
top_logprobs | integer | Um inteiro entre 0 e 20 especificando o número de tokens mais prováveis de retornar em cada posição de token, cada um com uma probabilidade de log associada. logprobs deve ser definido como true se este parâmetro for usado. |
Não | |
n | integer | Quantas opções de conclusão de chat gerar para cada mensagem de entrada. Observe que você será cobrado com base no número de tokens gerados em todas as opções. Manter n como 1 minimizar custos. |
Não | 1 |
parallel_tool_calls | ParallelToolCalls | Se a chamada de função paralela deve ser ativada durante o uso da ferramenta. | Não | True |
response_format | ResponseFormatText ou ResponseFormatJsonObject ou ResponseFormatJsonSchema | Um objeto que especifica o formato que o modelo deve produzir. Compatível com GPT-4o, GPT-4o mini, GPT-4 Turbo e todos os modelos GPT-3.5 Turbo mais recentes que gpt-3.5-turbo-1106 . Configuração para { "type": "json_schema", "json_schema": {...} } habilitar saídas estruturadas, o que garante que o modelo corresponderá ao esquema JSON fornecido.Configuração para { "type": "json_object" } habilitar o modo JSON, que garante que a mensagem gerada pelo modelo seja JSON válida.Importante: ao usar o modo JSON, você também deve instruir o modelo a produzir JSON por conta própria por meio de um sistema ou mensagem do usuário. Sem isso, o modelo pode gerar um fluxo interminável de espaço em branco até que a geração atinja o limite do token, resultando em uma solicitação de longa duração e aparentemente "presa". Observe também que o conteúdo da mensagem pode ser parcialmente cortado se finish_reason="length" , o que indica que a geração excedeu max_tokens ou a conversa excedeu o comprimento máximo de contexto. |
Não | |
sementes | integer | Este recurso está em versão Beta. Se especificado, nosso sistema fará um melhor esforço para amostragem determinística, de modo que solicitações repetidas com os mesmos seed parâmetros e devem retornar o mesmo resultado.O determinismo não é garantido, e você deve consultar o system_fingerprint parâmetro response para monitorar as alterações no back-end. |
Não | |
ferramentas | matriz | Uma lista de ferramentas que o modelo pode chamar. Atualmente, apenas funções são suportadas como ferramenta. Use isso para fornecer uma lista de funções para as quais o modelo pode gerar entradas JSON. Um máximo de 128 funções são suportadas. |
Não | |
tool_choice | chatCompletionToolChoiceOption | Controla qual (se houver) ferramenta é chamada pelo modelo. none significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}} força o modelo a chamar essa ferramenta. none é o padrão quando nenhuma ferramenta está presente. auto é o padrão se as ferramentas estiverem presentes. |
Não | |
function_call | string ou chatCompletionFunctionCallOption | Preterido em favor de tool_choice .Controla qual (se houver) função é chamada pelo modelo. none significa que o modelo não chamará uma função e, em vez disso, gerará uma mensagem.auto significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma função.Especificar uma função específica através {"name": "my_function"} força o modelo a chamar essa função.none é o padrão quando nenhuma função está presente. auto é o padrão se as funções estiverem presentes. |
Não | |
functions | matriz | Preterido em favor de tools .Uma lista de funções para as quais o modelo pode gerar entradas JSON. |
Não |
chatCompletionFunctions
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | string | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não |
chatCompletionFunctionCallOption
Especificar uma função específica através {"name": "my_function"}
força o modelo a chamar essa função.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestMessage
Este componente pode ser um dos seguintes:
chatCompletionRequestSystemMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do sistema. | Sim | |
função | enumeração | O papel do autor das mensagens, neste caso system .Valores possíveis: sistema |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não |
chatCompletionRequestUserMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do usuário. |
Sim | |
função | enumeração | O papel do autor das mensagens, neste caso user .Valores possíveis: user |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não |
chatCompletionRequestAssistantMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | cadeia de caracteres ou matriz | O conteúdo da mensagem do assistente. Obrigatório, a menos que tool_calls ou function_call seja especificado. |
Não | |
recusa | string | A mensagem de recusa por parte do assistente. | Não | |
função | enumeração | O papel do autor das mensagens, neste caso assistant .Valores possíveis: assistente |
Sim | |
nome | string | Um nome opcional para o participante. Fornece as informações do modelo para diferenciar entre participantes da mesma função. | Não | |
tool_calls | chatCompletionMessageToolCalls | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não |
Imóveis para function_call
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
chatCompletionRequestToolMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso tool .Valores possíveis: ferramenta |
Sim | |
content | cadeia de caracteres ou matriz | O conteúdo da mensagem da ferramenta. | Sim | |
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Sim |
chatCompletionRequestFunctionMessage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: função |
Sim | |
content | string | O conteúdo da mensagem de função. | Sim | |
nome | string | O nome da função a ser chamada. | Sim |
chatCompletionRequestSystemMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestUserMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestAssistantMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestToolMessageContentPart
Este componente pode ser um dos seguintes:
chatCompletionRequestMessageContentPartText
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: texto |
Sim | |
texto | string | O conteúdo do texto. | Sim |
chatCompletionRequestMessageContentPartImage
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: image_url |
Sim | |
image_url | objeto | Sim |
Imóveis para image_url
url
Nome | Tipo | Description | Predefinido |
---|---|---|---|
url | string | Um URL da imagem ou os dados de imagem codificados em base64. |
detalhe
Nome | Tipo | Description | Predefinido |
---|---|---|---|
detalhe | string | Especifica o nível de detalhe da imagem. Saiba mais no guia Visão. | auto |
chatCompletionRequestMessageContentPartRefusal
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da parte de conteúdo. Valores possíveis: recusa |
Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim |
azureChatExtensionConfiguration
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim |
azureChatExtensionType
Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Descrição: uma representação dos dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por uma solicitação de conclusão de chat que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI.
Tipo: string
Predefinido:
Nome do Enum: AzureChatExtensionType
Valores de Enum:
valor | Description |
---|---|
azure_search | Representa o uso do Azure Search como uma extensão de chat do Azure OpenAI. |
azure_cosmos_db | Representa o uso do Azure Cosmos DB como uma extensão de chat do Azure OpenAI. |
azureSearchChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Search ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | azureSearchChatExtensionParameters | Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI. | Não |
azureSearchChatExtensionParameters
Parâmetros para a Pesquisa do Azure quando usada como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataApiKeyAuthenticationOptions ou onYourDataSystemAssignedManagedIdentityAuthenticationOptions ou onYourDataUserAssignedManagedIdentityAuthenticationOptions | Sim | ||
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
role_information | string | Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. | Não | |
endpoint | string | O caminho de ponto de extremidade absoluto para o recurso de Pesquisa do Azure a ser usado. | Sim | |
index_name | string | O nome do índice a ser usado conforme disponível no recurso de Pesquisa do Azure referenciado. | Sim | |
fields_mapping | azureSearchIndexFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado. | Não | |
query_type | azureSearchQueryType | O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI. | Não | |
semantic_configuration | string | A configuração semântica adicional para a consulta. | Não | |
filtrar | string | Filtro de pesquisa. | Não | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Não |
azureSearchIndexFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso de Pesquisa do Azure configurado.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Não | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Não |
azureSearchQueryType
O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Descrição: O tipo de consulta de recuperação do Azure Search que deve ser executada ao usá-la como uma extensão de chat do Azure OpenAI.
Tipo: string
Predefinido:
Nome do Enum: AzureSearchQueryType
Valores de Enum:
valor | Description |
---|---|
simples | Representa o analisador de consulta simples padrão. |
semânticos | Representa o analisador de consulta semântica para modelagem semântica avançada. |
vetor | Representa a pesquisa vetorial sobre dados computados. |
vector_simple_hybrid | Representa uma combinação da estratégia de consulta simples com dados vetoriais. |
vector_semantic_hybrid | Representa uma combinação de pesquisa semântica e consulta de dados vetoriais. |
azureCosmosDBChatExtensionConfiguration
Uma representação específica de opções configuráveis para o Azure Cosmos DB ao usá-lo como uma extensão de chat do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | azureChatExtensionType | Uma representação de dados de configuração para uma única extensão de chat do Azure OpenAI. Isso será usado por um bate-papo solicitação de conclusão que deve usar as extensões de chat do Azure OpenAI para aumentar o comportamento de resposta. O uso dessa configuração é compatível apenas com o Azure OpenAI. |
Sim | |
parâmetros | azureCosmosDBChatExtensionParameters | Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore. |
Não |
azureCosmosDBChatExtensionParameters
Parâmetros a serem usados ao configurar as extensões de chat do Azure OpenAI On Your Data ao usar o Azure Cosmos DB para MongoDB vCore.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
autenticação | onYourDataConnectionStringAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão. | Sim | |
top_n_documents | integer | O número superior configurado de documentos a serem apresentados para a consulta configurada. | Não | |
in_scope | boolean | Se as consultas devem ser restritas ao uso de dados indexados. | Não | |
rigor | integer | O rigor configurado da filtragem de relevância da pesquisa. Quanto maior o rigor, maior a precisão, mas menor a recordação da resposta. | Não | |
role_information | string | Dê instruções ao modelo sobre como ele deve se comportar e qualquer contexto que ele deve referenciar ao gerar uma resposta. Pode descrever a personalidade do assistente e dizer-lhe como formatar as respostas. Há um limite de 100 tokens para ele, e ele conta contra o limite geral de tokens. | Não | |
database_name | string | O nome do banco de dados vCore do MongoDB a ser usado com o Azure Cosmos DB. | Sim | |
container_name | string | O nome do contêiner de recursos do Azure Cosmos DB. | Sim | |
index_name | string | O nome do índice vCore do MongoDB a ser usado com o Azure Cosmos DB. | Sim | |
fields_mapping | azureCosmosDBFieldMappingOptions | Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB. | Sim | |
embedding_dependency | onYourDataEndpointVectorizationSource ou onYourDataDeploymentNameVectorizationSource | Sim |
azureCosmosDBFieldMappingOptions
Configurações opcionais para controlar como os campos são processados ao usar um recurso configurado do Azure Cosmos DB.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
title_field | string | O nome do campo de índice a ser usado como título. | Não | |
url_field | string | O nome do campo de índice a ser usado como URL. | Não | |
filepath_field | string | O nome do campo de índice a ser usado como um caminho de arquivo. | Não | |
content_fields | matriz | Os nomes dos campos de índice que devem ser tratados como conteúdo. | Sim | |
content_fields_separator | string | O padrão separador que os campos de conteúdo devem usar. | Não | |
vector_fields | matriz | Os nomes dos campos que representam dados vetoriais. | Sim |
onYourDataAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataAuthenticationType
Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Descrição: Os tipos de autenticação suportados com o Azure OpenAI On Your Data.
Tipo: string
Predefinido:
Nome do Enum: OnYourDataAuthenticationType
Valores de Enum:
valor | Description |
---|---|
api_key | Autenticação via chave API. |
connection_string | Autenticação via cadeia de conexão. |
system_assigned_managed_identity | Autenticação através da identidade gerenciada atribuída pelo sistema. |
user_assigned_managed_identity | Autenticação através da identidade gerenciada atribuída pelo usuário. |
onYourDataApiKeyAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
key | string | A chave de API a ser usada para autenticação. | Não |
onYourDataConnectionStringAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma cadeia de conexão.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
connection_string | string | A cadeia de conexão a ser usada para autenticação. | Não |
onYourDataSystemAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída ao sistema.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim |
onYourDataUserAssignedManagedIdentityAuthenticationOptions
As opções de autenticação para o Azure OpenAI On Your Data ao usar uma identidade gerenciada atribuída pelo usuário.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataAuthenticationType | Os tipos de autenticação suportados com o Azure OpenAI On Your Data. | Sim | |
managed_identity_resource_id | string | A ID do recurso da identidade gerenciada atribuída pelo usuário a ser usada para autenticação. | Não |
onYourDataVectorizationSource
Uma representação abstrata de uma fonte de vetorização para o Azure OpenAI On Your Data com pesquisa vetorial.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim |
onYourDataVectorizationSourceType
Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial.
Descrição: Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com
pesquisa vetorial.
Tipo: string
Predefinido:
Nome do Enum: OnYourDataVectorizationSourceType
Valores de Enum:
valor | Description |
---|---|
endpoint | Representa a vetorização executada por chamadas de serviço público para um modelo de incorporação do Azure OpenAI. |
deployment_name | Representa um nome de implantação de modelo Ada a ser usado. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, o que habilita o vetor pesquise mesmo em redes privadas. |
onYourDataDeploymentNameVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em um nome de implantação de modelo de incorporação interno no mesmo recurso do Azure OpenAI.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim | |
deployment_name | string | Especifica o nome da implantação do modelo a ser usado para vetorização. Essa implantação de modelo deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará essa implantação de modelo por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. | Não |
onYourDataEndpointVectorizationSource
Os detalhes de uma fonte de vetorização, usada pelo Azure OpenAI On Your Data ao aplicar a pesquisa vetorial, que se baseia em uma chamada pública de ponto de extremidade do Azure OpenAI para incorporações.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | onYourDataVectorizationSourceType | Representa as fontes disponíveis que o Azure OpenAI On Your Data pode usar para configurar a vetorização de dados para uso com pesquisa vetorial. |
Sim | |
autenticação | onYourDataApiKeyAuthenticationOptions | As opções de autenticação para o Azure OpenAI On Your Data ao usar uma chave de API. | Não | |
endpoint | string | Especifica o ponto de extremidade a ser usado para vetorização. Esse ponto de extremidade deve estar no mesmo recurso do Azure OpenAI, mas o On Your Data usará esse ponto de extremidade por meio de uma chamada interna em vez de uma chamada pública, que permite a pesquisa vetorial mesmo em redes privadas. | Não |
azureChatExtensionsMessageContext
Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta de conclusão de chat correspondente. Essas informações de contexto só são preenchidas ao usar uma solicitação do Azure OpenAI configurada para usar uma extensão correspondente.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Citações | matriz | O resultado da recuperação da fonte de dados, usado para gerar a mensagem do assistente na resposta. | Não | |
intenção | string | A intenção detetada a partir do histórico de bate-papo, usado para passar para o próximo turno para transportar o contexto. | Não |
citação
informações de citação para uma mensagem de resposta de conclusão de chat.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | string | O conteúdo da citação. | Sim | |
title | string | O título da citação. | Não | |
url | string | O URL da citação. | Não | |
caminho do arquivo | string | O caminho do arquivo da citação. | Não | |
chunk_id | string | O ID do bloco da citação. | Não |
chatCompletionMessageToolCall
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | O ID da chamada da ferramenta. | Sim | |
tipo | toolCallType | O tipo de chamada de ferramenta, neste caso function . |
Sim | |
function | objeto | A função que o modelo chamou. | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
toolCallType
O tipo de chamada de ferramenta, neste caso function
.
Descrição: O tipo de chamada da ferramenta, neste caso function
.
Tipo: string
Predefinido:
Nome do Enum: ToolCallType
Valores de Enum:
valor | Description |
---|---|
function | O tipo de chamada de ferramenta é função. |
chatCompletionRequestMessageTool
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tool_call_id | string | Chamada de ferramenta à qual esta mensagem está respondendo. | Não | |
content | string | O conteúdo da mensagem. | Não |
chatCompletionRequestMessageFunction
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | enumeração | O papel do autor das mensagens, neste caso function .Valores possíveis: função |
Não | |
nome | string | O conteúdo da mensagem. | Não | |
content | string | O conteúdo da mensagem. | Não |
createChatCompletionResponse
Representa uma resposta de conclusão de chat retornada por modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão do chat. | Sim | |
prompt_filter_results | promptFilterResults | A filtragem de conteúdo resulta em zero ou mais prompts na solicitação. Em uma solicitação de streaming, os resultados de prompts diferentes podem chegar em horários diferentes ou em ordens diferentes. | Não | |
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode ser mais de um se n for maior que 1. |
Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. | Sim | |
modelo | string | O modelo usado para a conclusão do chat. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre chat.completion .Valores possíveis: chat.completion |
Sim | |
ativa | conclusãoUso | Estatísticas de utilização do pedido de conclusão. | Não |
createChatCompletionStreamResponse
Representa uma parte transmitida de uma resposta de conclusão de chat retornada pelo modelo, com base na entrada fornecida.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | string | Um identificador exclusivo para a conclusão do chat. Cada pedaço tem o mesmo ID. | Sim | |
escolhas | matriz | Uma lista de opções de conclusão de chat. Pode conter mais de um elemento se n for maior que 1. |
Sim | |
criado | integer | O carimbo de data/hora Unix (em segundos) de quando a conclusão do chat foi criada. Cada bloco tem o mesmo carimbo de data/hora. | Sim | |
modelo | string | O modelo para gerar a conclusão. | Sim | |
system_fingerprint | string | Essa impressão digital representa a configuração de back-end com a qual o modelo é executado. Pode ser usado em conjunto com o parâmetro request para entender quando alterações de back-end foram feitas que podem afetar o seed determinismo. |
Não | |
objeto | enumeração | O tipo de objeto, que é sempre chat.completion.chunk .Valores possíveis: chat.completion.chunk |
Sim |
chatCompletionStreamResponseDelta
Um delta de conclusão de chat gerado por respostas de modelo transmitidas.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | string | O conteúdo da mensagem de bloco. | Não | |
function_call | objeto | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
tool_calls | matriz | Não | ||
função | enumeração | O papel do autor desta mensagem. Valores possíveis: sistema, utilizador, assistente, ferramenta |
Não | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Não |
Imóveis para function_call
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
chatCompletionMessageToolCallChunk
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | Sim | ||
id | string | O ID da chamada da ferramenta. | Não | |
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Não | |
function | objeto | Não |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
Argumentos
Nome | Tipo | Description | Predefinido |
---|---|---|---|
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. |
chatCompletionStreamOptions
Opções para resposta de streaming. Defina isso apenas quando definir stream: true
.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
include_usage | boolean | Se definido, um bloco adicional será transmitido antes da data: [DONE] mensagem. O usage campo neste bloco mostra as estatísticas de uso de token para toda a solicitação, e o choices campo sempre será uma matriz vazia. Todas as outras partes também incluirão um usage campo, mas com um valor nulo. |
Não |
chatCompletionChoiceLogProbs
Registre informações de probabilidade para a escolha.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
content | matriz | Uma lista de tokens de conteúdo de mensagem com informações de probabilidade de log. | Sim | |
recusa | matriz | Uma lista de tokens de recusa de mensagens com informações de probabilidade de log. | Não |
chatCompletionTokenLogprob
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
token | string | O token. | Sim | |
Logprob | Número | A probabilidade de log desse token. | Sim | |
bytes | matriz | Uma lista de inteiros que representam a representação de bytes UTF-8 do token. Útil em casos em que os caracteres são representados por vários tokens e suas representações de bytes devem ser combinadas para gerar a representação de texto correta. Pode ser null se não houver representação de bytes para o token. |
Sim | |
top_logprobs | matriz | Lista dos tokens mais prováveis e sua probabilidade de log, nesta posição de token. Em casos raros, pode haver menos do que o número de pedidos top_logprobs devolvidos. |
Sim |
chatCompletionResponseMessage
Uma mensagem de conclusão do chat gerada pelo modelo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
função | chatCompletionResponseMessageRole | O papel do autor da mensagem de resposta. | Sim | |
recusa | string | A mensagem de recusa gerada pelo modelo. | Sim | |
content | string | O conteúdo da mensagem. | Sim | |
tool_calls | matriz | As chamadas de ferramenta geradas pelo modelo, como chamadas de função. | Não | |
function_call | chatCompletionFunctionCall | Preterido e substituído por tool_calls . O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo. |
Não | |
Contexto | azureChatExtensionsMessageContext | Uma representação das informações de contexto adicionais disponíveis quando as extensões de chat do Azure OpenAI estão envolvidas na geração de uma resposta correspondente de conclusão de chat. Essas informações de contexto só são preenchidas quando usando uma solicitação OpenAI do Azure configurada para usar uma extensão correspondente. |
Não |
chatCompletionResponseMessageRole
O papel do autor da mensagem de resposta.
Descrição: a função do autor da mensagem de resposta.
Tipo: string
Predefinido:
Valores de Enum:
- assistente
chatCompletionToolChoiceOption
Controla qual (se houver) ferramenta é chamada pelo modelo. none
significa que o modelo não chamará nenhuma ferramenta e, em vez disso, gerará uma mensagem. auto
significa que o modelo pode escolher entre gerar uma mensagem ou chamar uma ou mais ferramentas. required
significa que o modelo deve chamar uma ou mais ferramentas. Especificar uma ferramenta específica via {"type": "function", "function": {"name": "my_function"}}
força o modelo a chamar essa ferramenta. none
é o padrão quando nenhuma ferramenta está presente. auto
é o padrão se as ferramentas estiverem presentes.
Este componente pode ser um dos seguintes:
chatCompletionNamedToolChoice
Especifica uma ferramenta que o modelo deve usar. Use para forçar o modelo a chamar uma função específica.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Sim | |
function | objeto | Sim |
Propriedades para função
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome da função a ser chamada. |
ParallelToolCalls
Se a chamada de função paralela deve ser ativada durante o uso da ferramenta.
Nenhuma propriedade definida para este componente.
chatCompletionMessageToolCalls
As chamadas de ferramenta geradas pelo modelo, como chamadas de função.
Nenhuma propriedade definida para este componente.
chatCompletionFunctionCall
Preterido e substituído por tool_calls
. O nome e os argumentos de uma função que deve ser chamada, conforme gerado pelo modelo.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
nome | string | O nome da função a ser chamada. | Sim | |
Argumentos | string | Os argumentos com os quais chamar a função, conforme gerado pelo modelo no formato JSON. Observe que o modelo nem sempre gera JSON válido e pode gerar parâmetros não definidos pelo seu esquema de função. Valide os argumentos em seu código antes de chamar sua função. | Sim |
conclusãoUso
Estatísticas de utilização do pedido de conclusão.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
prompt_tokens | integer | Número de tokens no prompt. | Sim | |
completion_tokens | integer | Número de tokens na conclusão gerada. | Sim | |
total_tokens | integer | Número total de tokens usados na solicitação (prompt + conclusão). | Sim | |
completion_tokens_details | objeto | Detalhamento dos tokens usados em uma conclusão. | Não |
Imóveis para completion_tokens_details
reasoning_tokens
Nome | Tipo | Description | Predefinido |
---|---|---|---|
reasoning_tokens | integer | Tokens gerados pelo modelo para raciocínio. |
chatCompletionTool
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo da ferramenta. Atualmente, apenas function é suportado.Valores possíveis: função |
Sim | |
function | FunctionObject | Sim |
FunctionParameters
Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato.
Omitir parameters
define uma função com uma lista de parâmetros vazia.
Nenhuma propriedade definida para este componente.
FunctionObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
descrição | string | Uma descrição do que a função faz, usada pelo modelo para escolher quando e como chamar a função. | Não | |
nome | string | O nome da função a ser chamada. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. | Sim | |
parâmetros | FunctionParameters | Os parâmetros que as funções aceitam, descritos como um objeto de esquema JSON. Consulte o guia para obter exemplos e a referência de esquema JSON para obter documentação sobre o formato. Omitir parameters define uma função com uma lista de parâmetros vazia. |
Não | |
estrito | boolean | Se a adesão estrita ao esquema deve ser ativada ao gerar a chamada de função. Se definido como true, o modelo seguirá o esquema exato definido no parameters campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
Não | False |
ResponseFormatText
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: text Valores possíveis: texto |
Sim |
ResponseFormatJsonObject
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_object Valores possíveis: json_object |
Sim |
ResponseFormatJsonSchemaSchema
O esquema para o formato de resposta, descrito como um objeto de esquema JSON.
Nenhuma propriedade definida para este componente.
ResponseFormatJsonSchema
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
tipo | enumeração | O tipo de formato de resposta que está sendo definido: json_schema Valores possíveis: json_schema |
Sim | |
json_schema | objeto | Sim |
Imóveis para json_schema
descrição
Name | Tipo | Description | Predefinido |
---|---|---|---|
descrição | string | Uma descrição do formato de resposta, usado pelo modelo para determinar como responder no formato. |
nome
Nome | Tipo | Description | Predefinido |
---|---|---|---|
nome | string | O nome do formato de resposta. Deve ser a-z, A-Z, 0-9, ou conter sublinhados e traços, com um comprimento máximo de 64. |
esquema
Nome | Tipo | Description | Predefinido |
---|---|---|---|
esquema | ResponseFormatJsonSchemaSchema | O esquema para o formato de resposta, descrito como um objeto de esquema JSON. |
estrito
Nome | Tipo | Description | Predefinido |
---|---|---|---|
estrito | boolean | Se a adesão estrita ao esquema deve ser habilitada ao gerar a saída. Se definido como true, o modelo sempre seguirá o esquema exato definido no schema campo. Somente um subconjunto de esquema JSON é suportado quando strict é true . |
False |
chatCompletionChoiceCommon
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
index | integer | Não | ||
finish_reason | string | Não |
createTranslationRequest
Pedido de tradução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O arquivo de áudio a ser traduzido. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve estar em inglês. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
audioResposta
Resposta de tradução ou transcrição quando response_format foi json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | Texto traduzido ou transcrito. | Sim |
audioVerboseResponse
Resposta de tradução ou transcrição quando response_format foi verbose_json
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
texto | string | Texto traduzido ou transcrito. | Sim | |
tarefa | string | Tipo de tarefa de áudio. | Não | |
idioma | string | Idioma. | Não | |
duration | Número | Duração. | Não | |
segmentos | matriz | Não |
audioResponseFormat
Define o formato da saída.
Descrição: Define o formato da saída.
Tipo: string
Predefinido:
Valores de Enum:
- json
- texto
- SRT
- verbose_json
- VTT
createTranscriptionRequest
Pedido de transcrição.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
ficheiro | string | O objeto do arquivo de áudio a ser transcrito. | Sim | |
Prompt | string | Um texto opcional para guiar o estilo do modelo ou continuar um segmento de áudio anterior. O prompt deve corresponder ao idioma do áudio. | Não | |
response_format | audioResponseFormat | Define o formato da saída. | Não | |
temperatura | Número | A temperatura de amostragem, entre 0 e 1. Valores mais altos como 0,8 tornarão a saída mais aleatória, enquanto valores mais baixos como 0,2 a tornarão mais focada e determinística. Se definido como 0, o modelo usará a probabilidade de log para aumentar automaticamente a temperatura até que certos limites sejam atingidos. | Não | 0 |
idioma | string | O idioma do áudio de entrada. O fornecimento do idioma de entrada no formato ISO-639-1 melhorará a precisão e a latência. | Não |
audioSegmento
Segmento de transcrição ou tradução.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
id | integer | Identificador de segmento. | Não | |
procurar | Número | Deslocamento do segmento. | Não | |
iniciar | Número | Compensação de início de segmento. | Não | |
end | Número | Compensação final do segmento. | Não | |
texto | string | Segmentar texto. | Não | |
fichas | matriz | Fichas do texto. | Não | |
temperatura | Número | Temperatura. | Não | |
avg_logprob | Número | Probabilidade média de log. | Não | |
compression_ratio | Número | Taxa de compressão. | Não | |
no_speech_prob | Número | Probabilidade de no speech . |
Não |
qualidade de imagem
A qualidade da imagem que será gerada.
Descrição: A qualidade da imagem que será gerada.
Tipo: string
Padrão: padrão
Enum Nome: Qualidade
Valores de Enum:
valor | Description |
---|---|
padrão | A qualidade padrão cria imagens com qualidade padrão. |
ALTA | A qualidade HD cria imagens com detalhes mais finos e maior consistência em toda a imagem. |
imagesResponseFormat
O formato em que as imagens geradas são retornadas.
Descrição: O formato no qual as imagens geradas são retornadas.
Tipo: string
Padrão: url
Nome do Enum: ImagesResponseFormat
Valores de Enum:
valor | Description |
---|---|
url | O URL que fornece acesso temporário para baixar as imagens geradas. |
b64_json | As imagens geradas são retornadas como cadeia de caracteres codificada base64. |
imageSize
O tamanho das imagens geradas.
Descrição: O tamanho das imagens geradas.
Tipo: string
Padrão: 1024x1024
Nome do Enum: Tamanho
Valores de Enum:
valor | Description |
---|---|
1792x1024 | O tamanho desejado da imagem gerada é 1792x1024 pixels. |
1024x1792 | O tamanho desejado da imagem gerada é 1024x1792 pixels. |
1024 x 1024 | O tamanho desejado da imagem gerada é 1024x1024 pixels. |
imageStyle
O estilo das imagens geradas.
Descrição: O estilo das imagens geradas.
Tipo: string
Padrão: vívido
Nome do Enum: Estilo
Valores de Enum:
valor | Description |
---|---|
vívido | Vivid cria imagens que são hiper-realistas e dramáticas. |
naturais | Natural cria imagens mais naturais e menos hiper-realistas. |
imagemGeraçõesPedido
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
Prompt | string | Uma descrição em texto da(s) imagem(ões) desejada(s). O comprimento máximo é de 4.000 caracteres. | Sim | |
n | integer | O número de imagens a gerar. | Não | 1 |
size | imageSize | O tamanho das imagens geradas. | Não | 1024 x 1024 |
response_format | imagesResponseFormat | O formato em que as imagens geradas são retornadas. | Não | url |
Utilizador | string | Um identificador único que representa o seu utilizador final, que pode ajudar a monitorizar e detetar abusos. | Não | |
qualidade | qualidade de imagem | A qualidade da imagem que será gerada. | Não | padrão |
style | imageStyle | O estilo das imagens geradas. | Não | vívido |
generateImagesResponse
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
criado | integer | O carimbo de data/hora unix quando a operação foi criada. | Sim | |
dados | matriz | Os dados de resultado da operação, se bem-sucedida | Sim |
imageResult
O url da imagem ou imagem codificada, se bem-sucedida, e um erro de outra forma.
Nome | Tipo | Descrição | Necessário | Predefinição |
---|---|---|---|---|
url | string | O url da imagem. | Não | |
b64_json | string | A imagem codificada base64 | Não | |
content_filter_results | dalleContentFilterResults | Informações sobre os resultados da filtragem de conteúdo. | Não | |
revised_prompt | string | O prompt que foi usado para gerar a imagem, se houve alguma revisão para o prompt. | Não | |
prompt_filter_results | dalleFilterResultados | Informações sobre a categoria de filtragem de conteúdos (ódio, violência, self_harm), se foram detetados, bem como o nível de gravidade (very_low, baixo, médio, alto escala que determina a intensidade e o nível de risco dos conteúdos nocivos) e se foram filtrados ou não. Informações sobre conteúdo de jailbreak e palavrões, se foi detetado e se foi filtrado ou não. E informações sobre a lista de bloqueio de clientes, se ela foi filtrada e seu id. | Não |
Extensões de conclusão
As extensões de conclusão não fazem parte da versão mais recente do GA da especificação de inferência do plano de dados do Azure OpenAI.
Mensagem de bate-papo
O objeto de mensagem de bate-papo não faz parte da versão mais recente do GA da especificação de inferência do plano de dados do Azure OpenAI.
Conversão de texto em voz
Atualmente, não faz parte da versão mais recente do Azure OpenAI GA da especificação de inferência do plano de dados do Azure OpenAI. Consulte a versão de pré-visualização mais recente para esta funcionalidade.
Próximos passos
Saiba mais sobre Modelos e ajuste fino com a API REST. Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.