Modelos do Serviço OpenAI do Azure
O Serviço OpenAI do Azure é alimentado por um conjunto diversificado de modelos com diferentes funcionalidades e pontos de preço. A disponibilidade do modelo varia de acordo com a região e a nuvem. Para obter a disponibilidade do modelo do Azure Governamental, confira o Serviço OpenAI do Azure Governamental.
Modelos | Descrição |
---|---|
o1-preview e o1-mini | Os modelos de acesso limitado foram especificamente desenvolvidos para lidar com tarefas de raciocínio e resolução de problemas com foco e capacidade aumentados. |
GPT-4o e GPT-4o mini e GPT-4 Turbo | Os modelos mais recentes do OpenAI do Azure com versões multimodal que podem aceitar texto e imagens como entrada. |
GPT-4o-Realtime-Preview | Um modelo GPT-4o que dá suporte a interações conversacionais de baixa latência, "fala dentro, fala fora". |
GPT-4 | Um conjunto de modelos que aprimoram o GPT-3.5 e podem entender e gerar código e linguagem natural. |
GPT-3.5 | Um conjunto de modelos que aprimoram o GPT-3 e podem entender e gerar código e linguagem natural. |
Incorporações | Um conjunto de modelos que podem converter texto em um formulário de vetor numérico para facilitar a similaridade de texto. |
DALL-E | Uma série de modelos que podem gerar imagens originais a partir de linguagem natural. |
Whisper | Uma série de modelos em versão prévia que podem transcrever e traduzir uma fala em texto. |
Conversão de texto em fala (versão prévia) | Uma série de modelos em versão prévia que podem sintetizar a conversão de texto em fala. |
acesso limitado aos modelos o1-preview e o1-mini
Os modelos o1-preview
e o1-mini
do OpenAI do Azure foram especificamente desenvolvidos para lidar com tarefas de raciocínio e resolução de problemas com foco e capacidade aumentados. Esses modelos gastam mais tempo processando e entendendo a solicitação do usuário, o que os torna excepcionalmente competentes em áreas como ciência, programação e matemática, em comparação com as iterações anteriores.
ID do Modelo | Descrição | Máx. de solicitações (tokens) | Dados de treinamento (até) |
---|---|---|---|
o1-preview (2024-09-12) |
O modelo mais capaz na série o1, oferecendo habilidades de raciocínio aprimoradas. | Input: 128,000 Saída: 32.768 |
Outubro de 2023 |
o1-mini (2024-09-12) |
Uma opção mais rápida e econômica na série o1, ideal para codificar tarefas que exigem velocidade e menor consumo de recursos. | Input: 128,000 Saída: 65.536 |
Outubro de 2023 |
Disponibilidade
Os modelos o1-preview
e o1-mini
agora estão disponíveis para acesso à API e implantação de modelos. O registro é obrigatório e o acesso será concedido com base nos critérios de elegibilidade da Microsoft.
Solicitar acesso: aplicativo de modelo de acesso limitado
Depois que o acesso for concedido, você precisará criar uma implantação para cada modelo.
Suporte a API
Suporte para os modelos da série o1 foi adicionado na versão da API 2024-09-01-preview
.
O parâmetro max_tokens
foi descontinuado e substituído pelo novo parâmetro max_completion_tokens
. Os modelos da série o1 só funcionarão com o parâmetro max_completion_tokens
.
Uso
Atualmente, esses modelos não oferecem suporte ao mesmo conjunto de parâmetros que outros modelos que usam a API de conclusões de chat. Atualmente, apenas um subconjunto muito limitado é suportado, portanto parâmetros comuns como temperature
, top_p
, não estão disponíveis e incluí-los fará com que sua solicitação falhe. o1-preview
e o1-mini
os modelos também não aceitarão a função de mensagem do sistema como parte da matriz de mensagens.
Talvez seja necessário atualizar sua versão da biblioteca OpenAI Python para aproveitar o novo parâmetro max_completion_tokens
.
pip install openai --upgrade
Se você é novo no uso do Microsoft Entra ID para autenticação, veja Como configurar o Serviço OpenAI do Azure com autenticação do Microsoft Entra ID.
from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider
token_provider = get_bearer_token_provider(
DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)
client = AzureOpenAI(
azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"),
azure_ad_token_provider=token_provider,
api_version="2024-09-01-preview"
)
response = client.chat.completions.create(
model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
messages=[
{"role": "user", "content": "What steps should I think about when writing my first Python API?"},
],
max_completion_tokens = 5000
)
print(response.model_dump_json(indent=2))
Disponibilidade de região
Disponível para implantação padrão e padrão global no Leste dos EUA, Leste dos EUA2, Centro-Norte dos EUA, Centro-Sul dos EUA, Suécia Central, Oeste dos EUA e Oeste dos EUA3 para clientes aprovados.
GPT-4o-Realtime-Preview
O modelo gpt-4o-realtime-preview
faz parte da família de modelos GPT-4o e dá suporte a interações conversacionais de baixa latência, "fala dentro, fala fora". O áudio GPT-4o foi projetado para lidar com interações de conversa em tempo real e de baixa latência, tornando-o um ótimo ajuste para agentes de suporte, assistentes, tradutores e outros casos de uso que precisam de idas e vindas altamente responsivas com um usuário.
O áudio GPT-4o está disponível nas regiões Leste dos EUA 2 (eastus2
) e Central da Suécia (swedencentral
). Para usar o áudio GPT-4o, você precisa criar ou usar um recurso existente em uma das regiões com suporte.
Quando o recurso é criado, você pode implantar o modelo de áudio GPT-4o. Se você estiver executando uma implantação programática, o nome do modelo será gpt-4o-realtime-preview
. Para obter mais informações sobre como usar o áudio GPT-4o, consulte a documentação de áudio GPT-4o.
Detalhes sobre o máximo de tokens de solicitação e dados de treinamento estão disponíveis na tabela a seguir.
ID do Modelo | Descrição | Máx. de solicitações (tokens) | Dados de treinamento (até) |
---|---|---|---|
gpt-4o-realtime-preview (2024-10-01-preview) Áudio GPT-4o |
Modelo de áudio para processamento de áudio em tempo real | Input: 128,000 Output: 4,096 |
Outubro de 2023 |
GPT-4o e GPT-4 Turbo
O GPT-4o integra texto e imagens em um único modelo, permitindo que ele manipule vários tipos de dados simultaneamente. Essa abordagem multimodal melhora a precisão e a capacidade de resposta nas interações entre humanos e computadores. O GPT-4o tem as mesmas tarefas de codificação e texto em inglês que o GPT-4 Turbo, enquanto oferece um desempenho superior em idiomas além do inglês e em tarefas de visão, definindo novos parâmetros de comparação para os recursos de IA.
Como fazer para acessar os modelos do GPT-4o e GPT-4o mini?
O GPT-4o e GPT-4o mini estão disponíveis para implantação de modelo padrão e padrão global.
Você deve criar ou usar um recurso já existente em uma região que seja padrão com suporte ou padrão global, onde o modelo está disponível.
Após a criação do recurso, será possível implantar os modelos do GPT-4o. Se você estiver executando uma implantação programática, os nomes dos modelos serão:
gpt-4o
Versão2024-08-06
gpt-4o
, Versão2024-05-13
gpt-4o-mini
Versão2024-07-18
GPT-4 Turbo
O GPT-4 Turbo é um modelo multimodal grande (aceitando entradas de texto ou imagem e gerando texto) que pode resolver problemas difíceis com maior precisão do que qualquer um dos modelos anteriores do OpenAI. Assim como o GPT-3.5 Turbo e os modelos GPT-4 Turbo mais antigos, o GPT-4 Turbo é otimizado para chat e funciona bem para tarefas de conclusão tradicionais.
A última versão GA do GPT-4 Turbo é:
gpt-4
Versão:turbo-2024-04-09
Essa é a substituição dos seguintes modelos de versão prévia:
gpt-4
Versão:1106-Preview
gpt-4
Versão:0125-Preview
gpt-4
Versão:vision-preview
Diferenças entre os modelos OpenAI e Azure OpenAI GPT-4 Turbo GA
- A versão mais recente do modelo turbo
0409
do OpenAI suporta o modo JSON e chamadas de função para todas as solicitações de inferência. - A versão do OpenAI do Azure do
turbo-2024-04-09
mais recente no momento não dá suporte ao uso do modo JSON e chamadas de função ao fazer solicitações de inferência com entrada de imagem (visão). As solicitações de entrada baseadas em texto (solicitações semimage_url
e imagens embutidas) dão suporte ao modo JSON e à chamada de função.
Diferenças do gpt-4 vision-preview
- A integração de aprimoramentos específicos do IA do Azure Vision com GPT-4 Turbo com Vision não é suportada para
gpt-4
Versão:turbo-2024-04-09
. Isso inclui Reconhecimento Óptico de Caracteres (OCR), ancoragem de objetos, solicitações de vídeo e melhor manuseio dos seus dados com imagens.
Importante
Os recursos de visualização de melhorias de visão, incluindo Reconhecimento Óptico de Caracteres (OCR), fixação de objetos e prompts de vídeo, serão desativados e não estarão mais disponíveis assim que a gpt-4
Versão: vision-preview
for atualizada para turbo-2024-04-09
. Se você estiver dependendo de algum desses recursos de visualização, essa atualização automática do modelo será uma mudança radical.
Disponibilidade gerenciada provisionada do GPT-4 Turbo
gpt-4
Versão:turbo-2024-04-09
está disponível para implantações padrão e provisionadas. Atualmente, a versão provisionada deste modelo não dá suporte a solicitações de inferência de imagem/visão. As implantações provisionadas deste modelo aceitam apenas a entrada de texto. As implantações de modelo Standard aceitam solicitações de inferência de texto e imagem/visão.
Implantar o GPT-4 Turbo com Visão GA
Para implantar o modelo GA na interface do usuário do Estúdio, selecione GPT-4
e escolha a versão turbo-2024-04-09
no menu suspenso. A cota padrão para o modelo gpt-4-turbo-2024-04-09
será a mesma da cota atual para o GPT-4-Turbo. Consulte os limites de cota regional.
GPT-4
O GPT-4 é o antecessor do GPT-4 Turbo. Tanto os modelos GPT-4 quanto os modelos GPT-4 Turbo têm um nome de modelo base de gpt-4
. Você pode distinguir entre os modelos GPT-4 e Turbo examinando a versão do modelo.
gpt-4
Versão0314
gpt-4
Versão0613
gpt-4-32k
Versão0613
Você pode ver o comprimento do contexto do token compatível com cada modelo na tabela de resumo do modelo.
Modelos de GPT-4 e GPT-4 Turbo
- Esses modelos só podem ser usados com a API de Conclusão de Chat.
Consulte as versões de modelo para saber mais sobre como o Serviço OpenAI do Azure lida com atualizações de versão de modelo e trabalhando com modelos, para saber como exibir e definir as configurações de versão do modelo de suas implantações GPT-4.
ID do Modelo | Descrição | Máx. de solicitações (tokens) | Dados de treinamento (até) |
---|---|---|---|
gpt-4o (2024-08-06) GPT-4o (Omni) |
Modelo em GA maior mais recente – Saídas estruturadas - Processamento de imagem, texto – Modo JSON – chamada de função paralela - Precisão e capacidade de resposta aprimoradas - Paridade com o texto em inglês e tarefas de codificação em comparação ao GPT-4 Turbo com o Visão - Desempenho superior em idiomas além do inglês e em tarefas de visão |
Input: 128,000 Saída: 16.384 |
Outubro de 2023 |
gpt-4o-mini (18/07/2024) GPT-4o mini |
Modelo em GA menor mais recente - Modelo rápido, barato e capaz, ideal para substituir modelos da série GPT-3.5 Turbo. - Processamento de imagem, texto – Modo JSON – chamada de função paralela |
Input: 128,000 Saída: 16.384 |
Outubro de 2023 |
gpt-4o (2024-05-13) GPT-4o (Omni) |
– Processamento de imagem, texto – Modo JSON – chamada de função paralela - Precisão e capacidade de resposta aprimoradas - Paridade com o texto em inglês e tarefas de codificação em comparação ao GPT-4 Turbo com o Visão - Desempenho superior em idiomas além do inglês e em tarefas de visão |
Input: 128,000 Output: 4,096 |
Outubro de 2023 |
gpt-4 (turbo-2024-04-09) GPT-4 Turbo com Visão |
Novo modelo em disponibilidade geral - Substituição de todos os modelos de versão prévia do GPT-4 anteriores ( vision-preview , 1106-Preview , ). 0125-Preview Atualmente, a - disponibilidade do recurso é diferente dependendo do método de entrada e do tipo de implantação. |
Input: 128,000 Output: 4,096 |
dez. de 2023 |
gpt-4 (0125-Preview)*Versão prévia do GPT-4 Turbo |
Modelo de versão prévia – Substitui 1106-Preview – Melhor desempenho de geração de código – Reduz casos em que o modelo não conclui uma tarefa – Modo JSON – chamada de função paralela – saída reproduzível (versão prévia) |
Input: 128,000 Output: 4,096 |
dez. de 2023 |
gpt-4 (vision-preview)Versão prévia do GPT-4 Turbo com Visão |
Modelo de versão prévia – Aceita entrada de texto e imagem. – Dá suporte a aprimoramentos – Modo JSON – chamada de função paralela – saída reproduzível (versão prévia) |
Input: 128,000 Output: 4,096 |
Abril de 2023 |
gpt-4 (1106-preview)Versão prévia do GPT-4 Turbo |
Modelo de versão prévia – Modo JSON – chamada de função paralela – saída reproduzível (versão prévia) |
Input: 128,000 Output: 4,096 |
Abril de 2023 |
gpt-4-32k (0613) |
Modelo de GA mais antigo – Chamada de função básica com ferramentas |
32.768 | Setembro de 2021 |
gpt-4 (0613) |
Modelo de GA mais antigo – Chamada de função básica com ferramentas |
8\.192 | Setembro de 2021 |
gpt-4-32k (0314) |
Modelo de GA mais antigo - Informações sobre desativação |
32.768 | Setembro de 2021 |
gpt-4 (0314) |
Modelo de GA mais antigo - Informações sobre desativação |
8\.192 | Setembro de 2021 |
Cuidado
Não recomendamos o uso desses modelos de versão prévia em produção. Atualizaremos todas as implantações de modelos de versão prévia para versões prévias futuras ou para a versão GA mais recente. Os modelos de visualização designados não seguem o ciclo de vida padrão do modelo do Azure OpenAI.
- GPT-4 versão 0125-preview é uma versão atualizada da versão prévia do GPT-4 Turbo lançada anteriormente como versão 1106-preview.
- O GPT-4 versão 0125-preview conclui tarefas como a geração de código mais completamente em comparação com o gpt-4-1106-preview. Por isso, dependendo da tarefa, os clientes podem descobrir que o GPT-4-0125-preview gera mais saída em comparação com o gpt-4-1106-preview. Recomendamos que os clientes comparem as saídas do novo modelo. O GPT-4-0125-preview também aborda bugs no gpt-4-1106-preview com manipulação UTF-8 para idiomas diferentes do inglês.
- A versão GPT-4
turbo-2024-04-09
é a versão GA mais recente e substitui0125-Preview
,1106-preview
evision-preview
.
Importante
As versões GPT-4 (gpt-4
) 1106-Preview
, 0125-Preview
e vision-preview
serão atualizadas com uma versão estável de gpt-4
no futuro.
- As implantações de
gpt-4
versões1106-Preview
,0125-Preview
evision-preview
definidas como "Atualização automática para padrão" e "Atualização quando expirada" começarão a ser atualizadas após o lançamento da versão estável. Para cada implantação, ocorre uma atualização da versão do modelo sem interrupção do serviço para chamadas de API. As atualizações são realizadas por região e espera-se que o processo completo de atualização leve 2 semanas. - As implantações de
gpt-4
versões1106-Preview
,0125-Preview
evision-preview
definidas como "Sem autoupgrade" não serão atualizadas e interromperão a operação quando a versão prévia for atualizada na região. Confira Desativações e preterições do modelo do OpenAI do Azure para obter mais informações sobre o cronograma da atualização.
GPT-3.5
Os modelos GPT-3.5 conseguem entender e gerar linguagem natural ou código. O modelo mais capaz e mais econômico da família GPT-3.5 é o GPT-3.5 Turbo, que foi otimizado para chat e também funciona bem para tarefas de preenchimento tradicionais. O GPT-3.5 Turbo está disponível para uso com a API de Conclusão de Chat. O GPT-3.5 Turbo Instruct tem recursos semelhantes ao text-davinci-003
usando a API de Conclusão em vez da API de Conclusão de Chat. Recomendamos o uso do GPT-3.5 Turbo e do GPT-3.5 Turbo Instruct em vez dos modelos herdados GPT-3.5 e GPT-3.
ID do Modelo | Descrição | Máx. de solicitações (tokens) | Dados de treinamento (até) |
---|---|---|---|
gpt-35-turbo (0125) NOVO |
Modelo GA mais recente – Modo JSON – chamada de função paralela – saída reproduzível (versão prévia) – Maior precisão na resposta nos formatos solicitados. – Correção de um bug que causou um problema de codificação de texto em chamadas de função em idiomas que não o inglês. |
Input: 16,385 Output: 4,096 |
Setembro de 2021 |
gpt-35-turbo (1106) |
Modelo de GA mais antigo – Modo JSON – chamada de função paralela – saída reproduzível (versão prévia) |
Input: 16,385 Output: 4,096 |
Setembro de 2021 |
gpt-35-turbo-instruct (0914) |
Somente ponto de extremidade de conclusão — Substituição de modelos de preenchimento herdados |
4,097 | Setembro de 2021 |
gpt-35-turbo-16k (0613) |
Modelo de GA mais antigo – Chamada de função básica com ferramentas |
16.384 | Setembro de 2021 |
gpt-35-turbo (0613) |
Modelo de GA mais antigo – Chamada de função básica com ferramentas |
4\.096 | Setembro de 2021 |
gpt-35-turbo 1 (0301) |
Modelo de GA mais antigo - Informações sobre desativação |
4\.096 | Setembro de 2021 |
Para saber mais sobre como interagir com o GPT-3.5 Turbo e a API de Preenchimentos de Chat, confira nossas instruções passo a passo aprofundadas.
1 Esse modelo aceitará solicitações > 4.096 tokens. Não é recomendável exceder o limite de 4.096 tokens de entrada, pois a versão mais recente do modelo é limitada a 4.096 tokens. Se você encontrar problemas ao exceder 4.096 tokens de entrada com esse modelo, essa configuração não terá suporte oficial.
Incorporações
text-embedding-3-large
é o modelo de inserção mais recente e mais capaz. A atualização entre modelos de inserções não é possível. Para passar do uso de text-embedding-ada-002
para text-embedding-3-large
, você precisaria gerar novas inserções.
text-embedding-3-large
text-embedding-3-small
text-embedding-ada-002
Em testes, o OpenAI relata que os modelos de inserções de terceira geração grandes e pequenos oferecem melhor desempenho médio de recuperação de vários idiomas com o parâmetro de comparação MIRACL, mantendo ainda o desempenho para tarefas em inglês com o parâmetro de comparação MTEB.
Benchmark de avaliação | text-embedding-ada-002 |
text-embedding-3-small |
text-embedding-3-large |
---|---|---|---|
Média MIRACL | 31,4 | 44,0 | 54.9 |
Média MTEB | 61,0 | 62,3 | 64,6 |
Os modelos de inserções de terceira geração dão suporte à redução do tamanho da inserção por meio de um novo parâmetro dimensions
. Normalmente, inserções maiores são mais caras de uma perspectiva de computação, memória e armazenamento. Ser capaz de ajustar o número de dimensões permite mais controle sobre o custo e o desempenho gerais. Não há suporte para o parâmetro dimensions
em todas as versões da biblioteca OpenAI 1.x Python. Para aproveitar esse parâmetro, recomendamos atualizar para a versão mais recente: pip install openai --upgrade
.
O teste de parâmetro de comparação MTEB da OpenAI constatou que, mesmo quando as dimensões do modelo de terceira geração são reduzidas para menos de 1.536 dimensões de text-embeddings-ada-002
, o desempenho permanece ligeiramente melhor.
DALL-E
Os modelos DALL-E geram imagens a partir de prompts de texto fornecidos pelo usuário. DALL-E 3 está geralmente disponível para uso com APIs REST. DALL-E 2 e DALL-E 3 com SDKs de cliente estão em versão prévia.
Whisper
Os modelos do Whisper podem ser usados para conversão de fala em texto.
Use também o modelo Whisper por meio da API de transcrição em lote da Fala de IA do Azure. ConsulteO que é o modelo Whisper? para saber mais sobre quando usar a Fala de IA do Azure versus o Serviço OpenAI do Azure.
Conversão de texto em fala (versão prévia)
Os modelos de conversão de texto em fala do OpenAI, atualmente em versão prévia, podem ser usado para sintetizar a conversão de texto em fala.
Você também pode usar as vozes da conversão de texto em fala do OpenAI por meio da Fala de IA do Azure. Para saber mais, consulte o guia Vozes da conversão de texto em fala do OpenAI por meio do Serviço OpenAI do Azure ou Fala de IA do Azure.
Tabela de resumo de modelos e disponibilidade por região
Modelos por tipo de implantação
O OpenAI do Azure fornece aos clientes opções sobre a estrutura de hospedagem que se ajusta aos seus padrões de negócios e de uso. O serviço oferece dois tipos principais de implantação:
- O tipo Standard é oferecido com uma opção de implantação global, roteando o tráfego globalmente para fornecer uma taxa de transferência mais alta.
- O tipo Provisionado também é oferecido com uma opção de implantação global, permitindo que os clientes comprem e implantem unidades de produtividade provisionadas em toda a infraestrutura global do Azure.
Todas as implantações podem executar exatamente as mesmas operações de inferência; no entanto, a cobrança, a escala e o desempenho são substancialmente diferentes. Para saber mais sobre os tipos de implantação do OpenAI do Azure, confira nosso guia de tipos de implantação.
- Standard Global
- Provisionado Gerenciado Global
- Lote Global
- Padrão de zona de dados
- Standard
- Provisionado Gerenciado
Disponibilidade de modelo padrão global
Região | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4o-realtime-preview, 2024-10-01 | gpt-4, turbo-2024-04-09 |
---|---|---|---|---|---|---|---|
australiaeast | - | - | ✅ | - | ✅ | - | ✅ |
brazilsouth | - | - | ✅ | - | ✅ | - | ✅ |
canadaeast | - | - | ✅ | - | ✅ | - | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
francecentral | - | - | ✅ | - | ✅ | - | ✅ |
germanywestcentral | - | - | ✅ | - | ✅ | - | ✅ |
japaneast | - | - | ✅ | - | ✅ | - | ✅ |
koreacentral | - | - | ✅ | - | ✅ | - | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
norwayeast | - | - | ✅ | - | ✅ | - | ✅ |
polandcentral | - | - | ✅ | - | ✅ | - | ✅ |
southafricanorth | - | - | ✅ | - | ✅ | - | ✅ |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
southindia | - | - | ✅ | - | ✅ | - | ✅ |
spaincentral | - | - | ✅ | ✅ | ✅ | - | ✅ |
swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ |
switzerlandnorth | - | - | ✅ | - | ✅ | - | ✅ |
uaenorth | - | - | ✅ | - | ✅ | - | ✅ |
uksouth | - | - | ✅ | - | ✅ | - | ✅ |
westeurope | - | - | ✅ | - | ✅ | - | ✅ |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ |
Essa tabela não inclui informações de ajuste fino de disponibilidade regional. Consulte a seção de ajuste fino para obter essas informações.
Modelos Standard por ponto de extremidade
Preenchimentos de chat
Região | o1-preview, 2024-09-12 | o1-mini, 2024-09-12 | gpt-4o, 2024-05-13 | gpt-4o, 2024-08-06 | gpt-4o-mini, 2024-07-18 | gpt-4, 0613 | gpt-4, 1106-Preview | gpt-4, 0125-Preview | gpt-4, vision-preview | gpt-4, turbo-2024-04-09 | gpt-4-32k, 0613 | gpt-35-turbo, 0301 | gpt-35-turbo, 0613 | gpt-35-turbo, 1106 | gpt-35-turbo, 0125 | gpt-35-turbo-16k, 0613 |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
australiaeast | - | - | - | - | - | ✅ | ✅ | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ |
canadaeast | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | - | ✅ | ✅ | ✅ | ✅ |
eastus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | ✅ | - | ✅ | ✅ |
eastus2 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
francecentral | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | - | ✅ |
japaneast | - | - | - | - | - | - | - | - | ✅ | - | - | - | ✅ | - | ✅ | ✅ |
northcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | - | ✅ | - | ✅ | ✅ |
norwayeast | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | - | - | - |
southcentralus | ✅ | ✅ | ✅ | ✅ | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ | - |
southindia | - | - | - | - | - | - | ✅ | - | - | - | - | - | - | ✅ | - | - |
swedencentral | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | ✅ | ✅ | - | ✅ | ✅ | - | ✅ |
switzerlandnorth | - | - | - | - | - | ✅ | - | - | ✅ | - | ✅ | - | ✅ | - | - | ✅ |
uksouth | - | - | - | - | - | - | ✅ | ✅ | - | - | - | ✅ | ✅ | ✅ | ✅ | ✅ |
westeurope | - | - | - | - | - | - | - | - | - | - | - | ✅ | - | - | - | - |
westus | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | ✅ | ✅ | - | - | - | ✅ | ✅ | - |
westus3 | ✅ | ✅ | ✅ | ✅ | ✅ | - | ✅ | - | - | ✅ | - | - | - | - | ✅ | - |
Disponibilidade do modelo GPT-4 e GPT-4 Turbo
Selecione o acesso do cliente
Além das regiões acima que estão disponíveis para todos os clientes do Azure OpenAI, alguns clientes pré-existentes selecionados receberam acesso a versões do GPT-4 in regiões adicionais:
Modelar | Region |
---|---|
gpt-4 (0314) gpt-4-32k (0314) |
Leste dos EUA França Central Centro-Sul dos Estados Unidos Sul do Reino Unido |
gpt-4 (0613) gpt-4-32k (0613) |
Leste dos EUA Leste dos EUA 2 Leste do Japão Sul do Reino Unido |
Modelos GPT-3.5
Consulte versões de modelo para saber mais sobre como o Serviço OpenAI do Azure lida com atualizações de versão de modelo e trabalhando com modelos, para saber como exibir e definir as configurações de versão do modelo de suas implantações do GPT-3.5 Turbo.
Modelos de ajuste fino
Observação
gpt-35-turbo
: o ajuste fino desse modelo é limitado a um subconjunto de regiões e não está disponível em todas as regiões em que o modelo base está.
As regiões compatíveis para o ajuste fino podem variar ao usar modelos do OpenAI do Azure em um projeto do AI Studio ou fora dele.
ID do Modelo | Regiões com ajuste fino | Máx. de solicitações (tokens) | Dados de treinamento (até) |
---|---|---|---|
babbage-002 |
Centro-Norte dos EUA Suécia Central Oeste da Suíça |
16.384 | Setembro de 2021 |
davinci-002 |
Centro-Norte dos EUA Suécia Central Oeste da Suíça |
16.384 | Setembro de 2021 |
gpt-35-turbo (0613) |
Leste dos EUA 2 Centro-Norte dos EUA Suécia Central Oeste da Suíça |
4\.096 | Setembro de 2021 |
gpt-35-turbo (1106) |
Leste dos EUA 2 Centro-Norte dos EUA Suécia Central Oeste da Suíça |
Input: 16,385 Output: 4,096 |
Setembro de 2021 |
gpt-35-turbo (0125) |
Leste dos EUA 2 Centro-Norte dos EUA Suécia Central Oeste da Suíça |
16.385 | Setembro de 2021 |
gpt-4 (0613) 1 |
Centro-Norte dos EUA Suécia Central |
8192 | Setembro de 2021 |
gpt-4o-mini 1 (2024-07-18) |
Centro-Norte dos EUA Suécia Central |
Input: 128,000 Saída: 16.384 Comprimento do contexto do exemplo de treinamento: 64.536 |
Outubro de 2023 |
gpt-4o 1 (2024-08-06) |
Leste dos EUA 2 Centro-Norte dos EUA Suécia Central |
Input: 128,000 Saída: 16.384 Comprimento do contexto do exemplo de treinamento: 64.536 |
Outubro de 2023 |
No momento, 1 GPT-4 está em visualização pública.
Assistentes (versão prévia)
Para Assistentes, você precisa de uma combinação de um modelo com suporte e uma região com suporte. Determinadas ferramentas e funcionalidades exigem os modelos mais recentes. Os modelos a seguir estão disponíveis na API dos Assistentes, no SDK e no Estúdio de IA do Azure. A tabela a seguir é para pagamento conforme o uso. Para obter informações sobre a disponibilidade da unidade de produtividade provisionado (PTU), veja rendimento provisionado. Os modelos e regiões listados podem ser usados com os Assistentes v1 e v2. Você pode usar modelos padrão globais se eles forem compatíveis com as regiões listadas abaixo.
Region | gpt-35-turbo (0613) |
gpt-35-turbo (1106) |
fine tuned gpt-3.5-turbo-0125 |
gpt-4 (0613) |
gpt-4 (1106) |
gpt-4 (0125) |
gpt-4o (2024-05-13) |
gpt-4o-mini (2024-07-18) |
---|---|---|---|---|---|---|---|---|
Leste da Austrália | ✅ | ✅ | ✅ | ✅ | ||||
Leste dos EUA | ✅ | ✅ | ✅ | ✅ | ||||
Leste dos EUA 2 | ✅ | ✅ | ✅ | ✅ | ✅ | |||
França Central | ✅ | ✅ | ✅ | ✅ | ||||
Leste do Japão | ✅ | |||||||
Leste da Noruega | ✅ | |||||||
Suécia Central | ✅ | ✅ | ✅ | ✅ | ✅ | ✅ | ||
Sul do Reino Unido | ✅ | ✅ | ✅ | ✅ | ||||
Oeste dos EUA | ✅ | ✅ | ✅ | |||||
Oeste dos EUA 3 | ✅ | ✅ |
Aposentadoria do modelo
Para obter as informações mais recentes sobre descontinuações modelo, consulte o guia de descontinuação modelo.