O que é o Serviço OpenAI do Azure?
O Serviço OpenAI do Azure fornece acesso à API REST aos modelos de linguagem avançados do OpenAI, incluindo o1, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo com Visão, GPT-4, GPT-3.5-Turbo e as séries de modelos Embeddings. Esses modelos podem ser facilmente adaptados à sua tarefa específica, incluindo, entre outros, geração de conteúdo, sumarização, reconhecimento de imagem, pesquisa semântica e tradução de linguagem natural para código. Os usuários podem acessar o serviço por meio de APIs REST, SDK do Python ou no Azure AI Foundry.
Visão geral dos recursos
Recurso | OpenAI do Azure |
---|---|
Modelos disponíveis | o1 e o1-mini – (Acesso limitado – Solicitar acesso) GPT-4o e GPT-4o mini Série GPT-4 (incluindo GPT-4 Turbo com Visão) GPT-3.5-Turbo series Série Incorporações Saiba mais em nossa página Modelos. |
Ajuste fino | GPT-4o-mini (versão prévia) GPT-4 (versão prévia) GPT-3.5-Turbo (0613) babbage-002 davinci-002 . |
Preço | Disponível aqui Para ver detalhes sobre os modelos de chat habilitados para visão, confira as informações de preços especiais. |
Suporte à rede virtual e suporte ao link privado | Sim. |
Identidade Gerenciada | Sim, via ID do Microsoft Entra |
Experiência de interface do usuário | Portal do Azure para gerenciamento de conta e recursos, Azure AI Foundry para exploração e ajuste fino de modelos |
Modelo de disponibilidade regional | Modelo de disponibilidade |
Filtragem de conteúdo | As solicitações e conclusões são avaliadas em relação à nossa política de conteúdo com sistemas automatizados. O conteúdo de alta severidade é filtrado. |
IA responsável
Na Microsoft, estamos comprometidos com o avanço da IA orientado por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis no OpenAI do Azure têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações criteriosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui a incorporação dos princípios de uso responsável de IA da Microsoft, a adoção de um Código de Conduta para uso do serviço, a criação de filtros de conteúdo para dar suporte aos clientes e o fornecimento de informações e diretrizes de IA responsável que os clientes devem considerar ao usar o Azure OpenAI.
Introdução ao Serviço OpenAI do Azure
Para começar a usar o Serviço OpenAI do Azure, você precisa criar um recurso do Serviço OpenAI do Azure em sua assinatura do Azure.
Comece com o guia Criar e implantar um recurso do Serviço OpenAI do Azure.
Você pode criar um recurso por meio do portal do Azure, da CLI do Azure ou do Azure PowerShell.
Quando você tem um recurso do Serviço OpenAI do Azure, pode implantar um modelo como GPT-4o.
Quando você tem um modelo implantado, você pode:
- Experimente os playgrounds no portal do Azure AI Foundry para explorar os recursos dos modelos.
- Você também pode apenas começar a fazer chamadas de API para o serviço usando a API REST ou os SDKs.
Por exemplo, você pode experimentar áudio em tempo real e assistentes nos playgrounds ou por meio de código.
Observação
Um formulário de registro de Acesso Limitado é necessário para acessar alguns modelos ou recursos do Serviço OpenAI do Azure. Saiba mais na página Acesso limitado do OpenAI do Azure.
Comparar o OpenAI do Azure e o OpenAI
O Serviço Azure OpenAI oferece aos clientes IA de linguagem avançada com os modelos OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e conversão de texto para fala com a segurança e a promessa empresarial do Azure. O OpenAI do Azure co-desenvolve as APIs com o OpenAI, garantindo compatibilidade e uma transição uniforme de uma para a outra.
Com o OpenAI do Azure, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos que o OpenAI. O OpenAI do Azure oferece rede privada, disponibilidade regional e filtragem de conteúdo de IA responsável.
Conceitos principais
Solicitações e conclusões
O ponto de extremidade de conclusões é o componente principal do serviço de API. Essa API fornece acesso à interface entrada e saída do modelo. Os usuários precisam apenas fornecer um prompt de inserção contendo o comando de texto em inglês; o modelo irá gerar um preenchimento de texto.
Este é um exemplo de prompt e conclusão simples:
Prompt:
""" count to 5 in a for loop """
Conclusão:
for i in range(1, 6): print(i)
Tokens
Tokens de texto
O OpenAI do Azure processa o texto dividindo-o em tokens. Os tokens podem ser palavras ou apenas partes de caracteres. Por exemplo, a palavra "hambúrguer" é dividida nos tokens "ham", "bur" e "ger", enquanto uma palavra curta e comum como "pera" é um só token. Muitos tokens começam com um espaço, por exemplo, " hello" e " bye".
O número total de tokens processados em uma determinada solicitação depende do comprimento dos parâmetros de entrada, saída e solicitação. A quantidade de tokens sendo processados também afetará a latência de resposta e a taxa de transferência dos modelos.
Tokens de imagem
Os recursos de processamento de imagem do OpenAI do Azure com GPT-4o, GPT-4o mini e GPT-4 Turbo com modelos de Visão usam a geração de tokens de imagem para determinar o número total de tokens consumidos por entradas de imagem. O número de tokens consumidos é calculado com base em dois fatores principais: o nível de detalhes da imagem (baixo ou alto) e as dimensões da imagem. Veja como os custos do token são calculados:
- Modo de baixa resolução
- Poucos detalhes permitem que a API retorne respostas mais rápidas para cenários que não exigem análise de alta resolução de imagem. Os tokens consumidos para imagens com poucos detalhes são:
- GPT-4o e GPT-4 Turbo com Visão: taxa fixa de 85 tokens por imagem, independentemente do tamanho.
- GPT-4o mini: taxa fixa de 2833 tokens por imagem, independentemente do tamanho.
- Exemplo: imagem 4096 x 8192 (poucos detalhes): o custo é de 85 tokens fixos com o GPT-4o, porque é uma imagem de poucos detalhes e o tamanho não afeta o custo nesse modo.
- Poucos detalhes permitem que a API retorne respostas mais rápidas para cenários que não exigem análise de alta resolução de imagem. Os tokens consumidos para imagens com poucos detalhes são:
- Modo de alta resolução
- Poucos detalhes permitem que a API analise imagens com mais detalhes. Os tokens de imagem são calculados com base nas dimensões da imagem. O cálculo envolve as seguintes etapas:
- Redimensionamento de imagem: a imagem é redimensionada para caber dentro de um quadrado de 2048 x 2048 pixels. Se o lado mais curto for maior que 768 pixels, a imagem será redimensionada para que o lado mais curto tenha 768 pixels de comprimento. A taxa de proporção é preservada durante o redimensionamento.
- Cálculo de peça: uma vez redimensionada, a imagem é dividida em peças de 512 x 512 pixels. Todas as peças parciais são arredondados para uma peça completa. O número de peças determina o custo total do token.
- Cálculo de token:
- GPT-4o e GPT-4 Turbo com Visão: cada peça de 512 x 512 pixels custa 170 tokens. 85 tokens base extras são adicionados ao total.
- GPT-4o mini: cada peça de 512 x 512 pixels custa 5.667 tokens. 2.833 tokens base extras são adicionados ao total.
- Exemplo: imagem 2048 x 4096 (muitos detalhes):
- A imagem é inicialmente redimensionada para 1024 x 2048 pixels para caber dentro do quadrado de 2048 x 2048 pixels.
- A imagem é redimensionada para 768 x 1536 pixels para garantir que o lado mais curto tenha no máximo 768 pixels de comprimento.
- A imagem é dividida em 2 x 3 peças, cada um com 512 x 512 pixels.
- Cálculo final:
- Para GPT-4o e GPT-4 Turbo com Visão, o custo total do token é de 6 peças x 170 tokens por peça + 85 tokens base = 1.105 tokens.
- Para GPT-4o mini, o custo total do token é de 6 peças x 5.667 tokens por peça + 2.833 tokens base = 36.835 tokens.
- Poucos detalhes permitem que a API analise imagens com mais detalhes. Os tokens de imagem são calculados com base nas dimensões da imagem. O cálculo envolve as seguintes etapas:
Recursos
O OpenAI do Azure é uma nova oferta de produto no Azure. Você pode começar a usar o OpenAI do Azure assim ao criar um recurso ou uma instância do serviço em sua Assinatura do Azure. Leia mais sobre o design de gerenciamento de recursos do Azure.
Implantações
Depois de criar um recurso do OpenAI do Azure, você precisa implantar um modelo para começar a fazer chamadas à API e gerar texto. Essa ação pode ser feita usando as APIs de Implantação. Essas APIs permitem que você especifique o modelo que deseja usar.
Engenharia de prompt
Os modelos GPT-3, GPT-3.5 e GPT-4 do OpenAI são baseados em prompt. Com modelos baseados em prompt, o usuário interage com o modelo inserindo um prompt de texto, ao qual o modelo responde com um preenchimento de texto. Esse preenchimento é a continuação do texto de entrada do modelo.
Embora esses modelos sejam poderosos, seu comportamento também é sensível ao prompt. Isso faz com que a engenharia de prompt seja uma habilidade importante a ser desenvolvida.
A criação de prompt pode ser complexa. Na prática, o prompt atua para configurar os pesos do modelo para concluir a tarefa desejada. É mais uma arte do que uma ciência, muitas vezes exigindo experiência e intuição para criar um prompt bem-sucedido.
Modelos
O serviço fornece aos usuários acesso a muitos modelos diferentes. Cada modelo fornece uma funcionalidade e um ponto de preço diferentes.
Os modelos DALL-E (alguns em versão prévia; confira modelos) geram imagens a partir de solicitações de texto que o usuário fornece.
Os modelos Whisper podem ser usados para transcrever e traduzir fala em texto.
Os modelos de texto para fala, atualmente em pré-visualização, podem ser usados para sintetizar conversão de texto para fala.
Saiba mais sobre cada modelo em nossa página de conceito de modelos.
Próximas etapas
Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.