Partilhar via


Como implantar modelos do Azure OpenAI com o Azure AI Foundry

Importante

Os itens marcados (visualização) neste artigo estão atualmente em visualização pública. Essa visualização é fornecida sem um contrato de nível de serviço e não a recomendamos para cargas de trabalho de produção. Algumas funcionalidades poderão não ser suportadas ou poderão ter capacidades limitadas. Para obter mais informações, veja Termos Suplementares de Utilização para Pré-visualizações do Microsoft Azure.

Neste artigo, você aprenderá a criar implantações de modelo do Azure OpenAI no portal do Azure AI Foundry.

O Serviço OpenAI do Azure oferece um conjunto diversificado de modelos com diferentes capacidades e preços. Ao implantar modelos do Azure OpenAI no portal do Azure AI Foundry, você pode consumir as implantações, usando o fluxo de prompt ou outra ferramenta. A disponibilidade do modelo varia por região. Para saber mais sobre os detalhes de cada modelo, consulte Modelos do Azure OpenAI Service.

Para modificar e interagir com um modelo do Azure OpenAI no playground do Azure AI Foundry , primeiro você precisa implantar um modelo base do Azure OpenAI em seu projeto. Depois que o modelo for implantado e estiver disponível em seu projeto, você poderá consumir seu ponto de extremidade da API REST como está ou personalizar ainda mais com seus próprios dados e outros componentes (incorporações, índices e muito mais).

Pré-requisitos

  • Uma subscrição do Azure com um método de pagamento válido. As subscrições gratuitas ou de avaliação do Azure não funcionarão. Se você não tiver uma assinatura do Azure, crie uma conta paga do Azure para começar.

  • Um projeto do Azure AI Foundry.

Implantar um modelo OpenAI do Azure a partir do catálogo de modelos

Siga as etapas abaixo para implantar um modelo do Azure OpenAI, como gpt-4o-mini em um ponto de extremidade em tempo real do catálogo de modelos do portal do Azure AI Foundry:

  1. Entre no Azure AI Foundry.
  2. Se ainda não estiver no seu projeto, selecione-o.
  3. Selecione Catálogo de modelos no painel de navegação esquerdo.
  1. No filtro Coleções, selecione Azure OpenAI.

    Uma captura de tela mostrando como filtrar por modelos OpenAI do Azure no catálogo.

  2. Selecione um modelo como gpt-4o-mini na coleção do Azure OpenAI.

  3. Selecione Implantar para abrir a janela de implantação.

  4. Selecione o recurso no qual você deseja implantar o modelo. Se não tiver um recurso, pode criar um.

  5. Especifique o nome da implantação e modifique outras configurações padrão dependendo de suas necessidades.

  6. Selecione Implementar.

  7. Você pousa na página de detalhes da implantação. Selecione Abrir no playground.

  8. Selecione Exibir código para obter exemplos de código que podem ser usados para consumir o modelo implantado em seu aplicativo.

Implantar um modelo OpenAI do Azure a partir do seu projeto

Como alternativa, você pode iniciar a implantação iniciando seu projeto no portal do Azure AI Foundry.

  1. Vá para o seu projeto no portal do Azure AI Foundry.
  2. Na barra lateral esquerda do seu projeto, vá para Meus modelos de ativos>+ pontos de extremidade.
  3. Selecione + Implantar modelo>Implantar modelo base.
  4. No filtro Coleções, selecione Azure OpenAI.
  5. Selecione um modelo como gpt-4o-mini na coleção do Azure OpenAI.
  6. Selecione Confirmar para abrir a janela de implantação.
  7. Especifique o nome da implantação e modifique outras configurações padrão dependendo de suas necessidades.
  8. Selecione Implementar.
  9. Você pousa na página de detalhes da implantação. Selecione Abrir no playground.
  10. Selecione Exibir código para obter exemplos de código que podem ser usados para consumir o modelo implantado em seu aplicativo.

Inferindo o modelo OpenAI do Azure

Para executar a inferência no modelo implantado, você pode usar o playground ou exemplos de código. O playground é uma interface baseada na web que permite interagir com o modelo em tempo real. Você pode usar o playground para testar o modelo com diferentes prompts e ver as respostas do modelo.

Para obter mais exemplos de como consumir o modelo implantado em seu aplicativo, consulte os seguintes inícios rápidos do Azure OpenAI:

Disponibilidade regional e limites de cota de um modelo

Para modelos do Azure OpenAI, a quota predefinida de modelos varia de acordo com o modelo e a região. Alguns modelos podem estar disponíveis apenas em algumas regiões. Para obter mais informações sobre disponibilidade e limites de cota, consulte Cotas e limites do Serviço OpenAI do Azure.

Cota para implantar e inferir um modelo

Para modelos do Azure OpenAI, a implantação e a inferência consomem a cota atribuída à sua assinatura por região, por modelo, em unidades de Tokens por Minuto (TPM). Ao se inscrever no Azure AI Foundry, você recebe uma cota padrão para a maioria dos modelos disponíveis. Em seguida, você atribui o TPM a cada implantação à medida que ela é criada, reduzindo assim a cota disponível para esse modelo na quantidade atribuída. Você pode continuar a criar implantações e atribuir-lhes TPMs até atingir seu limite de cota.

Depois de atingir o limite de cota, a única maneira de criar novas implantações desse modelo é:

Para saber mais sobre a quota, consulte Quota do Azure AI Foundry e Gerir a quota do Serviço OpenAI do Azure.

  • Saiba mais sobre o que pode fazer no Azure AI Foundry
  • Obtenha respostas às perguntas frequentes no artigo de perguntas frequentes sobre a IA do Azure