Compartilhar via


Modelos suportados pelo Serviço de Agente de IA do Azure

Os agentes contam com um conjunto diversificado de modelos com diferentes capacidades e faixas de preço. A disponibilidade do modelo varia de acordo com a região e a nuvem. Determinadas ferramentas e funcionalidades exigem os modelos mais recentes. Os seguintes modelos estão disponíveis nos SDKs disponíveis. A tabela a seguir é para pagamento conforme o uso. Para obter informações sobre a disponibilidade da Unidade de unidade de produtividade Provisionada (PTU), veja taxa de transferência provisionada na documentação do Azure OpenAI. Você pode usar modelos padrão globais se eles forem suportados nas regiões listadas aqui.

Modelos do OpenAI do Azure

O Serviço de Agente de IA do Azure oferece suporte aos mesmos modelos que a API de conclusões de chat no Azure OpenAI, nas seguintes regiões.

Região gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - -
eastus - - - -
eastus2 - - - -
francecentral - - - - - -
japaneast - - - - - - - - -
norwayeast - - - - - - - - - - -
southindia - - - - - - - - -
swedencentral - -
uksouth - - - - - -
westus - - - - -
westus3 - - - - - -

Mais modelos

O Serviço de Agente de IA do Azure também oferece suporte aos seguintes modelos do catálogo de modelos do Azure AI Foundry.

  • Meta-Llama-405B-Instruct
  • Mistral-large-2407
  • Cohere-command-r-plus
  • Cohere-command-r

Para usar esses modelos, você pode usar o portal do IA do Azure Foundry para fazer uma implantação e, em seguida, referenciá-la no seu agente.

  1. Acesse o portal do IA do Azure Foundry e selecione Catálogo de modelos no menu de navegação à esquerda e role para baixo até Meta-Llama-3-70B-Instruct. Você também pode encontrar e usar um dos modelos listados anteriormente.

  2. Selecione Implantar.

  3. Na tela Opções de implantação exibida, selecione API sem servidor com IA do Azure Content Safety.

    Uma imagem da tela de seleção do projeto do modelo de lhama.

  4. Selecione seu projeto e então selecione Inscrever-se e implantar.

    Uma imagem da tela de implantação do modelo de lhama.

  5. Adicione a conexão sem servidor ao seu hub/projeto. O nome da implantação escolhido é aquele que você referencia no seu código.

  6. Ao chamar a API de criação do agente, defina o parâmetro models para o nome da sua implantação. Por exemplo:

    agent = project_client.agents.create_agent( model="llama-3", name="my-agent", instructions="You are a helpful agent" ) 
    

Próximas etapas

Criar um novo projeto de agente