Compartilhar via


O que é a inferência de modelo de IA do Azure?

O serviço de inferência de modelo de IA do Azure fornece acesso aos modelos mais avançados disponíveis no catálogo de modelos de IA do Azure. Os modelos vêm dos principais provedores de modelo no setor, incluindo OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. Esses modelos podem ser integrados a soluções de software para fornecer uma ampla variedade de tarefas que incluem geração de conteúdo, resumo, compreensão de imagem, pesquisa semântica e geração de código.

Dica

Para implantar o DeepSeek-R1 ou o OpenAI o3-mini na inferência de modelo da IA do Azure, siga as etapas em Adicionar e configurar modelos.

A inferência de modelo de IA do Azure fornece uma maneira para consumir modelos como APIs sem hospedá-los em sua infraestrutura. Os modelos são hospedados na infraestrutura gerenciada pela Microsoft, o que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar a experiência de provisionamento.

A inferência do modelo de IA do Azure faz parte dos Serviços de IA do Azure e os usuários podem acessar o serviço por meio de APIs REST, SDKs em vários idiomas, como Python, C#, JavaScript e Java. Você também pode usar a inferência de modelo de IA do Azure da Fábrica de IA do Azure configurando uma conexão.

Modelos

Obtenha acesso aos principais provedores de modelos no setor, incluindo OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. Os provedores de modelo definem os termos de licença e definem o preço para o uso de seus modelos. A lista a seguir mostra todos os modelos disponíveis:

Para ver detalhes de cada modelo, incluindo idioma, tipos e funcionalidades, consulte o artigo Modelos.

Provedor Modelos
AI21 Labs - AI21-Jamba-1.5-Mini
- AI21-Jamba-1.5-Large
OpenAI do Azure – o3-mini
– o1
– gpt-4o
– o1-preview
– o1-mini
– gpt-4o-mini
– text-embedding-3-large
– text-embedding-3-small
Cohere – Cohere-embed-v3-english
– Cohere-embed-v3-multilingual
– Cohere-command-r-plus-08-2024
– Cohere-command-r-08-2024
– Cohere-command-r-plus
– Cohere-command-r
Core42 – jais-30b-chat
DeepSeek – DeepSeek-R1
Meta – Llama-3.3-70B-Instruct
– Llama-3.2-11B-Vision-Instruct
– Llama-3.2-90B-Vision-Instruct
– Meta-Llama-3.1-405B-Instruct
– Meta-Llama-3-8B-Instruct
– Meta-Llama-3.1-70B-Instruct
– Meta-Llama-3.1-8B-Instruct
– Meta-Llama-3-70B-Instruct
Microsoft – Phi-3-mini-128k-instruct
– Phi-3-mini-4k-instruct
– Phi-3-small-8k-instruct
– Phi-3-medium-128k-instruct
– Phi-3-medium-4k-instruct
– Phi-3.5-vision-instruct
– Phi-3.5-MoE-instruct
– Phi-3-small-128k-instruct
– Phi-3.5-mini-instruct
– Phi-4
Mistral AI – Ministral-3B
– Mistral-large
– Mistral-small
– Mistral-Nemo
– Mistral-large-2407
– Mistral-Large-2411
– Codestral-2501
Dados de NTT – Tsuzumi-7b

Preços

Para modelos de provedores que não são da Microsoft (por exemplo, modelos da Meta AI e Mistral), a cobrança é feita pelo do Azure Marketplace. Para esses modelos, assine a oferta de modelo específica de acordo com os Termos de Uso do Microsoft Commercial Marketplace. Os usuários aceitam termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.

Para modelos da Microsoft (por exemplo, modelos Phi-3 e modelos do OpenAI do Azure) a cobrança é feita por medidores do Azure como Serviços de Consumo Primário. Conforme descrito nos Termos do Produto, você compra Serviços de Consumo de Primeira Parte usando medidores do Azure, mas eles não estão sujeitos aos termos de serviço do Azure.

Dica

Saiba como monitorar e gerenciar custos na inferência de modelo de IA do Azure.

IA responsável

Na Microsoft, estamos comprometidos com o avanço da IA orientado por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis nos modelos de AI do Azure têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações criteriosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até prejudicial.

A Microsoft ajuda na proteção contra abusos e danos não intencionais, com as ações a seguir:

Introdução

A inferência de modelo de IA do Azure é um novo recurso oferecendo recursos dos Serviços de IA do Azure. Você pode começar a usar isso da mesma maneira que todos os produtos do Azure em que você cria e configura seu recurso para inferência de modelo de IA do Azure ou instância do serviço, na sua Assinatura do Azure. Você pode criar quantos recursos forem necessários e configurá-los de maneira independente caso tenha várias equipes com requisitos diferentes.

Depois de criar um recurso dos Serviços de IA do Azure, você deve implantar um modelo antes de começar a fazer chamadas à API. Por padrão, nenhum modelo está disponível nele, assim é possível controlar de quais começar. Confira o tutorial Criar a primeira implantação de modelo na inferência de modelo de IA do Azure.

Próximas etapas