Partilhar via


O que é a inferência de modelo de IA do Azure?

A inferência de modelo de IA do Azure fornece acesso aos modelos mais poderosos disponíveis no catálogo de modelos de IA do Azure. Os modelos vêm dos principais fornecedores de modelos da indústria, incluindo OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. Esses modelos podem ser integrados com soluções de software para fornecer uma ampla gama de tarefas que incluem geração de conteúdo, sumarização, compreensão de imagens, pesquisa semântica e geração de código.

A inferência de modelo de IA do Azure fornece uma maneira de consumir modelos como APIs sem hospedá-los em sua infraestrutura. Os modelos são hospedados em uma infraestrutura gerenciada pela Microsoft, que permite o acesso baseado em API ao modelo do provedor de modelos. O acesso baseado em API pode reduzir drasticamente o custo de acesso a um modelo e simplificar a experiência de provisionamento.

A inferência de modelo de IA do Azure faz parte dos Serviços de IA do Azure e os usuários podem acessar o serviço por meio de APIs REST, SDKs em várias linguagens , como Python, C#, JavaScript e Java. Você também pode usar a inferência de modelo de IA do Azure do Azure AI Foundry configurando uma conexão.

Modelos

Você pode obter acesso aos principais fornecedores de modelos do setor, incluindo OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. Os fornecedores de modelos definem os termos de licença e definem o preço de utilização dos seus modelos. A lista a seguir mostra todos os modelos disponíveis:

Gorjeta

Consulte o artigo Modelos para obter uma visão detalhada dos modelos, recursos e detalhes.

Provider Modelos
Laboratórios AI21 - AI21-Jamba-1.5-Mini
- AI21-Jamba-1.5-Grande
Azure OpenAI - O1
- GPT-4O
- O1-Pré-visualização
- O1-Mini
- GPT-4O-Mini
- incorporação de texto-3-grande
- incorporação de texto-3-pequeno
Cohere - Cohere-embed-v3-inglês
- Cohere-embed-v3-multilingue
- Cohere-command-r-plus-08-2024
- Cohere-comando-r-08-2024
- Cohere-command-r-plus
- Cohere-command-r
Core42 - Jais-30B-Chat
Meta - Llama-3.3-70B-Instruir
- Llama-3.2-11B-Visão-Instruir
- Llama-3.2-90B-Visão-Instruir
- Meta-Llama-3.1-405B-Instruir
- Meta-Llama-3-8B-Instruir
- Meta-Llama-3.1-70B-Instruir
- Meta-Llama-3.1-8B-Instruir
- Meta-Llama-3-70B-Instruir
Microsoft - Phi-3-mini-128k-instruir
- Phi-3-mini-4k-instruir
- Phi-3-pequeno-8k-instruir
- Phi-3-medium-128k-instruir
- Phi-3-médio-4k-instruir
- Phi-3.5-visão-instruir
- Phi-3.5-MoE-instruir
- Phi-3-pequeno-128k-instruir
- Phi-3.5-mini-instruir
- Phi-4
Mistral AI - Ministral-3B
- Mistral-grande
- Mistral-pequeno
- Mistral-Nemo
- Mistral-grande-2407
- Mistral-Grande-2411
- Codestral-2501
Dados NTT - Tsuzumi-7b

Preços

Para modelos de fornecedores que não são da Microsoft (por exemplo, modelos Meta AI e Mistral), a faturação é feita através do Azure Marketplace. Para esses modelos, é necessário assinar a oferta de modelo específica de acordo com os Termos de Uso do Microsoft Commercial Marketplace. Os usuários aceitam os termos de licença para uso dos modelos. As informações de preços para consumo são fornecidas durante a implantação.

Para modelos Microsoft (por exemplo, modelos Phi-3 e modelos Azure OpenAI), a cobrança é feita por meio de medidores do Azure como Serviços de Consumo de Primeira Parte. Conforme descrito nos Termos do Produto, você compra Serviços de Consumo de Primeira Parte usando medidores do Azure, mas eles não estão sujeitos aos termos de serviço do Azure.

Gorjeta

Saiba como monitorar e gerenciar custos na inferência de modelo de IA do Azure.

IA responsável

Na Microsoft, estamos comprometidos com o avanço da IA impulsionada por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis nos modelos de IA do Azure têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações cuidadosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até mesmo prejudicial.

A Microsoft ajuda a proteger contra abusos e danos não intencionais executando as seguintes ações:

Introdução

A inferência de modelo de IA do Azure é uma nova oferta de recurso nos recursos dos Serviços de IA do Azure. Você pode começar a usá-lo da mesma maneira que qualquer outro produto do Azure onde você cria e configura seu recurso para inferência de modelo de IA do Azure, ou instância do serviço, em sua Assinatura do Azure. Você pode criar quantos recursos forem necessários e configurá-los de forma independente, caso tenha várias equipes com requisitos diferentes.

Depois de criar um recurso dos Serviços de IA do Azure, você deve implantar um modelo antes de começar a fazer chamadas de API. Por padrão, nenhum modelo está disponível nele, então você pode controlar quais começar. Consulte o tutorial Criar sua primeira implantação de modelo na inferência de modelo de IA do Azure.

Próximos passos