Modelos disponíveis na inferência de modelo de IA do Azure
A inferência de modelo de IA do Azure no Azure AI Foundry dá acesso a modelos emblemáticos no Azure AI para consumi-los como APIs sem hospedá-los em sua infraestrutura.
A disponibilidade do modelo varia de acordo com o provedor do modelo, a SKU de implantação e a nuvem. Todos os modelos disponíveis na Inferência de Modelo de IA do Azure dão suporte ao tipo de implantação padrão Global, que usa capacidade global para garantir a taxa de transferência. Os modelos OpenAI do Azure também suportam implementações regionais e nuvens soberanas — Azure Government, Azure Germany e Azure China 21Vianet.
Saiba mais sobre recursos de implantação específicos para o Azure OpenAI em Disponibilidade do Modelo OpenAI do Azure.
Gorjeta
O catálogo de modelos de IA do Azure oferece uma seleção maior de modelos, de uma gama maior de provedores. No entanto, esses modelos podem exigir que você os hospede em sua infraestrutura, incluindo a criação de um hub e projeto de IA. O serviço de modelo de IA do Azure fornece uma maneira de consumir os modelos como APIs sem hospedá-los em sua infraestrutura, com um faturamento pré-pago. Saiba mais sobre o catálogo de modelos de IA do Azure.
Você pode ver todos os modelos disponíveis para você no catálogo de modelos do portal do Azure AI Foundry.
Laboratórios AI21
Os modelos da família Jamba são o modelo de linguagem grande (LLM) baseado em Mamba, de nível de produção do AI21, que usa a arquitetura híbrida Mamba-Transformer do AI21. É uma versão ajustada às instruções do transformador híbrido modelo de espaço de estado estruturado (SSM) modelo Jamba do AI21. Os modelos da família Jamba são construídos para uso comercial confiável em relação à qualidade e desempenho.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
AI21-Jamba-1.5-Mini | conclusão do bate-papo | Norma global |
-
Entrada: texto (262.144 tokens) - Saída: (4.096 tokens) - Línguas: en , fr , es , pt , de , ar , e he - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
AI21-Jamba-1.5-Grande | conclusão do bate-papo | Norma global |
-
Entrada: texto (262.144 tokens) - Saída: (4.096 tokens) - Línguas: en , fr , es , pt , de , ar , e he - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Azure OpenAI
O Serviço OpenAI do Azure oferece um conjunto diversificado de modelos com diferentes capacidades e preços. Estes modelos incluem:
- Modelos de última geração projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade
- Modelos que podem compreender e gerar linguagem natural e código
- Modelos que podem transcrever e traduzir fala para texto
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
o1 | conclusão do bate-papo | Norma global |
-
Entrada: texto e imagem (200.000 tokens) - Saída: texto (100.000 tokens) - Línguas: , , , , es de , fr , pa ur is cy sw zh el mr th bn ko tr ar ja pl lv ne uk id ru e .te af it en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
O1-Pré-visualização | conclusão do bate-papo | Norma global Standard |
-
Entrada: texto (128.000 tokens) - Saída: (32.768 tokens) - Línguas: , , , , es de , fr , pa ur is cy sw zh el mr th bn ko tr ar ja pl lv ne uk id ru e .te af it en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
o1-mini | conclusão do bate-papo | Norma global Standard |
-
Entrada: texto (128.000 tokens) - Saída: (65.536 tokens) - Línguas: , , , , es de , fr , pa ur is cy sw zh el mr th bn ko tr ar ja pl lv ne uk id ru e .te af it en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
gpt-4o-visualização em tempo real | tempo real | Norma global |
-
Entrada: controle, texto e áudio (131.072 tokens) - Saída: texto e áudio (16.384 tokens) - Línguas: en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
GPT-4O | conclusão do bate-papo | Norma global Standard Batch Aprovisionado Provisionamento global Zona de Dados |
-
Entrada: texto e imagem (131.072 tokens) - Saída: texto (16.384 tokens) - Línguas: , , , , es de , fr , pa ur is cy sw zh el mr th bn ko tr ar ja pl lv ne uk id ru e .te af it en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
GPT-4O-Mini | conclusão do bate-papo | Norma global Standard Batch Aprovisionado Provisionamento global Zona de Dados |
-
Entrada: texto, imagem e áudio (131.072 tokens) - Saída: (16.384 tokens) - Línguas: , , , , es de , fr , pa ur is cy sw zh el mr th bn ko tr ar ja pl lv ne uk id ru e .te af it en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON, saídas estruturadas |
incorporação de texto-3-grande | incorporações | Norma global Standard Aprovisionado Provisionamento global |
-
Entrada: texto (8.191 tokens) - Saída: Vetor (3.072 dim.) - Idiomas: en |
incorporação de texto-3-pequeno | incorporações | Norma global Standard Aprovisionado Provisionamento global |
-
Entrada: texto (8.191 tokens) - Saída: Vetor (1.536 dim.) - Idiomas: en |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Cohere
A família de modelos Cohere inclui vários modelos otimizados para diferentes casos de uso, incluindo finalizações e incorporações de chat. Os modelos Cohere são otimizados para vários casos de uso que incluem raciocínio, sumarização e resposta a perguntas.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
Cohere-embed-v3-inglês | incorporações Incorporação de imagens |
Norma global |
-
Entrada: texto (512 tokens) - Saída: Vetor (1.024 dim.) - Línguas: en |
Cohere-embed-v3-multilíngue | incorporações Incorporação de imagens |
Norma global |
-
Entrada: texto (512 tokens) - Saída: Vetor (1.024 dim.) - Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar |
Cohere-comando-r-plus-08-2024 | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-comando-r-08-2024 | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-command-r-plus | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Cohere-command-r | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Core42
O Core42 inclui LLMs bilíngues autorregressivos para árabe ou inglês com recursos de última geração em árabe.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
jais-30b-bate-papo | conclusão do bate-papo | Norma global |
-
Entrada: texto (8.192 tokens) - Saída: (4.096 tokens) - Línguas: en e ar - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Meta
Os modelos e ferramentas Meta Llama são uma coleção de modelos de raciocínio generativo de texto e imagem de IA pré-treinados e ajustados. A gama de metamodelos é dimensionada para incluir:
- Modelos de linguagem pequena (SLMs), como modelos Base e Instruir 1B e 3B para inferência no dispositivo e de borda
- Modelos de linguagem de médio porte grande (LLMs) como modelos 7B, 8B e 70B Base e Instruct
- Modelos de alto desempenho como o Meta Llama 3.1-405B Instruem para geração de dados sintéticos e casos de uso de destilação.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
Llama-3.3-70B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (128.000 tokens) - Saída: texto (8.192 tokens) - Línguas: en, de, fr, it, pt, hi, es, and th - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Llama-3.2-11B-Visão-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto e imagem (128.000 tokens) - Saída: (8.192 tokens) - Línguas: en - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Llama-3.2-90B-Visão-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto e imagem (128.000 tokens) - Saída: (8.192 tokens) - Línguas: en - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Meta-Llama-3.1-405B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (8.192 tokens) - Línguas: en, de, fr, it, pt, hi, es, and th - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Meta-Llama-3-8B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (8.192 tokens) - Saída: (8.192 tokens) - Línguas: en - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Meta-Llama-3.1-70B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (8.192 tokens) - Línguas: en, de, fr, it, pt, hi, es, and th - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Meta-Llama-3.1-8B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (8.192 tokens) - Línguas: en, de, fr, it, pt, hi, es, and th - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Meta-Llama-3-70B-Instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (8.192 tokens) - Saída: (8.192 tokens) - Línguas: en - Chamada de ferramenta: Não* - Formatos de resposta: Texto |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Microsoft
Phi é uma família de modelos abertos leves e de última geração. Esses modelos foram treinados com conjuntos de dados Phi-3. Os conjuntos de dados incluem dados sintéticos e os dados filtrados e publicamente disponíveis de sites, com foco em propriedades de alta qualidade e raciocínio denso. Os modelos passaram por um rigoroso processo de aprimoramento, incorporando ajuste fino supervisionado, otimização de política proximal e otimização de preferência direta para garantir a aderência precisa das instruções e medidas de segurança robustas.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
Phi-3-mini-128k-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-mini-4k-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (4.096 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-small-8k-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-medium-128k-instruct | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-medium-4k-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (4.096 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-visão-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto e imagem (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-MoE-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: texto (4.096 tokens) - Línguas: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3-small-128k-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-3.5-mini-instruir | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Phi-4 | conclusão do bate-papo | Norma global |
-
Entrada: texto (16.384 tokens) - Saída: (16.384 tokens) - Línguas: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo, and zh - Chamada de ferramentas: Não - Formatos de resposta: Texto |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Mistral AI
A Mistral AI oferece duas categorias de modelos: modelos premium, incluindo Mistral Large e Mistral Small, e modelos abertos, incluindo Mistral Nemo.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
Ministral-3B | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: texto (4.096 tokens) - Línguas: fr, de, es, it, and en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-grande | conclusão do bate-papo | Norma global |
-
Entrada: texto (32.768 tokens) - Saída: (4.096 tokens) - Línguas: fr, de, es, it, and en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-pequeno | conclusão do bate-papo | Norma global |
-
Entrada: texto (32.768 tokens) - Saída: texto (4.096 tokens) - Línguas: fr, de, es, it, and en - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-Nemo | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: texto (4.096 tokens) - Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-grande-2407 | conclusão do bate-papo | Norma global |
-
Entrada: texto (131.072 tokens) - Saída: (4.096 tokens) - Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Mistral-Grande-2411 | conclusão do bate-papo | Norma global |
-
Entrada: texto (128.000 tokens) - Saída: texto (4.096 tokens) - Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chamada de ferramenta: Sim - Formatos de resposta: Texto, JSON |
Codestral-2501 | conclusão do bate-papo | Norma global |
-
Entrada: texto (262.144 tokens) - Saída: texto (4.096 tokens) - Línguas: en - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Consulte esta coleção de modelos no portal do Azure AI Foundry.
Dados NTT
Tsuzumi é um transformador otimizado para linguagem autorregressiva. As versões ajustadas usam ajuste fino supervisionado (SFT). Tsuzumi lida com a língua japonesa e inglesa com alta eficiência.
Modelo | Type | Escalão de serviço | Capacidades |
---|---|---|---|
Tsuzumi-7b | conclusão do bate-papo | Norma global |
-
Entrada: texto (8.192 tokens) - Saída: texto (8.192 tokens) - Línguas: en e jp - Chamada de ferramenta: Não - Formatos de resposta: Texto |
Próximos passos
- Comece hoje mesmo e implante seu primeiro modelo nos serviços de IA do Azure