Partilhar via


Modelos disponíveis na inferência de modelo de IA do Azure

A inferência de modelo de IA do Azure no Azure AI Foundry dá acesso a modelos emblemáticos no Azure AI para consumi-los como APIs sem hospedá-los em sua infraestrutura.

Uma animação mostrando a seção do catálogo de modelos do Azure AI Studio e os modelos disponíveis.

A disponibilidade do modelo varia de acordo com o provedor do modelo, a SKU de implantação e a nuvem. Todos os modelos disponíveis na Inferência de Modelo de IA do Azure dão suporte ao tipo de implantação padrão Global, que usa capacidade global para garantir a taxa de transferência. Os modelos OpenAI do Azure também suportam implementações regionais e nuvens soberanas — Azure Government, Azure Germany e Azure China 21Vianet.

Saiba mais sobre recursos de implantação específicos para o Azure OpenAI em Disponibilidade do Modelo OpenAI do Azure.

Gorjeta

O catálogo de modelos de IA do Azure oferece uma seleção maior de modelos, de uma gama maior de provedores. No entanto, esses modelos podem exigir que você os hospede em sua infraestrutura, incluindo a criação de um hub e projeto de IA. O serviço de modelo de IA do Azure fornece uma maneira de consumir os modelos como APIs sem hospedá-los em sua infraestrutura, com um faturamento pré-pago. Saiba mais sobre o catálogo de modelos de IA do Azure.

Você pode ver todos os modelos disponíveis para você no catálogo de modelos do portal do Azure AI Foundry.

Laboratórios AI21

Os modelos da família Jamba são o modelo de linguagem grande (LLM) baseado em Mamba, de nível de produção do AI21, que usa a arquitetura híbrida Mamba-Transformer do AI21. É uma versão ajustada às instruções do transformador híbrido modelo de espaço de estado estruturado (SSM) modelo Jamba do AI21. Os modelos da família Jamba são construídos para uso comercial confiável em relação à qualidade e desempenho.

Modelo Type Escalão de serviço Capacidades
AI21-Jamba-1.5-Mini conclusão do bate-papo Norma global - Entrada: texto (262.144 tokens)
- Saída: (4.096 tokens)
- Línguas:en, fr, es, pt, de, ar, e he
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
AI21-Jamba-1.5-Grande conclusão do bate-papo Norma global - Entrada: texto (262.144 tokens)
- Saída: (4.096 tokens)
- Línguas:en, fr, es, pt, de, ar, e he
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Azure OpenAI

O Serviço OpenAI do Azure oferece um conjunto diversificado de modelos com diferentes capacidades e preços. Estes modelos incluem:

  • Modelos de última geração projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade
  • Modelos que podem compreender e gerar linguagem natural e código
  • Modelos que podem transcrever e traduzir fala para texto
Modelo Type Escalão de serviço Capacidades
o1 conclusão do bate-papo Norma global - Entrada: texto e imagem (200.000 tokens)
- Saída: texto (100.000 tokens)
- Línguas: , , , , esde, fr, pauriscyswzhelmrthbnkotrarjapllvneukidrue .teafiten
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
O1-Pré-visualização conclusão do bate-papo Norma global
Standard
- Entrada: texto (128.000 tokens)
- Saída: (32.768 tokens)
- Línguas: , , , , esde, fr, pauriscyswzhelmrthbnkotrarjapllvneukidrue .teafiten
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
o1-mini conclusão do bate-papo Norma global
Standard
- Entrada: texto (128.000 tokens)
- Saída: (65.536 tokens)
- Línguas: , , , , esde, fr, pauriscyswzhelmrthbnkotrarjapllvneukidrue .teafiten
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
gpt-4o-visualização em tempo real tempo real Norma global - Entrada: controle, texto e áudio (131.072 tokens)
- Saída: texto e áudio (16.384 tokens)
- Línguas: en
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
GPT-4O conclusão do bate-papo Norma global
Standard
Batch
Aprovisionado
Provisionamento global
Zona de Dados
- Entrada: texto e imagem (131.072 tokens)
- Saída: texto (16.384 tokens)
- Línguas: , , , , esde, fr, pauriscyswzhelmrthbnkotrarjapllvneukidrue .teafiten
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
GPT-4O-Mini conclusão do bate-papo Norma global
Standard
Batch
Aprovisionado
Provisionamento global
Zona de Dados
- Entrada: texto, imagem e áudio (131.072 tokens)
- Saída: (16.384 tokens)
- Línguas: , , , , esde, fr, pauriscyswzhelmrthbnkotrarjapllvneukidrue .teafiten
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON, saídas estruturadas
incorporação de texto-3-grande incorporações Norma global
Standard
Aprovisionado
Provisionamento global
- Entrada: texto (8.191 tokens)
- Saída: Vetor (3.072 dim.)
- Idiomas:en
incorporação de texto-3-pequeno incorporações Norma global
Standard
Aprovisionado
Provisionamento global
- Entrada: texto (8.191 tokens)
- Saída: Vetor (1.536 dim.)
- Idiomas:en

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Cohere

A família de modelos Cohere inclui vários modelos otimizados para diferentes casos de uso, incluindo finalizações e incorporações de chat. Os modelos Cohere são otimizados para vários casos de uso que incluem raciocínio, sumarização e resposta a perguntas.

Modelo Type Escalão de serviço Capacidades
Cohere-embed-v3-inglês incorporações
Incorporação de imagens
Norma global - Entrada: texto (512 tokens)
- Saída: Vetor (1.024 dim.)
- Línguas: en
Cohere-embed-v3-multilíngue incorporações
Incorporação de imagens
Norma global - Entrada: texto (512 tokens)
- Saída: Vetor (1.024 dim.)
- Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
Cohere-comando-r-plus-08-2024 conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-comando-r-08-2024 conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-command-r-plus conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Cohere-command-r conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Core42

O Core42 inclui LLMs bilíngues autorregressivos para árabe ou inglês com recursos de última geração em árabe.

Modelo Type Escalão de serviço Capacidades
jais-30b-bate-papo conclusão do bate-papo Norma global - Entrada: texto (8.192 tokens)
- Saída: (4.096 tokens)
- Línguas: en e ar
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Meta

Os modelos e ferramentas Meta Llama são uma coleção de modelos de raciocínio generativo de texto e imagem de IA pré-treinados e ajustados. A gama de metamodelos é dimensionada para incluir:

  • Modelos de linguagem pequena (SLMs), como modelos Base e Instruir 1B e 3B para inferência no dispositivo e de borda
  • Modelos de linguagem de médio porte grande (LLMs) como modelos 7B, 8B e 70B Base e Instruct
  • Modelos de alto desempenho como o Meta Llama 3.1-405B Instruem para geração de dados sintéticos e casos de uso de destilação.
Modelo Type Escalão de serviço Capacidades
Llama-3.3-70B-Instruir conclusão do bate-papo Norma global - Entrada: texto (128.000 tokens)
- Saída: texto (8.192 tokens)
- Línguas: en, de, fr, it, pt, hi, es, and th
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Llama-3.2-11B-Visão-Instruir conclusão do bate-papo Norma global - Entrada: texto e imagem (128.000 tokens)
- Saída: (8.192 tokens)
- Línguas: en
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Llama-3.2-90B-Visão-Instruir conclusão do bate-papo Norma global - Entrada: texto e imagem (128.000 tokens)
- Saída: (8.192 tokens)
- Línguas: en
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Meta-Llama-3.1-405B-Instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (8.192 tokens)
- Línguas: en, de, fr, it, pt, hi, es, and th
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Meta-Llama-3-8B-Instruir conclusão do bate-papo Norma global - Entrada: texto (8.192 tokens)
- Saída: (8.192 tokens)
- Línguas: en
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Meta-Llama-3.1-70B-Instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (8.192 tokens)
- Línguas: en, de, fr, it, pt, hi, es, and th
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Meta-Llama-3.1-8B-Instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (8.192 tokens)
- Línguas: en, de, fr, it, pt, hi, es, and th
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto
Meta-Llama-3-70B-Instruir conclusão do bate-papo Norma global - Entrada: texto (8.192 tokens)
- Saída: (8.192 tokens)
- Línguas: en
- Chamada de ferramenta: Não*
- Formatos de resposta: Texto

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Microsoft

Phi é uma família de modelos abertos leves e de última geração. Esses modelos foram treinados com conjuntos de dados Phi-3. Os conjuntos de dados incluem dados sintéticos e os dados filtrados e publicamente disponíveis de sites, com foco em propriedades de alta qualidade e raciocínio denso. Os modelos passaram por um rigoroso processo de aprimoramento, incorporando ajuste fino supervisionado, otimização de política proximal e otimização de preferência direta para garantir a aderência precisa das instruções e medidas de segurança robustas.

Modelo Type Escalão de serviço Capacidades
Phi-3-mini-128k-instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-mini-4k-instruir conclusão do bate-papo Norma global - Entrada: texto (4.096 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-small-8k-instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-medium-128k-instruct conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-medium-4k-instruir conclusão do bate-papo Norma global - Entrada: texto (4.096 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-visão-instruir conclusão do bate-papo Norma global - Entrada: texto e imagem (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-MoE-instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: texto (4.096 tokens)
- Línguas: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3-small-128k-instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-3.5-mini-instruir conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr, and uk
- Chamada de ferramenta: Não
- Formatos de resposta: Texto
Phi-4 conclusão do bate-papo Norma global - Entrada: texto (16.384 tokens)
- Saída: (16.384 tokens)
- Línguas: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo, and zh - Chamada de ferramentas: Não
- Formatos de resposta: Texto

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Mistral AI

A Mistral AI oferece duas categorias de modelos: modelos premium, incluindo Mistral Large e Mistral Small, e modelos abertos, incluindo Mistral Nemo.

Modelo Type Escalão de serviço Capacidades
Ministral-3B conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: texto (4.096 tokens)
- Línguas: fr, de, es, it, and en
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-grande conclusão do bate-papo Norma global - Entrada: texto (32.768 tokens)
- Saída: (4.096 tokens)
- Línguas: fr, de, es, it, and en
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-pequeno conclusão do bate-papo Norma global - Entrada: texto (32.768 tokens)
- Saída: texto (4.096 tokens)
- Línguas: fr, de, es, it, and en
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-Nemo conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: texto (4.096 tokens)
- Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-grande-2407 conclusão do bate-papo Norma global - Entrada: texto (131.072 tokens)
- Saída: (4.096 tokens)
- Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Mistral-Grande-2411 conclusão do bate-papo Norma global - Entrada: texto (128.000 tokens)
- Saída: texto (4.096 tokens)
- Línguas: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chamada de ferramenta: Sim
- Formatos de resposta: Texto, JSON
Codestral-2501 conclusão do bate-papo Norma global - Entrada: texto (262.144 tokens)
- Saída: texto (4.096 tokens)
- Línguas: en
- Chamada de ferramenta: Não
- Formatos de resposta: Texto

Consulte esta coleção de modelos no portal do Azure AI Foundry.

Dados NTT

Tsuzumi é um transformador otimizado para linguagem autorregressiva. As versões ajustadas usam ajuste fino supervisionado (SFT). Tsuzumi lida com a língua japonesa e inglesa com alta eficiência.

Modelo Type Escalão de serviço Capacidades
Tsuzumi-7b conclusão do bate-papo Norma global - Entrada: texto (8.192 tokens)
- Saída: texto (8.192 tokens)
- Línguas: en e jp
- Chamada de ferramenta: Não
- Formatos de resposta: Texto

Próximos passos