Condividi tramite


Modelli disponibili nell'inferenza del modello di intelligenza artificiale di Azure

L'inferenza del modello di intelligenza artificiale di Azure in Azure AI Foundry consente di accedere ai modelli di punta nell'intelligenza artificiale di Azure per usarli come API senza ospitarli nell'infrastruttura.

Animazione che mostra la sezione del catalogo dei modelli di Azure AI Studio e i modelli disponibili.

La disponibilità del modello varia in base al provider di modelli, alla SKU di distribuzione e al cloud. Tutti i modelli disponibili nell'inferenza del modello di intelligenza artificiale di Azure supportano il tipo di distribuzione Standard globale che usa la capacità globale per garantire la velocità effettiva. I modelli OpenAI di Azure supportano anche distribuzioni a livello di area e cloud sovrani, Azure per enti pubblici, Azure Germania e Azure Cina 21Vianet.

Per altre informazioni sulle funzionalità di distribuzione specifiche per Azure OpenAI, vedere Disponibilità del modello OpenAI di Azure.

Suggerimento

Il catalogo dei modelli di intelligenza artificiale di Azure offre una selezione più ampia di modelli, da un'ampia gamma di provider. Tuttavia, questi modelli potrebbero richiedere di ospitarli nell'infrastruttura, inclusa la creazione di un hub di intelligenza artificiale e un progetto. Il servizio modello di intelligenza artificiale di Azure consente di usare i modelli come API senza ospitarli nell'infrastruttura, con una fatturazione con pagamento in base al consumo. Altre informazioni sul catalogo dei modelli di intelligenza artificiale di Azure.

È possibile visualizzare tutti i modelli disponibili nel catalogo dei modelli per il portale di Azure AI Foundry.

AI21 Labs

I modelli della famiglia Jamba sono il modello di linguaggio Grande Basato su Mamba (LLM) di livello di produzione di AI21 che usa l'architettura ibrida Mamba-Transformer di AI21. Si tratta di una versione ottimizzata per istruzioni del modello Jamba Transformer SSM (State Space Model) strutturato ibrido di AI21. I modelli della famiglia Jamba sono stati progettati per un uso commerciale affidabile a livello di qualità e prestazioni.

Modello Type Livello Funzionalità
AI21-Jamba-1.5-Mini completamento chat Standard globale - Input: testo (262.144 token)
- Output: (4.096 token)
- Lingue:en, fr, espt, de, , arehe
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
AI21-Jamba-1.5-Large completamento chat Standard globale - Input: testo (262.144 token)
- Output: (4.096 token)
- Lingue:en, fr, espt, de, , arehe
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

OpenAI di Azure

Il servizio Azure OpenAI offre un set diversificato di modelli con funzionalità e punti di prezzo diversi. Questi modelli includono:

  • Modelli all'avanguardia progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e capacità
  • Modelli che possono comprendere e generare codice e linguaggio naturale
  • Modelli che possono trascrivere e tradurre la voce in testo
Modello Type Livello Funzionalità
o3-mini completamento chat Standard globale - Input: testo e immagine (200.000 token)
- Output: testo (100.000 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1 completamento chat Standard globale - Input: testo e immagine (200.000 token)
- Output: testo (100.000 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1-preview completamento chat Standard globale
Standard
- Input: testo (128.000 token)
- Output: (32.768 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
o1-mini completamento chat Standard globale
Standard
- Input: testo (128.000 token)
- Output: (65.536 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento: No
- Formati di risposta: Testo
gpt-4o-realtime-preview real-time Standard globale - Input: controllo, testo e audio (131.072 token)
- Output: testo e audio (16.384 token)
- Lingue: en
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
gpt-4o completamento chat Standard globale
Standard
Batch
Sottoposto a provisioning
Con provisioning globale
Area dati
- Input: testo e immagine (131.072 token)
- Output: testo (16.384 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
gpt-4o-mini completamento chat Standard globale
Standard
Batch
Sottoposto a provisioning
Con provisioning globale
Area dati
- Input: testo, immagine e audio (131.072 token)
- Output: (16.384 token)
- Linguaggi:en, itaf, es, de, thplruidfrukelswjacytrkoarisbnzhlvnepaurmre .te
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON, output strutturati
text-embedding-3-large embeddings Standard globale
Standard
Provisioning eseguito
Con provisioning globale
- Input: testo (8.191 token)
- Output: Vettore (3.072 dim.)
- Lingue:en
text-embedding-3-small embeddings Standard globale
Standard
Provisioning eseguito
Con provisioning globale
- Input: testo (8.191 token)
- Output: vettore (1.536 dim.)
- Lingue:en

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

Cohere

La famiglia Cohere di modelli include vari modelli ottimizzati per diversi casi d'uso, inclusi i completamenti delle chat e gli incorporamenti. I modelli Cohere sono ottimizzati per un'ampia gamma di casi d'uso, tra cui motivazione e risposta alla domanda.

Modello Type Livello Funzionalità
Cohere-embed-v3-english incorporamenti
incorporamenti di immagini
Standard globale - Input: testo (512 token)
- Output: vettore (1.024 dim.)
- Lingue: en
Cohere-embed-v3-multilingual incorporamenti
incorporamenti di immagini
Standard globale - Input: testo (512 token)
- Output: vettore (1.024 dim.)
- Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
Cohere-command-r-plus-08-2024 completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r-08-2024 completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r-plus completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Cohere-command-r completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

Core42

Core42 include LLM bidirezionali autoregressivi per arabo e inglese con funzionalità all'avanguardia in arabo.

Modello Type Livello Funzionalità
jais-30b-chat completamento chat Standard globale - Input: testo (8.192 token)
- Output: (4.096 token)
- Lingue: en e ar
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

DeepSeek

La famiglia di modelli DeepSeek include DeepSeek-R1, che eccelle nelle attività di ragionamento usando un processo di training dettagliato, ad esempio linguaggio, ragionamento scientifico e attività di codifica.

Modello Type Livello Funzionalità
DeekSeek-R1 completamento chat
(con contenuto ragionamento)
Standard globale - Input: testo (16.384 token)
- Output: (163.840 token)
- Lingue:en e zh
- Chiamata dello strumento: No
- Formati di risposta: testo.

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

Meta

I modelli e gli strumenti meta Llama sono una raccolta di modelli di intelligenza artificiale generativi pre-sottoposti a training e ottimizzati per i modelli di ragionamento delle immagini. L'intervallo di modelli meta è scalabile per includere:

  • Modelli di linguaggio (SLM) di piccole dimensioni, ad esempio 1B e base 3B e istruire i modelli per l'inferenza di dispositivi e dispositivi perimetrali
  • Modelli di linguaggio di medie dimensioni (LLMs) come 7B, 8B e 70B Base e 70B
  • Modelli ad alte prestazioni come Meta Llama 3.1-405B Indica per la generazione di dati sintetici e i casi d'uso della duplicazione.
Modello Type Livello Funzionalità
Llama-3.3-70B-Instruct completamento chat Standard globale - Input: testo (128.000 token)
- Output: testo (8.192 token)
- Lingue: en, de, fr, it, pt, hi, es e th
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Llama-3.2-11B-Vision-Instruct completamento chat Standard globale - Input: testo e immagine (128.000 token)
- Output: (8.192 token)
- Lingue: en
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Llama-3.2-90B-Vision-Instruct completamento chat Standard globale - Input: testo e immagine (128.000 token)
- Output: (8.192 token)
- Lingue: en
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Meta-Llama-3.1-405B-Instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (8.192 token)
- Lingue: en, de, fr, it, pt, hi, es e th
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Meta-Llama-3-8B-Instruct completamento chat Standard globale - Input: testo (8.192 token)
- Output: (8.192 token)
- Lingue: en
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Meta-Llama-3.1-70B-Instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (8.192 token)
- Lingue: en, de, fr, it, pt, hi, es e th
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Meta-Llama-3.1-8B-Instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (8.192 token)
- Lingue: en, de, fr, it, pt, hi, es e th
- Chiamata di strumenti: No*
- Formati di risposta: Testo
Meta-Llama-3-70B-Instruct completamento chat Standard globale - Input: testo (8.192 token)
- Output: (8.192 token)
- Lingue: en
- Chiamata di strumenti: No*
- Formati di risposta: Testo

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

Microsoft

Phi è una famiglia di modelli aperti leggeri e all'avanguardia. Questi modelli sono stati sottoposti a training con set di dati Phi-3. I set di dati includono sia i dati sintetici che i dati dei siti Web filtrati e disponibili pubblicamente, con particolare attenzione alle proprietà di alta qualità e di ragionamento. I modelli sono stati sottoposti a un rigoroso processo di miglioramento, incorporando sia l'ottimizzazione delle preferenze supervisionate che l'ottimizzazione dei criteri prossimali e l'ottimizzazione diretta delle preferenze, per garantire una precisa conformità alle istruzioni e misure di sicurezza solide.

Modello Type Livello Funzionalità
Phi-3-mini-128k-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3-mini-4k-instruct completamento chat Standard globale - Input: testo (4.096 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3-small-8k-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3-medium-128k-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3-medium-4k-instruct completamento chat Standard globale - Input: testo (4.096 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3.5-vision-instruct completamento chat Standard globale - Input: testo e immagine (131.072 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3.5-MoE-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Lingue: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr e uk
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3-small-128k-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-3.5-mini-instruct completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr e uk
- Chiamata dello strumento: No
- Formati di risposta: Testo
Phi-4 completamento chat Standard globale - Input: testo (16.384 token)
- Output: (16.384 token)
- Lingue: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo e zh - Tool calling: No
- Formati di risposta: Testo

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

Intelligenza artificiale Mistral

L'intelligenza artificiale mistrale offre due categorie di modelli: modelli premium, tra cui Mistral Large e Mistral Small e modelli aperti, tra cui Mistral Nemo.

Modello Type Livello Funzionalità
Ministral-3B completamento chat Standard globale - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Lingue: fr, de, es, it e en
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-large
(deprecato)
completamento chat Standard globale - Input: testo (32.768 token)
- Output: (4.096 token)
- Lingue: fr, de, es, it e en
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-small completamento chat Standard globale - Input: testo (32.768 token)
- Output: testo (4.096 token)
- Lingue: fr, de, es, it e en
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-Nemo completamento chat Standard globale - Input: testo (131.072 token)
- Output: testo (4.096 token)
- Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-large-2407
(legacy)
completamento chat Standard globale - Input: testo (131.072 token)
- Output: (4.096 token)
- Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Mistral-Large-2411 completamento chat Standard globale - Input: testo (128.000 token)
- Output: testo (4.096 token)
- Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl
- Chiamata dello strumento:
- Formati di risposta: Testo, JSON
Codicitral-2501 completamento chat Standard globale - Input: testo (262.144 token)
- Output: testo (4.096 token)
- Lingue: en
- Chiamata dello strumento: No
- Formati di risposta: Testo

Vedere questa raccolta di modelli nel portale di Azure AI Foundry.

NTT Data

Tsuzumi è un trasformatore ottimizzato per il linguaggio autoregressivo. Le versioni ottimizzate usano l'ottimizzazione con supervisione (SFT). Tsuzumi gestisce sia la lingua giapponese che quella inglese con un'elevata efficienza.

Modello Type Livello Funzionalità
Tsuzumi-7b completamento chat Standard globale - Input: testo (8.192 token)
- Output: testo (8.192 token)
- Lingue: en e jp
- Chiamata dello strumento: No
- Formati di risposta: Testo

Passaggi successivi