Modelli disponibili nell'inferenza del modello di intelligenza artificiale di Azure
L'inferenza del modello di intelligenza artificiale di Azure in Azure AI Foundry consente di accedere ai modelli di punta nell'intelligenza artificiale di Azure per usarli come API senza ospitarli nell'infrastruttura.
La disponibilità del modello varia in base al provider di modelli, alla SKU di distribuzione e al cloud. Tutti i modelli disponibili nell'inferenza del modello di intelligenza artificiale di Azure supportano il tipo di distribuzione Standard globale che usa la capacità globale per garantire la velocità effettiva. I modelli OpenAI di Azure supportano anche distribuzioni a livello di area e cloud sovrani, Azure per enti pubblici, Azure Germania e Azure Cina 21Vianet.
Per altre informazioni sulle funzionalità di distribuzione specifiche per Azure OpenAI, vedere Disponibilità del modello OpenAI di Azure.
Suggerimento
Il catalogo dei modelli di intelligenza artificiale di Azure offre una selezione più ampia di modelli, da un'ampia gamma di provider. Tuttavia, questi modelli potrebbero richiedere di ospitarli nell'infrastruttura, inclusa la creazione di un hub di intelligenza artificiale e un progetto. Il servizio modello di intelligenza artificiale di Azure consente di usare i modelli come API senza ospitarli nell'infrastruttura, con una fatturazione con pagamento in base al consumo. Altre informazioni sul catalogo dei modelli di intelligenza artificiale di Azure.
È possibile visualizzare tutti i modelli disponibili nel catalogo dei modelli per il portale di Azure AI Foundry.
AI21 Labs
I modelli della famiglia Jamba sono il modello di linguaggio Grande Basato su Mamba (LLM) di livello di produzione di AI21 che usa l'architettura ibrida Mamba-Transformer di AI21. Si tratta di una versione ottimizzata per istruzioni del modello Jamba Transformer SSM (State Space Model) strutturato ibrido di AI21. I modelli della famiglia Jamba sono stati progettati per un uso commerciale affidabile a livello di qualità e prestazioni.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
AI21-Jamba-1.5-Mini | completamento chat | Standard globale |
-
Input: testo (262.144 token) - Output: (4.096 token) - Lingue: en , fr , es pt , de , , ar ehe - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
AI21-Jamba-1.5-Large | completamento chat | Standard globale |
-
Input: testo (262.144 token) - Output: (4.096 token) - Lingue: en , fr , es pt , de , , ar ehe - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
OpenAI di Azure
Il servizio Azure OpenAI offre un set diversificato di modelli con funzionalità e punti di prezzo diversi. Questi modelli includono:
- Modelli all'avanguardia progettati per affrontare le attività di ragionamento e risoluzione dei problemi con maggiore attenzione e capacità
- Modelli che possono comprendere e generare codice e linguaggio naturale
- Modelli che possono trascrivere e tradurre la voce in testo
Modello | Type | Livello | Funzionalità |
---|---|---|---|
o3-mini | completamento chat | Standard globale |
-
Input: testo e immagine (200.000 token) - Output: testo (100.000 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
o1 | completamento chat | Standard globale |
-
Input: testo e immagine (200.000 token) - Output: testo (100.000 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
o1-preview | completamento chat | Standard globale Standard |
-
Input: testo (128.000 token) - Output: (32.768 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
o1-mini | completamento chat | Standard globale Standard |
-
Input: testo (128.000 token) - Output: (65.536 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: No - Formati di risposta: Testo |
gpt-4o-realtime-preview | real-time | Standard globale |
-
Input: controllo, testo e audio (131.072 token) - Output: testo e audio (16.384 token) - Lingue: en - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
gpt-4o | completamento chat | Standard globale Standard Batch Sottoposto a provisioning Con provisioning globale Area dati |
-
Input: testo e immagine (131.072 token) - Output: testo (16.384 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
gpt-4o-mini | completamento chat | Standard globale Standard Batch Sottoposto a provisioning Con provisioning globale Area dati |
-
Input: testo, immagine e audio (131.072 token) - Output: (16.384 token) - Linguaggi: en , it af , es , de , th pl ru id fr uk el sw ja cy tr ko ar is bn zh lv ne pa ur mr e .te - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON, output strutturati |
text-embedding-3-large | embeddings | Standard globale Standard Provisioning eseguito Con provisioning globale |
-
Input: testo (8.191 token) - Output: Vettore (3.072 dim.) - Lingue: en |
text-embedding-3-small | embeddings | Standard globale Standard Provisioning eseguito Con provisioning globale |
-
Input: testo (8.191 token) - Output: vettore (1.536 dim.) - Lingue: en |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
Cohere
La famiglia Cohere di modelli include vari modelli ottimizzati per diversi casi d'uso, inclusi i completamenti delle chat e gli incorporamenti. I modelli Cohere sono ottimizzati per un'ampia gamma di casi d'uso, tra cui motivazione e risposta alla domanda.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
Cohere-embed-v3-english | incorporamenti incorporamenti di immagini |
Standard globale |
-
Input: testo (512 token) - Output: vettore (1.024 dim.) - Lingue: en |
Cohere-embed-v3-multilingual | incorporamenti incorporamenti di immagini |
Standard globale |
-
Input: testo (512 token) - Output: vettore (1.024 dim.) - Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar |
Cohere-command-r-plus-08-2024 | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Cohere-command-r-08-2024 | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Cohere-command-r-plus | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Cohere-command-r | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, fr, es, it, de, pt-br, ja, ko, zh-cn e ar - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
Core42
Core42 include LLM bidirezionali autoregressivi per arabo e inglese con funzionalità all'avanguardia in arabo.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
jais-30b-chat | completamento chat | Standard globale |
-
Input: testo (8.192 token) - Output: (4.096 token) - Lingue: en e ar - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
DeepSeek
La famiglia di modelli DeepSeek include DeepSeek-R1, che eccelle nelle attività di ragionamento usando un processo di training dettagliato, ad esempio linguaggio, ragionamento scientifico e attività di codifica.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
DeekSeek-R1 | completamento chat (con contenuto ragionamento) |
Standard globale |
-
Input: testo (16.384 token) - Output: (163.840 token) - Lingue: en e zh - Chiamata dello strumento: No - Formati di risposta: testo. |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
Meta
I modelli e gli strumenti meta Llama sono una raccolta di modelli di intelligenza artificiale generativi pre-sottoposti a training e ottimizzati per i modelli di ragionamento delle immagini. L'intervallo di modelli meta è scalabile per includere:
- Modelli di linguaggio (SLM) di piccole dimensioni, ad esempio 1B e base 3B e istruire i modelli per l'inferenza di dispositivi e dispositivi perimetrali
- Modelli di linguaggio di medie dimensioni (LLMs) come 7B, 8B e 70B Base e 70B
- Modelli ad alte prestazioni come Meta Llama 3.1-405B Indica per la generazione di dati sintetici e i casi d'uso della duplicazione.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
Llama-3.3-70B-Instruct | completamento chat | Standard globale |
-
Input: testo (128.000 token) - Output: testo (8.192 token) - Lingue: en, de, fr, it, pt, hi, es e th - Chiamata di strumenti: No* - Formati di risposta: Testo |
Llama-3.2-11B-Vision-Instruct | completamento chat | Standard globale |
-
Input: testo e immagine (128.000 token) - Output: (8.192 token) - Lingue: en - Chiamata di strumenti: No* - Formati di risposta: Testo |
Llama-3.2-90B-Vision-Instruct | completamento chat | Standard globale |
-
Input: testo e immagine (128.000 token) - Output: (8.192 token) - Lingue: en - Chiamata di strumenti: No* - Formati di risposta: Testo |
Meta-Llama-3.1-405B-Instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (8.192 token) - Lingue: en, de, fr, it, pt, hi, es e th - Chiamata di strumenti: No* - Formati di risposta: Testo |
Meta-Llama-3-8B-Instruct | completamento chat | Standard globale |
-
Input: testo (8.192 token) - Output: (8.192 token) - Lingue: en - Chiamata di strumenti: No* - Formati di risposta: Testo |
Meta-Llama-3.1-70B-Instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (8.192 token) - Lingue: en, de, fr, it, pt, hi, es e th - Chiamata di strumenti: No* - Formati di risposta: Testo |
Meta-Llama-3.1-8B-Instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (8.192 token) - Lingue: en, de, fr, it, pt, hi, es e th - Chiamata di strumenti: No* - Formati di risposta: Testo |
Meta-Llama-3-70B-Instruct | completamento chat | Standard globale |
-
Input: testo (8.192 token) - Output: (8.192 token) - Lingue: en - Chiamata di strumenti: No* - Formati di risposta: Testo |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
Microsoft
Phi è una famiglia di modelli aperti leggeri e all'avanguardia. Questi modelli sono stati sottoposti a training con set di dati Phi-3. I set di dati includono sia i dati sintetici che i dati dei siti Web filtrati e disponibili pubblicamente, con particolare attenzione alle proprietà di alta qualità e di ragionamento. I modelli sono stati sottoposti a un rigoroso processo di miglioramento, incorporando sia l'ottimizzazione delle preferenze supervisionate che l'ottimizzazione dei criteri prossimali e l'ottimizzazione diretta delle preferenze, per garantire una precisa conformità alle istruzioni e misure di sicurezza solide.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
Phi-3-mini-128k-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3-mini-4k-instruct | completamento chat | Standard globale |
-
Input: testo (4.096 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3-small-8k-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3-medium-128k-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3-medium-4k-instruct | completamento chat | Standard globale |
-
Input: testo (4.096 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3.5-vision-instruct | completamento chat | Standard globale |
-
Input: testo e immagine (131.072 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3.5-MoE-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: testo (4.096 token) - Lingue: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr e uk - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3-small-128k-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-3.5-mini-instruct | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, ar, zh, cs, da, nl, fi, fr, de, he, hu, it, ja, ko, no, pl, pt, ru, es, sv, th, tr e uk - Chiamata dello strumento: No - Formati di risposta: Testo |
Phi-4 | completamento chat | Standard globale |
-
Input: testo (16.384 token) - Output: (16.384 token) - Lingue: en, ar, bn, cs, da, de, el, es, fa, fi, fr, gu, ha, he, hi, hu, id, it, ja, jv, kn, ko, ml, mr, nl, no, or, pa, pl, ps, pt, ro, ru, sv, sw, ta, te, th, tl, tr, uk, your, vi, yo e zh - Tool calling: No - Formati di risposta: Testo |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
Intelligenza artificiale Mistral
L'intelligenza artificiale mistrale offre due categorie di modelli: modelli premium, tra cui Mistral Large e Mistral Small e modelli aperti, tra cui Mistral Nemo.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
Ministral-3B | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: testo (4.096 token) - Lingue: fr, de, es, it e en - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Mistral-large (deprecato) |
completamento chat | Standard globale |
-
Input: testo (32.768 token) - Output: (4.096 token) - Lingue: fr, de, es, it e en - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Mistral-small | completamento chat | Standard globale |
-
Input: testo (32.768 token) - Output: testo (4.096 token) - Lingue: fr, de, es, it e en - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Mistral-Nemo | completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: testo (4.096 token) - Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Mistral-large-2407 (legacy) |
completamento chat | Standard globale |
-
Input: testo (131.072 token) - Output: (4.096 token) - Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Mistral-Large-2411 | completamento chat | Standard globale |
-
Input: testo (128.000 token) - Output: testo (4.096 token) - Lingue: en, fr, de, es, it, zh, ja, ko, pt, nl, and pl - Chiamata dello strumento: Sì - Formati di risposta: Testo, JSON |
Codicitral-2501 | completamento chat | Standard globale |
-
Input: testo (262.144 token) - Output: testo (4.096 token) - Lingue: en - Chiamata dello strumento: No - Formati di risposta: Testo |
Vedere questa raccolta di modelli nel portale di Azure AI Foundry.
NTT Data
Tsuzumi è un trasformatore ottimizzato per il linguaggio autoregressivo. Le versioni ottimizzate usano l'ottimizzazione con supervisione (SFT). Tsuzumi gestisce sia la lingua giapponese che quella inglese con un'elevata efficienza.
Modello | Type | Livello | Funzionalità |
---|---|---|---|
Tsuzumi-7b | completamento chat | Standard globale |
-
Input: testo (8.192 token) - Output: testo (8.192 token) - Lingue: en e jp - Chiamata dello strumento: No - Formati di risposta: Testo |