Condividi tramite


Che cos'è il servizio di inferenza del modello di intelligenza artificiale di Azure?

Il servizio di inferenza dei modelli di intelligenza artificiale di Azure consente di accedere ai modelli più potenti disponibili nel catalogo dei modelli di intelligenza artificiale di Azure. Provenienti dai principali provider di modelli nel settore, tra cui OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs; questi modelli possono essere integrati con soluzioni software per offrire un'ampia gamma di attività, tra cui generazione di contenuto, riepilogo, comprensione delle immagini, ricerca semantica e generazione di codice.

Il servizio di inferenza del modello di intelligenza artificiale di Azure consente di usare i modelli come API senza ospitarli nell'infrastruttura. I modelli sono ospitati in un'infrastruttura gestita da Microsoft, che consente l'accesso basato su API al modello del provider di modelli. L'accesso basato su API può ridurre sensibilmente i costi di accesso a un modello e semplificare l'esperienza di provisioning.

Modelli

È possibile accedere ai provider di modelli chiave nel settore, tra cui OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. I provider di modelli definiscono le condizioni di licenza e impostano il prezzo per l'utilizzo dei modelli. L'elenco seguente mostra tutti i modelli disponibili:

Provider di modelli Modelli
AI21 Labs - AI21-Jamba-1.5-Mini
- AI21-Jamba-1.5-Large
OpenAI di Azure - o1-preview (Request Access)
- o1-mini (Request Access)
- gpt-4o-mini
- gpt-4o
- text-embedding-3-small
- text-embedding-3-large
Cohere - Cohere-command-r-plus-08-2024
- Cohere-command-r-08-2024
- Cohere-embed-v3-multilingual
- Cohere-embed-v3-english
- Cohere-command-r-plus
- Cohere-command-r
Meta intelligenza artificiale - Meta-Llama-3-8B-Instruct
- Meta-Llama-3-70B-Instruct
- Meta-Llama-3.1-8B-Instruct
- Meta-Llama-3.1-7 0B-Instruct
- Meta-Llama-3.1-405B-Instruct
- Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct
Intelligenza artificiale Mistral - Mistral-Small
- Mistral-Nemo
- Mistral-large
- Mistral-large-2407
Microsoft - Phi-3-mini-4k-instruct
- Phi-3-medium-4k-instruct
- Phi-3-mini-128k-instruct
- Phi-3-medium-128k-instruct
- Phi-3 -small-8k-instruct
- Phi-3-small-128k-instruct
- Phi-3.5-vision-instruct
- Phi-3.5-mini-instruct
- Phi-3.5-MoE-instruct - Phi-3.5-MoE-instruct

È possibile decidere e configurare i modelli disponibili per l'inferenza nella risorsa creata. Quando un determinato modello è configurato, è quindi possibile generare stime da esso indicando il nome del modello o il nome della distribuzione nelle richieste. Non sono necessarie altre modifiche nel codice per usarle.

Per informazioni su come aggiungere modelli alla risorsa di inferenza del modello di intelligenza artificiale di Azure e usarli, vedere Aggiungere e configurare modelli in Modelli di intelligenza artificiale di Azure nell'inferenza del modello di intelligenza artificiale di Azure.

Prezzi

I modelli offerti dai provider non Microsoft (ad esempio, i modelli Meta AI e Mistral) vengono fatturati tramite Azure Marketplace. Per questi modelli, è necessario sottoscrivere l'offerta di modello specifica in conformità alle Condizioni per l'utilizzo del Marketplace commerciale Microsoft. Gli utenti accettano le condizioni di licenza per l'utilizzo dei modelli. Le informazioni sui prezzi per l'utilizzo vengono fornite durante la distribuzione.

I modelli offerti da Microsoft (ad esempio, modelli Phi-3 e modelli OpenAI di Azure) non hanno questo requisito e vengono fatturati tramite i contatori di Azure come Servizi di consumo first party. Come descritto nelle Condizioni per i prodotti, si acquistano i servizi a consumo di prima parte usando i contatori di Azure, ma non sono soggetti alle condizioni del servizio di Azure.

Passaggi successivi