Che cos'è l'inferenza del modello di intelligenza artificiale di Azure?
L'inferenza del modello di intelligenza artificiale di Azure consente di accedere ai modelli più potenti disponibili nel catalogo dei modelli di intelligenza artificiale di Azure. I modelli provengono da provider di modelli chiave nel settore, tra cui OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. Questi modelli possono essere integrati con soluzioni software per offrire un'ampia gamma di attività che includono generazione di contenuto, riepilogo, comprensione delle immagini, ricerca semantica e generazione di codice.
Suggerimento
Per distribuire l'inferenza del modello DeepSeek-R1 o OpenAI o3-mini nel modello di intelligenza artificiale di Azure, seguire la procedura descritta in Aggiungere e configurare modelli.
L'inferenza del modello di intelligenza artificiale di Azure consente di usare i modelli come API senza ospitarli nell'infrastruttura. I modelli sono ospitati in un'infrastruttura gestita da Microsoft, che consente l'accesso basato su API al modello del provider di modelli. L'accesso basato su API può ridurre sensibilmente i costi di accesso a un modello e semplificare l'esperienza di provisioning.
L'inferenza del modello di intelligenza artificiale di Azure fa parte di Servizi di intelligenza artificiale di Azure e gli utenti possono accedere al servizio tramite API REST, SDK in diversi linguaggi, ad esempio Python, C#, JavaScript e Java. È anche possibile usare l'inferenza del modello di intelligenza artificiale di Azure da Azure AI Foundry configurando una connessione.
Modelli
È possibile accedere ai provider di modelli chiave nel settore, tra cui OpenAI, Microsoft, Meta, Mistral, Cohere, G42 e AI21 Labs. I provider di modelli definiscono le condizioni di licenza e impostano il prezzo per l'utilizzo dei modelli. L'elenco seguente mostra tutti i modelli disponibili:
Per informazioni dettagliate su ogni modello, tra cui linguaggio, tipi e funzionalità, vedere l'articolo Modelli .
Provider | Modelli |
---|---|
AI21 Labs | - AI21-Jamba-1.5-Mini - AI21-Jamba-1.5-Large |
OpenAI di Azure | - o3-mini - o1 - gpt-4o - o1-preview - o1-mini - gpt-4o-mini - text-embedding-3-large - text-embedding-3-small |
Cohere | - Cohere-embed-v3-english - Cohere-embed-v3-multilingual - Cohere-command-r-plus-08-2024 - Cohere-command-r-08-2024 - Cohere-command-r-plus - Cohere-command-r |
Core42 | - jais-30b-chat |
DeepSeek | - DeepSeek-R1 |
Meta | - Llama-3.3-70B-Instruct - Llama-3.2-11B-Vision-Instruct - Llama-3.2-90B-Vision-Instruct - Meta-Llama-3.1-405B-Instruct - Meta-Llama-3-8B-Instruct - Meta-Llama-3.1-70B-Instruct - Meta-Llama-3.1-8B-Instruct - Meta-Llama-3-70B-Instruct |
Microsoft | - Phi-3-mini-128k-instruct - Phi-3-mini-4k-instruct - Phi-3-small-8k-instruct - Phi-3-medium-128k-instruct - Phi-3-medium-4k-instruct - Phi-3.5-vision-instruct - Phi-3.5-MoE-instruct - Phi-3-small-128k-instruct - Phi-3.5-mini-instruct - Phi-4 |
Intelligenza artificiale mistrale | - Ministral-3B - Mistral-large - Mistral-small - Mistral-Nemo - Mistral-large-2407 - Mistral-Large-2411 - Codestral-2501 |
NTT Data | - Tsuzumi-7b |
Prezzi
Per i modelli di provider non Microsoft (ad esempio, modelli Meta AI e Mistral), la fatturazione avviee tramite Azure Marketplace. Per questi modelli, è necessario sottoscrivere l'offerta di modello specifica in conformità alle Condizioni per l'utilizzo del Marketplace commerciale Microsoft. Gli utenti accettano le condizioni di licenza per l'utilizzo dei modelli. Le informazioni sui prezzi per l'utilizzo vengono fornite durante la distribuzione.
Per i modelli Microsoft (ad esempio, i modelli Phi-3 e i modelli OpenAI di Azure) la fatturazione avviee tramite contatori di Azure come servizi di consumo di prima parte. Come descritto nelle Condizioni per i prodotti, si acquistano i servizi a consumo di prima parte usando i contatori di Azure, ma non sono soggetti alle condizioni del servizio di Azure.
Suggerimento
Informazioni su come monitorare e gestire i costi nell'inferenza del modello di intelligenza artificiale di Azure.
Intelligenza artificiale responsabile
Microsoft si impegna costantemente a migliorare l'IA basandosi su principi che pongano al primo posto le persone. I modelli generativi, ad esempio quelli disponibili nei modelli di intelligenza artificiale di Azure, presentano potenziali vantaggi significativi, ma senza un'attenta progettazione e mitigazioni ponderate, tali modelli hanno il potenziale di generare contenuto errato o persino dannoso.
Microsoft aiuta a proteggersi da abusi e danni imprevisti eseguendo le azioni seguenti:
- Incorporando i principi di Microsoft per l'uso responsabile dell'IA
- Adozione di un codice di comportamento per l'uso del servizio
- Creazione di filtri di contenuto per supportare i clienti
- Fornire informazioni e indicazioni di intelligenza artificiale responsabili che i clienti devono prendere in considerazione quando usano Azure OpenAI.
Introduzione
L'inferenza del modello di intelligenza artificiale di Azure è una nuova offerta di funzionalità per le risorse di Servizi di intelligenza artificiale di Azure. È possibile iniziare a usarlo come qualsiasi altro prodotto Azure in cui si crea e si configura la risorsa per l'inferenza del modello di intelligenza artificiale di Azure o l'istanza del servizio nella sottoscrizione di Azure. È possibile creare tutte le risorse necessarie e configurarle in modo indipendente nel caso in cui si disponga di più team con requisiti diversi.
Dopo aver creato una risorsa di Servizi di intelligenza artificiale di Azure, è necessario distribuire un modello prima di iniziare a effettuare chiamate API. Per impostazione predefinita, non sono disponibili modelli, quindi è possibile controllare da quali iniziare. Vedere l'esercitazione Creare la prima distribuzione del modello nell'inferenza del modello di intelligenza artificiale di Azure.