Servizi di intelligenza artificiale in Fabric (anteprima)
Importante
Questa funzionalità si trova in anteprima.
I servizi di Azure di intelligenza artificiale aiutano a sviluppare applicazioni intelligenti, all'avanguardia, pronte per il mercato e responsabili, rapidamente, con API e modelli predefiniti e personalizzabili. In precedenza denominati Servizi cognitivi di Azure, i Servizi di intelligenza artificiale di Azure consentono anche agli sviluppatori sprovvisti di competenze o conoscenze dirette in intelligenza artificiale o in data science. L'obiettivo di Servizi di Azure AI è aiutare gli sviluppatori a creare applicazioni che possano vedere, sentire, parlare, comprendere e persino iniziare a ragionare.
Fabric offre due opzioni per l'uso dei servizi di intelligenza artificiale di Azure:
modelli di intelligenza artificiale predefiniti in Fabric (anteprima)
Fabric si integra perfettamente con i Servizi di Azure AI, consentendo di arricchire i dati con modelli di intelligenza artificiale predefiniti senza prerequisiti. Questa opzione è consigliata perché è possibile usare l'autenticazione di Fabric per accedere ai servizi di intelligenza artificiale e tutti gli utilizzi vengono fatturati in base alla capacità di Fabric. Questa opzione è attualmente disponibile in anteprima pubblica, con servizi di intelligenza artificiale limitati disponibili.
Fabric offre Azure OpenAI Service, Analisi del Testoe Azure AI Translator per impostazione predefinita, con supporto sia per SynapseML che per la RESTful API. Per accedere al servizio Servizio OpenAI di Azure in Fabric, puoi anche usare la Libreria Python OpenAI. Per ulteriori informazioni sui modelli disponibili, visita i modelli di intelligenza artificiale preconfezionati in Fabric.
Bring Your Own Key (BYOK)
È possibile effettuare il provisioning dei servizi di intelligenza artificiale su Azure e utilizzare la propria chiave per accedervi da Fabric. Se i modelli di intelligenza artificiale predefiniti non supportano ancora i servizi di intelligenza artificiale desiderati, è comunque possibile usare BYOK (Bring Your Own Key).
Per maggiori informazioni su come usare i Servizi di Azure AI con BYOK, consulta Servizi di Azure AI in SynapseML con Bring Your Own Key.
Modelli IA predefiniti in Fabric (anteprima)
Nota
I modelli di intelligenza artificiale predefiniti sono attualmente disponibili in anteprima e sono disponibili gratuitamente, con un limite al numero di richieste simultanee per utente. Per i modelli Open AI, il limite è di 20 richieste al minuto per utente.
Servizio OpenAI di Azure
API REST, Python SDK. SynapseML
- GPT-35-turbo: i modelli GPT-3.5 possono comprendere e generare codice o linguaggio naturale. Il modello più efficiente e conveniente della famiglia GPT-3.5 è GPT-3. L'opzione
5 Turbo
, ottimizzata per la chat, funziona bene anche per le attività di completamento tradizionali. Il modellogpt-35-turbo-0125
supporta fino a 16.385 token di input e 4.096 token di output. - famiglia gpt-4:
gpt-4-32k
è supportata. - text-embedding-ada-002 (versione 2), modello di incorporamento che può essere usato con le richieste API di incorporamento. Il token di richiesta accettato massimo è 8.191 e il vettore restituito ha dimensioni pari a 1.536.
Analisi del testo
- Rilevamento lingua: rileva la lingua del testo di input
- Analisi del tono emozionale: restituisce un punteggio compreso tra 0 e 1 per indicare il tono emozionale nel testo di input
- Estrazione parole chiave: identifica i punti chiave nel testo di ingresso
- Riconoscimento delle entità di Informazioni di Identificazione Personale (PII): identificare, classificare e oscurare le informazioni sensibili nel testo in ingresso.
- Riconoscimento di entità nominate: identifica le entità note e le entità nominate generali nel testo d'ingresso
- Collegamento di entità: identifica e disambigua l'identità delle entità trovate nel testo
Traduttore per Azure AI
- Traduci: traduce il testo
- Traslitterazione: converte il testo da una lingua e uno script a un altro script.
Aree disponibili
Aree disponibili per il servizio Azure OpenAI
Per l'elenco delle aree di Azure in cui sono ora disponibili i servizi di intelligenza artificiale predefiniti in Fabric, vedere la sezione Aree disponibili dell'articolo Panoramica di Copilot in Fabric e Power BI (anteprima).
Aree disponibili per Analisi del testo e Azure AI Translator
Le soluzioni predefinite di Analisi del Testo e il traduttore AI di Azure in Fabric sono ora disponibili per l'anteprima pubblica nelle regioni di Azure elencate in questo articolo. Se non si trova l'area principale di Microsoft Fabric in questo articolo, è comunque possibile creare una capacità di Microsoft Fabric in un'area supportata. Per maggiori informazioni, visita per acquistare una sottoscrizione a Microsoft Fabric. Per determinare la tua regione principale di Fabric, visita Trova la tua regione principale di Fabric.
Asia/Pacifico | Europa | Americhe | Medio Oriente e Africa |
---|---|---|---|
Australia orientale | Europa settentrionale | Brasile meridionale | Sudafrica settentrionale |
Australia sud-orientale | Europa occidentale | Canada centrale | Emirati Arabi Uniti settentrionali |
India centrale | Francia centrale | Canada orientale | |
Asia orientale | Norvegia orientale | Stati Uniti orientali | |
Giappone orientale | Svizzera settentrionale | Stati Uniti orientali 2 | |
Corea centrale | Svizzera occidentale | Stati Uniti centro-settentrionali | |
Asia sud-orientale | Regno Unito meridionale | Stati Uniti centro-meridionali | |
India meridionale | Regno Unito occidentale | Stati Uniti occidentali | |
West US 2 | |||
Stati Uniti occidentali 3 |
Tasso di consumo
Nota
La fatturazione per i servizi di intelligenza artificiale preconfigurati in Fabric è diventata effettiva il 1° novembre 2024, come parte della capacità di Power BI Premium o di Fabric esistente.
Una richiesta di servizi di intelligenza artificiale preconfigurati consuma le unità di capacità di Fabric. Questa tabella definisce il numero di unità di capacità (CU) utilizzate quando viene usato un servizio di intelligenza artificiale.
Tasso di consumo per i modelli linguistici OpenAI
modelli | contesto | input |
output (per 1.000 token) |
---|---|---|---|
Distribuzione globale GPT-4o-2024-08-06 | 128 K | 84.03 secondi CU | 336,13 secondi CU |
GPT-4 | 32 K | 2.016,81 secondi CU | 4.033,61 secondi CU |
GPT-3.5-Turbo-0125 | 16.000 | 16,81 secondi CU | 50,42 secondi CU |
Frequenza di utilizzo per i modelli di incorporamento OpenAI
modelli | Unità di Misura Operativa | tasso di consumo |
---|---|---|
text-embedding-ada-002 | 1.000 token | 3,36 secondi CU |
Tasso di consumo per Analisi del testo
operazione | Unità di Misura per l'Operazione | tasso di consumo |
---|---|---|
Rilevamento della lingua | 1.000 record di testo | 33.613,45 secondi CU |
Analisi del sentimento | 1.000 record di testo | 33.613,45 secondi CU |
Estrazione frasi chiave | 1.000 record di testo | 33.613,45 secondi CU |
Riconoscimento delle entità delle informazioni di identificazione personale | 1 000 record di testo | 33.613,45 secondi CU |
Riconoscimento di entità nominate | 1.000 record di testo | 33.613,45 secondi CU |
Collegamento di entità | 1.000 record di testo | 33.613,45 secondi CU |
Riepilogo | 1.000 record di testo | 67.226,89 secondi CU |
Tariffa di consumo per Traduzione testuale
operazione | Unità di misura operativa | tasso di consumo |
---|---|---|
Traduci | 1M caratteri | 336.134,45 secondi CU |
Traslitterare | 1M caratteri | 336.134,45 secondi CU |
Modifiche ai servizi di intelligenza artificiale nella tariffa a consumo di Fabric
I tassi di consumo sono soggetti a variazioni in qualsiasi momento. Microsoft usa sforzi ragionevoli per fornire comunicazioni tramite posta elettronica o tramite notifica nel prodotto. Le modifiche saranno valide alla data indicata nelle Note sulla versione Microsoft o nel blog di Microsoft Fabric. Se una modifica a un servizio di intelligenza artificiale nella Tariffa di Consumo del Fabric aumenta significativamente le unità di capacità (CU) necessarie per l'uso, i clienti possono utilizzare le opzioni di annullamento disponibili per il metodo di pagamento scelto.
Monitorare l'utilizzo
Il misuratore del carico di lavoro associato all'attività determina i costi per i servizi di intelligenza artificiale preconfigurati in Fabric. Ad esempio, se l'utilizzo del servizio di intelligenza artificiale è derivato da un carico di lavoro Spark, l'utilizzo dell'intelligenza artificiale viene raggruppato e fatturato con il contatore di fatturazione Spark nell'app Fabric Capacity Metrics.
Esempio
Un proprietario di un negozio online usa SynapseML e Spark per classificare milioni di prodotti in categorie pertinenti. Attualmente, il proprietario del negozio applica la logica codificata manualmente per pulire e mappare il "tipo di prodotto" grezzo alle categorie. Tuttavia, il proprietario prevede di passare all'uso dei nuovi endpoint nativi di Fabric OpenAI LLM (Large Language Model). Questo processo iterativo elabora i dati rispetto a un LLM per ogni riga e quindi classifica i prodotti in base al relativo "nome prodotto", "descrizione", "dettagli tecnici" e così via.
Il costo previsto per l'utilizzo di Spark è di 1000 CPU. Il costo previsto per l'utilizzo di OpenAI è di circa 300 CPU.
Per testare la nuova logica, eseguire prima di tutto l'iterazione in un notebook Spark interattivo. Per il nome dell'operazione dell'esecuzione, usare "Notebook Interactive Run". Il proprietario prevede di visualizzare un utilizzo completo di 1300 CU in "Notebook Interactive Run", con il contatore di fatturazione Spark che riflette l'intero utilizzo.
Dopo che il proprietario del negozio convalida la logica, egli configura l'esecuzione regolare e prevede di visualizzare un uso totale di 1300 CUs (unità di calcolo) sotto il nome dell'operazione "Spark Job Scheduled Run", con il misuratore di fatturazione Spark che indica l'intero utilizzo.