Condividi tramite


Servizi di intelligenza artificiale in Fabric (anteprima)

Importante

Questa funzionalità si trova in anteprima.

I servizi di Azure di intelligenza artificiale aiutano a sviluppare applicazioni intelligenti, all'avanguardia, pronte per il mercato e responsabili, rapidamente, con API e modelli predefiniti e personalizzabili. In precedenza denominati Servizi cognitivi di Azure, i Servizi di intelligenza artificiale di Azure consentono anche agli sviluppatori sprovvisti di competenze o conoscenze dirette in intelligenza artificiale o in data science. L'obiettivo di Servizi di Azure AI è aiutare gli sviluppatori a creare applicazioni che possano vedere, sentire, parlare, comprendere e persino iniziare a ragionare.

Fabric offre due opzioni per l'uso dei servizi di intelligenza artificiale di Azure:

  • modelli di intelligenza artificiale predefiniti in Fabric (anteprima)

    Fabric si integra perfettamente con i Servizi di Azure AI, consentendo di arricchire i dati con modelli di intelligenza artificiale predefiniti senza prerequisiti. Questa opzione è consigliata perché è possibile usare l'autenticazione di Fabric per accedere ai servizi di intelligenza artificiale e tutti gli utilizzi vengono fatturati in base alla capacità di Fabric. Questa opzione è attualmente disponibile in anteprima pubblica, con servizi di intelligenza artificiale limitati disponibili.

    Fabric offre Azure OpenAI Service, Analisi del Testoe Azure AI Translator per impostazione predefinita, con supporto sia per SynapseML che per la RESTful API. Per accedere al servizio Servizio OpenAI di Azure in Fabric, puoi anche usare la Libreria Python OpenAI. Per ulteriori informazioni sui modelli disponibili, visita i modelli di intelligenza artificiale preconfezionati in Fabric.

  • Bring Your Own Key (BYOK)

    È possibile effettuare il provisioning dei servizi di intelligenza artificiale su Azure e utilizzare la propria chiave per accedervi da Fabric. Se i modelli di intelligenza artificiale predefiniti non supportano ancora i servizi di intelligenza artificiale desiderati, è comunque possibile usare BYOK (Bring Your Own Key).

    Per maggiori informazioni su come usare i Servizi di Azure AI con BYOK, consulta Servizi di Azure AI in SynapseML con Bring Your Own Key.

Modelli IA predefiniti in Fabric (anteprima)

Nota

I modelli di intelligenza artificiale predefiniti sono attualmente disponibili in anteprima e sono disponibili gratuitamente, con un limite al numero di richieste simultanee per utente. Per i modelli Open AI, il limite è di 20 richieste al minuto per utente.

Servizio OpenAI di Azure

API REST, Python SDK. SynapseML

  • GPT-35-turbo: i modelli GPT-3.5 possono comprendere e generare codice o linguaggio naturale. Il modello più efficiente e conveniente della famiglia GPT-3.5 è GPT-3. L'opzione 5 Turbo, ottimizzata per la chat, funziona bene anche per le attività di completamento tradizionali. Il modello gpt-35-turbo-0125 supporta fino a 16.385 token di input e 4.096 token di output.
  • famiglia gpt-4: gpt-4-32k è supportata.
  • text-embedding-ada-002 (versione 2), modello di incorporamento che può essere usato con le richieste API di incorporamento. Il token di richiesta accettato massimo è 8.191 e il vettore restituito ha dimensioni pari a 1.536.

Analisi del testo

API REST, SynapseML

  • Rilevamento lingua: rileva la lingua del testo di input
  • Analisi del tono emozionale: restituisce un punteggio compreso tra 0 e 1 per indicare il tono emozionale nel testo di input
  • Estrazione parole chiave: identifica i punti chiave nel testo di ingresso
  • Riconoscimento delle entità di Informazioni di Identificazione Personale (PII): identificare, classificare e oscurare le informazioni sensibili nel testo in ingresso.
  • Riconoscimento di entità nominate: identifica le entità note e le entità nominate generali nel testo d'ingresso
  • Collegamento di entità: identifica e disambigua l'identità delle entità trovate nel testo

Traduttore per Azure AI

API REST, SynapseML

  • Traduci: traduce il testo
  • Traslitterazione: converte il testo da una lingua e uno script a un altro script.

Aree disponibili

Aree disponibili per il servizio Azure OpenAI

Per l'elenco delle aree di Azure in cui sono ora disponibili i servizi di intelligenza artificiale predefiniti in Fabric, vedere la sezione Aree disponibili dell'articolo Panoramica di Copilot in Fabric e Power BI (anteprima).

Aree disponibili per Analisi del testo e Azure AI Translator

Le soluzioni predefinite di Analisi del Testo e il traduttore AI di Azure in Fabric sono ora disponibili per l'anteprima pubblica nelle regioni di Azure elencate in questo articolo. Se non si trova l'area principale di Microsoft Fabric in questo articolo, è comunque possibile creare una capacità di Microsoft Fabric in un'area supportata. Per maggiori informazioni, visita per acquistare una sottoscrizione a Microsoft Fabric. Per determinare la tua regione principale di Fabric, visita Trova la tua regione principale di Fabric.

Asia/Pacifico Europa Americhe Medio Oriente e Africa
Australia orientale Europa settentrionale Brasile meridionale Sudafrica settentrionale
Australia sud-orientale Europa occidentale Canada centrale Emirati Arabi Uniti settentrionali
India centrale Francia centrale Canada orientale
Asia orientale Norvegia orientale Stati Uniti orientali
Giappone orientale Svizzera settentrionale Stati Uniti orientali 2
Corea centrale Svizzera occidentale Stati Uniti centro-settentrionali
Asia sud-orientale Regno Unito meridionale Stati Uniti centro-meridionali
India meridionale Regno Unito occidentale Stati Uniti occidentali
West US 2
Stati Uniti occidentali 3

Tasso di consumo

Nota

La fatturazione per i servizi di intelligenza artificiale preconfigurati in Fabric è diventata effettiva il 1° novembre 2024, come parte della capacità di Power BI Premium o di Fabric esistente.

Una richiesta di servizi di intelligenza artificiale preconfigurati consuma le unità di capacità di Fabric. Questa tabella definisce il numero di unità di capacità (CU) utilizzate quando viene usato un servizio di intelligenza artificiale.

Tasso di consumo per i modelli linguistici OpenAI

modelli contesto input (per 1.000 token) output (per 1.000 token)
Distribuzione globale GPT-4o-2024-08-06 128 K 84.03 secondi CU 336,13 secondi CU
GPT-4 32 K 2.016,81 secondi CU 4.033,61 secondi CU
GPT-3.5-Turbo-0125 16.000 16,81 secondi CU 50,42 secondi CU

Frequenza di utilizzo per i modelli di incorporamento OpenAI

modelli Unità di Misura Operativa tasso di consumo
text-embedding-ada-002 1.000 token 3,36 secondi CU

Tasso di consumo per Analisi del testo

operazione Unità di Misura per l'Operazione tasso di consumo
Rilevamento della lingua 1.000 record di testo 33.613,45 secondi CU
Analisi del sentimento 1.000 record di testo 33.613,45 secondi CU
Estrazione frasi chiave 1.000 record di testo 33.613,45 secondi CU
Riconoscimento delle entità delle informazioni di identificazione personale 1 000 record di testo 33.613,45 secondi CU
Riconoscimento di entità nominate 1.000 record di testo 33.613,45 secondi CU
Collegamento di entità 1.000 record di testo 33.613,45 secondi CU
Riepilogo 1.000 record di testo 67.226,89 secondi CU

Tariffa di consumo per Traduzione testuale

operazione Unità di misura operativa tasso di consumo
Traduci 1M caratteri 336.134,45 secondi CU
Traslitterare 1M caratteri 336.134,45 secondi CU

Modifiche ai servizi di intelligenza artificiale nella tariffa a consumo di Fabric

I tassi di consumo sono soggetti a variazioni in qualsiasi momento. Microsoft usa sforzi ragionevoli per fornire comunicazioni tramite posta elettronica o tramite notifica nel prodotto. Le modifiche saranno valide alla data indicata nelle Note sulla versione Microsoft o nel blog di Microsoft Fabric. Se una modifica a un servizio di intelligenza artificiale nella Tariffa di Consumo del Fabric aumenta significativamente le unità di capacità (CU) necessarie per l'uso, i clienti possono utilizzare le opzioni di annullamento disponibili per il metodo di pagamento scelto.

Monitorare l'utilizzo

Il misuratore del carico di lavoro associato all'attività determina i costi per i servizi di intelligenza artificiale preconfigurati in Fabric. Ad esempio, se l'utilizzo del servizio di intelligenza artificiale è derivato da un carico di lavoro Spark, l'utilizzo dell'intelligenza artificiale viene raggruppato e fatturato con il contatore di fatturazione Spark nell'app Fabric Capacity Metrics.

Esempio

Un proprietario di un negozio online usa SynapseML e Spark per classificare milioni di prodotti in categorie pertinenti. Attualmente, il proprietario del negozio applica la logica codificata manualmente per pulire e mappare il "tipo di prodotto" grezzo alle categorie. Tuttavia, il proprietario prevede di passare all'uso dei nuovi endpoint nativi di Fabric OpenAI LLM (Large Language Model). Questo processo iterativo elabora i dati rispetto a un LLM per ogni riga e quindi classifica i prodotti in base al relativo "nome prodotto", "descrizione", "dettagli tecnici" e così via.

Il costo previsto per l'utilizzo di Spark è di 1000 CPU. Il costo previsto per l'utilizzo di OpenAI è di circa 300 CPU.

Per testare la nuova logica, eseguire prima di tutto l'iterazione in un notebook Spark interattivo. Per il nome dell'operazione dell'esecuzione, usare "Notebook Interactive Run". Il proprietario prevede di visualizzare un utilizzo completo di 1300 CU in "Notebook Interactive Run", con il contatore di fatturazione Spark che riflette l'intero utilizzo.

Dopo che il proprietario del negozio convalida la logica, egli configura l'esecuzione regolare e prevede di visualizzare un uso totale di 1300 CUs (unità di calcolo) sotto il nome dell'operazione "Spark Job Scheduled Run", con il misuratore di fatturazione Spark che indica l'intero utilizzo.