Questo carico di lavoro di esempio illustra una soluzione greenfield per la creazione di una piattaforma dati scalabile usando Microsoft Fabric e il paradigma di progettazione lakehouse. Fabric è una piattaforma che integra l'archiviazione, l'elaborazione e l'analisi dei dati. Un greenfield lakehouse offre un inizio pulito per progettare un ecosistema di dati a prova di futuro efficiente.
Architettura
Scaricare un file di Visio di questa architettura.
Flusso di dati
Questa progettazione riflette l'architettura lambda, che separa l'elaborazione dei dati in due livelli:
- Livello di elaborazione batch ad alto volume elaborato periodicamente per l'analisi cronologica
- Livello di elaborazione del flusso a bassa latenza e velocità effettiva elevata per l'analisi in tempo reale
Il percorso di elaborazione del flusso inserisce ed elabora i dati quasi in tempo reale, che lo rende ideale per i dashboard e il rilevamento anomalie. Il percorso di elaborazione batch gestisce il set di dati completo, garantendo la coerenza dei dati e abilitando analisi cronologiche complesse. Questo approccio bidirezionale offre informazioni dettagliate in tempo reale mantenendo un record affidabile per un'esplorazione successiva.
Percorso ad accesso sporadico: Analisi batch
I data warehouse, che si basano sulla semantica SQL relazionale, sono l'approccio convenzionale per l'analisi cronologica dei dati. Tuttavia, questo modello si è evoluto nel tempo e i lakehouse sono lo standard di settore corrente per l'analisi dei dati batch. Una lakehouse si basa su formati di file open source e, a differenza dei data warehouse tradizionali, si rivolge a tutti i tipi di dati: strutturati, semistrutturati e non strutturati. Il livello di calcolo in una lakehouse è in genere basato sul framework Apache Spark, che è il motore preferito per l'elaborazione di Big Data a causa della funzionalità di elaborazione distribuita e delle prestazioni elevate. Fabric offre un'esperienza lakehouse nativa basata sul formato di file Delta Lake open source e su un runtime Spark gestito.
Un'implementazione lakehouse usa in genere l'architettura medallion. In questa architettura, il livello bronzo contiene i dati non elaborati, il livello silver contiene i dati convalidati e deduplicati e il livello oro contiene dati altamente perfezionati adatti per supportare casi d'uso aziendali. Questo approccio funziona in tutte le organizzazioni e i settori. Anche se questo è l'approccio generale, è possibile personalizzarlo per i requisiti. Questa architettura illustra come creare una lakehouse usando componenti nativi di Fabric.
Inserimento dati tramite Data Factory
Vedere il passaggio 1 nel diagramma.
La funzionalità di Azure Data Factory in Fabric offre le funzionalità del servizio Azure Data Factory, un servizio di integrazione dei dati ampiamente usato. Anche se il servizio Data Factory offre principalmente funzionalità di orchestrazione tramite pipeline, la funzionalità in Fabric fornisce sia pipeline che flussi di dati.
- Le pipeline di dati consentono di applicare funzionalità di orchestrazione dei dati predefinite per comporre flussi di lavoro di dati flessibili che soddisfano le esigenze aziendali.
- I flussi di dati consentono di usare più di 300 trasformazioni nella finestra di progettazione dei flussi di dati. È possibile usare queste trasformazioni per trasformare i dati usando un'interfaccia grafica simile a quella di Power Query. Queste trasformazioni includono trasformazioni di dati basate su intelligenza artificiale intelligente. I flussi di dati possono anche scrivere dati in archivi dati nativi in Fabric, ad esempio lakehouse, warehouse, Azure SQL e database Kusto.
A seconda dei requisiti, è possibile usare una o entrambe queste funzionalità per creare un framework di inserimento avanzato basato sui metadati. È possibile eseguire l'onboarding dei dati da vari sistemi di origine in base a una pianificazione definita o usando trigger di eventi.
Trasformazioni di dati
Vedere il passaggio 2 nel diagramma.
Esistono due approcci per la preparazione e la trasformazione dei dati. Se si preferisce un'esperienza code-first, è possibile usare notebook Spark. Se si preferisce un'esperienza con poco codice o senza codice, è possibile usare i flussi di dati.
I notebook di Infrastruttura sono uno strumento importante per lo sviluppo di processi Apache Spark. Forniscono una superficie interattiva basata sul Web usata dai data engineer per scrivere codice. Forniscono anche visualizzazioni avanzate e consentono l'uso del testo Markdown. I data engineer scrivono codice per l'inserimento dei dati, la preparazione dei dati e la trasformazione dei dati. I data scientist usano notebook per creare soluzioni di Machine Learning. Ad esempio, li usano per creare esperimenti e modelli e per tenere traccia e distribuire i modelli.
Ogni area di lavoro in Fabric include un pool di avvio Spark, usato per i processi Spark predefiniti. Con i pool di avvio, è possibile prevedere l'inizializzazione rapida della sessione apache Spark, in genere entro 5-10 secondi, senza alcuna configurazione manuale. È anche possibile personalizzare i pool di Apache Spark in base ai requisiti di progettazione dei dati. È possibile ridimensionare i nodi, la scalabilità automatica e allocare dinamicamente gli executor in base ai requisiti del processo Spark. Per le personalizzazioni del runtime di Spark, è possibile usare gli ambienti. In un ambiente è possibile configurare le proprietà di calcolo, selezionare runtime diversi e configurare le dipendenze dei pacchetti di libreria in base ai requisiti del carico di lavoro.
I flussi di dati consentono di estrarre dati da varie origini, trasformarli usando un'ampia gamma di operazioni e, facoltativamente, caricarli in una destinazione. Tradizionalmente, gli ingegneri dei dati dedicano molto tempo all'estrazione, alla trasformazione e al caricamento dei dati in un formato utilizzabile per l'analisi downstream. Dataflow Gen2 offre un modo semplice e riutilizzabile per eseguire attività di estrazione, trasformazione, caricamento (ETL) usando segnali visivi in Power Query Online. Il flusso di dati mantiene tutti i passaggi di trasformazione. Per eseguire altre attività o caricare dati in una destinazione diversa dopo la trasformazione, creare una pipeline di dati e aggiungere l'attività Dataflow Gen2 all'orchestrazione della pipeline.
Percorso critico: analisi in tempo reale
L'elaborazione dei dati in tempo reale è fondamentale per le aziende che vogliono rimanere agili, prendere decisioni informate rapidamente e sfruttare informazioni immediate per migliorare le operazioni e le esperienze dei clienti. In Infrastruttura questa funzionalità viene fornita dal servizio intelligence in tempo reale. Include diverse funzionalità di Fabric raggruppate e accessibili tramite l'hub in tempo reale. L'hub in tempo reale offre un'unica posizione per lo streaming dei dati in movimento nell'intera organizzazione.
L'intelligence in tempo reale in Fabric consente l'analisi e la visualizzazione dei dati per scenari basati su eventi, dati di streaming e log di dati. Connette i dati basati sul tempo da varie origini usando un catalogo di connettori senza codice e offre una soluzione end-to-end per l'inserimento dei dati, la trasformazione, l'archiviazione, l'analisi, la visualizzazione, il rilevamento, l'intelligenza artificiale e le azioni in tempo reale. Anche se il nome del servizio usa la frase "In tempo reale", i dati non devono essere trasmessi a velocità e volumi elevati. L'intelligence in tempo reale offre soluzioni guidate dagli eventi, anziché basate su pianificazione.
Inserimento in tempo reale
Vedere il passaggio 3 nel diagramma.
Flussi di eventi è una funzionalità di Fabric che consente un metodo senza codice per l'inserimento di eventi in tempo reale da varie origini e l'invio a destinazioni diverse. Consente il filtro dei dati, la trasformazione, l'aggregazione e il routing in base al contenuto. È anche possibile usarlo per creare nuovi flussi da quelli esistenti e condividerli nell'organizzazione usando l'hub in tempo reale. I flussi di eventi supportano più origini dati e destinazioni dati. È possibile usare un'ampia gamma di connettori per origini esterne, ad esempio cluster Apache Kafka, feed change data capture del database, origini di streaming AWS (Parimenti) e Google (GCP Pub/Sub).
Si crea un flusso di eventi, si aggiungono origini dati evento al flusso, facoltativamente si aggiungono trasformazioni per trasformare i dati dell'evento e quindi si instradano i dati alle destinazioni supportate. Fabric lakehouse è una delle destinazioni supportate, in modo da poter trasformare gli eventi in tempo reale prima di inserirli in un lakehouse. Gli eventi in tempo reale vengono convertiti in formato Delta Lake e archiviati nelle tabelle lakehouse designate. Questo modello consente scenari di data warehousing e analisi cronologica dei dati in rapida evoluzione.
Analisi in tempo reale
Vedere il passaggio 4 nel diagramma.
Quando si usa l'intelligenza in tempo reale in Fabric, a seconda dei casi d'uso, esistono due percorsi tipici per lo streaming dei dati: elementi Reflex e case eventi.
Un riflesso è un elemento Fabric che consente di reagire all'occorrenza di una condizione di dati quando si verifica. Tale reazione può essere un semplice messaggio di avviso tramite posta elettronica o Microsoft Teams oppure può comportare la chiamata di un'azione personalizzata attivando un flusso di Power Automate. È anche possibile attivare qualsiasi elemento Fabric dai riflessi. Molti casi d'uso di osservabilità sono supportati dai riflessi, uno dei quali reagisce ai dati di streaming man mano che arriva nei flussi di eventi.
Un eventhouse è una raccolta di uno o più database Linguaggio di query Kusto (KQL). I database KQL vengono progettati per eventi basati sul tempo, in streaming di dati strutturati, semistrutturati e non strutturati. I dati vengono indicizzati e partizionati automaticamente in base al tempo di inserimento, che offre funzionalità di query analitiche veloci e complesse, anche come i flussi di dati in. I dati archiviati nelle case eventi possono essere resi disponibili in OneLake per l'uso da parte di altri processi di Fabric. È possibile eseguire query su questi dati usando varie opzioni di codice, con poco codice o senza codice in Fabric, tra cui KQL nativo e T-SQL nel set di query KQL.
I dashboard in tempo reale sono progettati per fornire informazioni immediate dal flusso di dati nelle case eventi. È possibile aggiungere vari tipi di oggetti visivi a un dashboard, ad esempio grafici e grafici, e personalizzarli in base alle proprie esigenze. I dashboard in tempo reale servono allo scopo specifico di identificare rapidamente tendenze e anomalie nei dati ad alta velocità che arrivano in un evento. Sono diversi dai dashboard di Power BI, adatti per i carichi di lavoro di creazione di report bi aziendali.
Gestione dei dati
Vedere il passaggio 5 nel diagramma.
Sono disponibili varie opzioni con codice ridotto o pro-code per l'utilizzo di dati da lakehouse e eventhouse di Fabric.
Endpoint di Analytics SQL
Un endpoint di analisi SQL viene generato automaticamente per ogni lakehouse in Fabric. Un endpoint di analisi SQL è di sola lettura. Per modificare i dati, è necessario passare alla modalità lakehouse e usare Spark. È possibile usare l'endpoint di analisi SQL direttamente nel portale di Infrastruttura per eseguire query sui dati passando dalla modalità lakehouse alla modalità SQL della lakehouse. In alternativa, è possibile usare il stringa di connessione SQL di un lakehouse per connettersi usando strumenti client come Power BI, Excel e SQL Server Management Studio. Questa opzione è adatta per i dati e gli analisti aziendali in un team di dati.
Notebook Spark
I notebook sono un modo comune per interagire con i dati lakehouse. Fabric offre una superficie interattiva basata sul Web che i data worker possono usare per scrivere codice. Questi ruoli di lavoro possono applicare visualizzazioni avanzate e testo Markdown. I data engineer scrivono codice per l'inserimento dei dati, la preparazione dei dati e la trasformazione dei dati. I data scientist usano notebook per l'esplorazione dei dati, per la creazione di esperimenti e modelli di Machine Learning e per il rilevamento e la distribuzione di modelli. Questa opzione è adatta per data engineer professionisti e data scientist.
Power BI
Ogni lakehouse in Fabric include un modello semantico predefinito predefinito. Viene creato automaticamente quando si configura un lakehouse e si caricano i dati in esso. Questi modelli ereditano la logica di business dal lakehouse per semplificare la creazione di report e dashboard di Power BI direttamente all'interno dell'esperienza lakehouse. È anche possibile creare modelli semantici personalizzati, in base a requisiti aziendali specifici, nelle tabelle lakehouse. Quando si creano report di Power BI in un lakehouse, è possibile usare la modalità Direct Lake, che non richiede l'importazione dei dati separatamente. Questa modalità consente di ottenere prestazioni in memoria sui report senza spostare i dati dal lakehouse.
API personalizzate
Fabric offre una superficie API avanzata tra gli elementi. OneLake offre l'accesso aperto a tutti gli elementi di Fabric tramite le API e gli SDK di Azure Data Lake Storage. È possibile accedere ai dati in OneLake tramite qualsiasi API, SDK o strumento compatibile con Data Lake Storage usando invece un URI OneLake. È possibile caricare dati in un lakehouse usando Archiviazione di Azure Explorer o leggere una tabella delta tramite un collegamento da Azure Databricks. OneLake supporta anche il driver ABFS (Blob Filesystem) di Azure per una maggiore compatibilità con Data Lake Storage e Archiviazione BLOB di Azure. Per usare i dati di streaming nelle app downstream, è possibile eseguire il push dei dati eventstream in un endpoint API personalizzato. È quindi possibile usare questo output di streaming da Fabric usando Hub eventi di Azure o il protocollo AMQP o Kafka.
Power Automate
Power Automate è una piattaforma di applicazioni a basso codice che è possibile usare per automatizzare le attività ripetitive e modificare anche i dati. L'elemento riflesso in Fabric supporta i flussi di Power Automate come destinazione. Questa integrazione sblocca molti casi d'uso e consente di attivare azioni downstream usando un'ampia gamma di connettori, sia per i sistemi Microsoft che per i sistemi non Microsoft.
Componenti
In questa soluzione vengono usati i componenti seguenti.
Infrastruttura: una piattaforma di analisi dei dati end-to-end basata sul cloud progettata per le aziende. Fornisce un ambiente unificato per varie attività di dati, ad esempio l'inserimento, la trasformazione, l'analisi e la visualizzazione dei dati.
OneLake: l'hub centrale per tutti i dati in Fabric. È progettato come data lake aperto, il che significa che può archiviare i dati nel formato nativo, indipendentemente dalla struttura.
Data Factory: un servizio ETL e orchestrazione basato sul cloud per lo spostamento e la trasformazione automatizzati dei dati. Consente di automatizzare lo spostamento e la trasformazione dei dati su larga scala in varie origini dati.
Ingegneria dei dati: strumenti che consentono la raccolta, l'archiviazione, l'elaborazione e l'analisi di grandi volumi di dati.
Data Science: strumenti che consentono di completare flussi di lavoro di data science end-to-end per l'arricchimento dei dati e ottenere informazioni aziendali dettagliate.
Intelligence in tempo reale: servizio che fornisce funzionalità di inserimento ed elaborazione dei flussi. Consente di ottenere informazioni dettagliate dai dati in flusso costante per consentire un processo decisionale più rapido basato su tendenze e anomalie in tempo reale.
Copilot: strumento che è possibile usare per analizzare i dati, generare informazioni dettagliate e creare visualizzazioni e report in Infrastruttura e Power BI usando il linguaggio naturale.
Power BI: strumento di business intelligence per la creazione di dashboard e report interattivi per la visualizzazione dei dati e l'acquisizione di informazioni dettagliate.
Alternative
Fabric offre un set affidabile di strumenti, ma, a seconda delle esigenze specifiche, è possibile sfruttare le funzionalità avanzate offerte dai servizi alternativi nell'ecosistema di Azure.
Azure Databricks può sostituire o integrare le funzionalità native di ingegneria dei dati di Fabric. Azure Databricks offre un'alternativa per l'elaborazione dei dati su larga scala fornendo un ambiente Apache Spark basato sul cloud. Azure Databricks offre anche una governance comune per l'intero patrimonio di dati e funzionalità per abilitare casi d'uso chiave come data science, ingegneria dei dati, Machine Learning, intelligenza artificiale e analisi basata su SQL.
Azure Machine Learning può sostituire o integrare gli strumenti nativi di data science di Fabric. Machine Learning va oltre le funzionalità di sperimentazione e gestione dei modelli in Fabric aggiungendo funzionalità che consentono di ospitare modelli per i casi d'uso di inferenza online, monitorare i modelli per la deriva e creare applicazioni di intelligenza artificiale generative personalizzate.
Dettagli dello scenario
Questa architettura è applicabile agli scenari seguenti:
- Organizzazioni che iniziano senza vincoli di sistema legacy.
- Organizzazioni che prevedono volumi di dati compresi tra 0,5 TB e 1,5 TB.
- Organizzazioni che preferiscono un modello semplice e semplificato che bilancia i costi, la complessità e le considerazioni sulle prestazioni.
- Organizzazioni che necessitano di una piattaforma dati semplice, conveniente e ad alte prestazioni che soddisfa i requisiti di creazione di report, analisi e Machine Learning.
- Organizzazioni che vogliono integrare i dati da più origini per una visualizzazione unificata.
Questa soluzione non è consigliata per:
- Teams con un background di database SQL o relazionale con competenze limitate in Apache Spark.
- Organizzazioni che eseguono la migrazione da un sistema o un data warehouse legacy a una piattaforma moderna.
Considerazioni
Queste considerazioni implementano i pilastri di Azure Well-Architected Framework, che è un set di principi guida che possono essere usati per migliorare la qualità di un carico di lavoro. Per altre informazioni, vedere Microsoft Azure Well-Architected Framework.
Affidabilità
L'affidabilità garantisce che l'applicazione possa soddisfare gli impegni assunti dai clienti. Per maggiori informazioni, consultare la sezione Elenco di controllo per la revisione della progettazione per l'affidabilità.
Fabric replica automaticamente le risorse tra zone di disponibilità senza richiedere alcuna configurazione. Ad esempio, durante un'interruzione a livello di zona, non è necessaria alcuna azione per ripristinare una zona. In Aree supportate, Fabric può guarire e ribilanciare automaticamente per sfruttare una zona integra.
Sicurezza
La sicurezza offre garanzie contro attacchi intenzionali e l'abuso di dati e sistemi preziosi. Per maggiori informazioni, consultare la sezione Elenco di controllo per la revisione della progettazione per la sicurezza.
È possibile usare Fabric per gestire, controllare e controllare le impostazioni di sicurezza in base alle esigenze e alle esigenze mutevoli. Le raccomandazioni chiave per la sicurezza per l'uso di Fabric includono:
Autenticazione. Configurare l'accesso Single Sign-On (SSO) in Microsoft Entra ID per fornire l'accesso da vari dispositivi e posizioni.
Controllo degli accessi in base al ruolo. Implementare il controllo degli accessi in base all'area di lavoro per gestire chi può accedere e interagire con set di dati specifici.
Sicurezza di rete. Usare i controlli di sicurezza di rete in ingresso e in uscita di Fabric quando ci si connette a dati o servizi all'interno o all'esterno della rete. Le funzionalità principali includono l'accesso condizionale, i collegamenti privati, l'accesso all'area di lavoro attendibile e gli endpoint privati gestiti.
Log di controllo. Usare i log di controllo dettagliati forniti da Fabric per tenere traccia delle attività degli utenti e garantire la responsabilità in tutta la piattaforma.
Per altre informazioni, vedere Che cos'è Microsoft Fabric.
Ottimizzazione dei costi
L'ottimizzazione dei costi consiste nell'esaminare i modi per ridurre le spese non necessarie e migliorare l'efficienza operativa. Per altre informazioni, vedere Elenco di controllo per la revisione della progettazione per l'ottimizzazione dei costi.
Fabric offre prenotazioni di capacità per un determinato numero di unità di capacità (CU). Le prenotazioni di capacità consentono di risparmiare sui costi quando si esegue il commit in una prenotazione per l'utilizzo della capacità di Fabric per un anno.
Per massimizzare l'utilizzo della capacità di Fabric, prendere in considerazione le raccomandazioni seguenti:
- Diritti degli SKU F. Per determinare le dimensioni corrette della capacità, è possibile effettuare il provisioning delle capacità di valutazione o degli SKU F con pagamento in base al consumo per misurare le dimensioni effettive della capacità necessarie prima di acquistare un'istanza riservata dello SKU F. È consigliabile eseguire un modello di verifica con ambito con un carico di lavoro rappresentativo, monitorare l'utilizzo del CU e quindi estrapolare per ottenere una stima dell'utilizzo del cu per la produzione. L'infrastruttura offre scalabilità senza problemi. È possibile iniziare con una capacità conservativa e aumentare le prestazioni se è necessaria una maggiore capacità.
- Monitorare i modelli di utilizzo. Tenere traccia e analizzare regolarmente l'utilizzo per identificare le ore di picco e di minore attività. In questo modo è possibile comprendere quando le risorse vengono usate maggiormente in modo da poter pianificare attività non critiche durante i periodi di minore attività per evitare picchi di utilizzo del cu.
- Ottimizzare query e carichi di lavoro. Assicurarsi che le query e i carichi di lavoro siano ottimizzati per ridurre l'utilizzo di calcolo non necessario. Ottimizzare le query DAX, il codice Python e altre operazioni.
- Usare bursting e smoothing. Usare le funzionalità di bursting e smoothing di Fabric per gestire le attività a elevato utilizzo di CPU senza richiedere uno SKU superiore. In questo modo è possibile gestire i costi mantenendo comunque le prestazioni. Per altre informazioni, vedere Valutare e ottimizzare la capacità dell'infrastruttura.
- Configurare avvisi e notifiche. Configurare avvisi proattivi in modo che gli amministratori della capacità possano monitorare e gestire l'utilizzo elevato del calcolo. In questo modo è possibile consentire loro di eseguire azioni tempestive per evitare sovraccarichi dei costi.
- Implementare la gestione del carico di lavoro. Pianificare i processi in esecuzione dei log in momenti non pianificati in base alla disponibilità delle risorse e alla domanda di sistema per ottimizzare l'utilizzo della capacità. Per altre informazioni, vedere Gestione del carico di lavoro.
Tenere presenti anche queste considerazioni:
- I prezzi di Data Lake Storage dipendono dalla quantità di dati archiviati e dalla frequenza di utilizzo dei dati. I prezzi di esempio includono 1 TB di dati archiviati e altri presupposti transazionali. Il valore di 1 TB si riferisce alle dimensioni del data lake e non a quelle del database legacy originale.
- I prezzi dell'infrastruttura si basano sul prezzo della capacità sku di Fabric F o sul prezzo Premium per utente. Le capacità serverless utilizzano CPU e memoria dalla capacità dedicata acquistata.
- Hub eventi fattura in base al livello, alle unità elaborate con provisioning e al traffico in ingresso ricevuto. L'esempio presuppone un'unità elaborata nel livello Standard per un milione di eventi al mese.
Eccellenza operativa
L'eccellenza operativa copre i processi operativi che distribuiscono un'applicazione e la mantengono in esecuzione nell'ambiente di produzione. Per maggiori informazioni, consultare la sezione Elenco di controllo per la revisione della progettazione per l'eccellenza operativa.
Fabric offre molti componenti che consentono di gestire la piattaforma dati. Ognuno di questi componenti supporta operazioni univoche che è possibile visualizzare nell'app Microsoft Fabric Capacity Metrics. Usare l'app Fabric Capacity Metrics per monitorare il consumo di capacità e prendere decisioni informate su come usare le risorse di capacità.
Efficienza delle prestazioni
L'efficienza delle prestazioni è la capacità del carico di lavoro di soddisfare le esigenze poste dagli utenti in modo efficiente. Per maggiori informazioni, consultare la sezione Elenco di controllo per la revisione della progettazione per l'efficienza delle prestazioni.
Fabric offre diverse funzionalità per ottimizzare le prestazioni nei relativi componenti. Questi strumenti e procedure consentono di gestire le risorse di calcolo in modo efficace, prevenire l'overload e prendere decisioni informate sul ridimensionamento e sull'ottimizzazione dei carichi di lavoro.
Alcune funzionalità chiave di efficienza delle prestazioni in Fabric includono:
Bursting e smoothing, per garantire che le attività a elevato utilizzo di CPU vengano completate rapidamente senza richiedere uno SKU superiore. Pianificare queste attività in qualsiasi momento del giorno.
Limitazione, per ritardare o rifiutare le operazioni quando si verifica una domanda di CPU sostenuta che supera il limite di SKU.
L'app Fabric Capacity Metrics, per visualizzare l'utilizzo della capacità, ottimizzare le prestazioni degli artefatti e ottimizzare gli elementi a elevato calcolo. L'app distingue le operazioni interattive (ad esempio le query DAX) e le operazioni in background (ad esempio gli aggiornamenti del modello semantico) per ottimizzazioni mirate.
Collaboratori
Questo articolo viene gestito da Microsoft. Originariamente è stato scritto dai seguenti contributori.
Autori principali:
- Amit Chandra | Cloud Solution Architect
- Nicholas Moore | Cloud Solution Architect
Per visualizzare i profili LinkedIn non pubblici, accedere a LinkedIn.
Passaggi successivi
- Che cos'è OneLake?
- Che cos'è Data Factory?
- Che cos'è l'ingegneria dei dati?
- Che cos'è l'analisi scientifica dei dati?
- Che cos'è l'intelligenza in tempo reale?
- Che cos'è Power BI?
- Introduzione a Copilot in Fabric