Esplorare e trasformare i dati in una lakehouse

Completato

Trasformare e caricare i dati

La maggior parte dei dati richiede trasformazioni prima di essere caricati nelle tabelle. È possibile inserire dati non elaborati direttamente in un lakehouse e quindi trasformarli e caricarli nelle tabelle. Indipendentemente dalla progettazione dell’ETL, è possibile trasformare e caricare i dati usando semplicemente gli stessi strumenti per l'inserimento dei dati. I dati trasformati possono quindi essere caricati come file o tabella Delta.

  • I notebook sono preferiti dagli ingegneri dei dati che hanno familiarità con diversi linguaggi di programmazione, tra cui PySpark, SQL e Scala.
  • I flussi di dati Gen2 sono perfetti per gli sviluppatori che hanno familiarità con Power BI o Excel, poiché utilizzano l'interfaccia PowerQuery.
  • Le pipeline forniscono un'interfaccia visiva per eseguire e orchestrare processi ETL. Le pipeline possono essere semplici o complesse a seconda delle esigenze.

Analizzare e visualizzare i dati in una lakehouse

Una volta inseriti, trasformati e caricati, i dati sono pronti per l'uso da parte di altri utenti. Gli elementi di Fabric offrono la flessibilità necessaria per ogni organizzazione, in modo da poter usare gli strumenti più adatti alle proprie esigenze.

  • I data scientist possono usare notebook o Data wrangler per esplorare ed eseguire il training di modelli di Machine Learning per l’IA.
  • Gli sviluppatori di report possono usare il modello semantico per creare report di Power BI.
  • Gli analisti possono usare l'endpoint di Analisi SQL per eseguire query, filtrare, aggregare ed esplorare in altro modo i dati nelle tabelle del lakehouse.

Combinando le funzionalità di visualizzazione dei dati di Power BI con lo schema centralizzato di archiviazione e tabulare di una data lakehouse, è possibile implementare una soluzione di analisi end-to-end in una singola piattaforma.