Condividi tramite


Interoperabilità del formato della tabella Delta Lake

In Microsoft Fabric il formato di tabella Delta Lake è lo standard per l'analisi. Delta Lake è un livello di archiviazione open source che porta le transazioni ACID (Atomicità, Coerenza, Isolamento, Durabilità) ai carichi di lavoro di big data e analisi.

Tutte le esperienze della piattaforma generano e utilizzano tabelle Delta Lake, favorendo l'interoperabilità e un'esperienza unificata del prodotto. Le tabelle Delta Lake prodotte da un motore di calcolo, ad esempio Fabric Data Warehouse o Synapse Spark, possono essere utilizzate da qualsiasi altro motore, ad esempio Power BI. Quando si inseriscono dati in Fabric, Fabric lo archivia come tabelle Delta per impostazione predefinita. È possibile integrare facilmente dati esterni contenenti tabelle Delta Lake usando i collegamenti a OneLake.

Funzionalità di Delta Lake ed esperienze di Fabric

Per ottenere l'interoperabilità, tutte le esperienze Fabric sono allineate alle caratteristiche di Delta Lake e alle funzionalità di Fabric. Alcune esperienze possono scrivere solo in tabelle Delta Lake, mentre altre possono leggere da esse.

  • Writers: data warehouse, flussi di eventi e modelli semantici di Power BI esportati in OneLake
  • Reader: endpoint di analisi SQL e modelli semantici direct lake di Power BI
  • Writers e lettori: runtime di Fabric Spark, flussi di dati, pipeline di dati e database del linguaggio di query Kusto (KQL)

La matrice seguente illustra le funzionalità principali di Delta Lake e il relativo supporto per ogni funzionalità di Fabric.

Funzionalità del fabric Mapping delle colonne basato sui nomi Vettori di eliminazione Scrittura in ordine a V Ottimizzazione e manutenzione delle tabelle Scrivere partizioni Leggere le partizioni Clustering liquido TIMESTAMP_NTZ Versione del lettore/scrittore Delta e caratteristiche predefinite della tabella
Esportazione Delta Lake del data warehouse No No No No Lettore: 3
Writer: 7
Vettori di eliminazione
Endpoint di analisi SQL N/D (non applicabile) N/D (non applicabile) N/D (non applicabile) No N/D (non applicabile)
Fabric Spark Runtime 1.3 Lettore: 1
Writer: 2
Fabric Spark Runtime 1.2 Sì, sola lettura Lettore: 1
Scrittore: 2
Fabric Spark Runtime 1.1 No Sì, sola lettura No Lettore: 1
Scrittore: 2
Flussi di dati No Sì, sola lettura No Lettore: 1
Scrittore: 2
Canali di dati No No No Sì, solo sovrascrivere Sì, sola lettura No Lettore: 1
Writer: 2
Modelli semantici Direct Lake di Power BI N/D (non applicabile) N/D (non applicabile) N/D (non applicabile) No N/D (non applicabile)
Esportare modelli semantici di Power BI in OneLake N/D (non applicabile) No N/D (non applicabile) No No Lettore: 2
Writer: 5
Database di KQL No Nessun* No No Lettore: 1
Writer: 1
Flussi di eventi No No No No N/D (non applicabile) No No Lettore: 1
Scrittore: 2

* database KQL offrono alcune funzionalità di manutenzione delle tabelle, ad esempio conservazione. I dati vengono rimossi alla fine del periodo di conservazione da OneLake. Per altre informazioni, vedere Una copia logica.

Nota

  • Fabric non scrive mapping di colonne basate su nomi per impostazione predefinita. L'esperienza predefinita di Fabric genera tabelle compatibili attraverso il servizio. Delta lake, prodotto da servizi di terze parti, potrebbe avere caratteristiche di tabella incompatibili.
  • Alcune esperienze di Fabric non hanno funzionalità ereditate di ottimizzazione e manutenzione delle tabelle, come la compattazione binaria, l'ordine V e la pulizia dei file vecchi non referenziati. Per mantenere ottimali le Tabelle Delta Lake per l'analisi, seguire le tecniche riportate in Usare la funzionalità di manutenzione tabelle per gestire le Tabelle Delta in Fabric per le tabelle acquisite utilizzando tali esperienze.

Limitazioni correnti

Attualmente Fabric non supporta queste funzionalità di Delta Lake:

  • Delta Lake 3.x Uniforme
  • Scrittura di colonne di identità (funzionalità proprietaria di Databricks)
  • Delta Live Tables (funzionalità proprietaria di Databricks)
  • RLE (Codifica a Lunghezza di Sequenza) abilitata nel file di checkpoint