Condividi tramite


Interoperabilità in formato tabella Delta Lake

In Microsoft Fabric il formato di tabella Delta Lake è lo standard per l'analisi. Delta Lake è un livello di storage open source che porta le transazioni ACID (atomicità, coerenza, isolamento e durabilità) ai carichi di lavoro di Big Data e analisi.

Tutte le esperienze di Infrastruttura generano e utilizzano tabelle Delta Lake, guidando l'interoperabilità e un'esperienza unificata del prodotto. Le tabelle Delta Lake prodotte da un motore di calcolo, ad esempio Fabric Data Warehouse o Synapse Spark, possono essere utilizzate da qualsiasi altro motore, ad esempio Power BI. Quando si inseriscono dati in Fabric, Fabric lo archivia come tabelle Delta per impostazione predefinita. È possibile integrare facilmente dati esterni contenenti tabelle Delta Lake usando i collegamenti a OneLake.

Funzionalità delta Lake ed esperienze di infrastruttura

Per ottenere l'interoperabilità, tutte le esperienze Fabric sono allineate alle funzionalità delta Lake e alle funzionalità di Fabric. Alcune esperienze possono scrivere solo in tabelle Delta Lake, mentre altre possono leggervi.

  • Writer: data warehouse, flussi di eventi e modelli semantici di Power BI esportati in OneLake
  • Lettori: endpoint di analisi SQL e modelli semantici direct lake di Power BI
  • Writer e lettori: runtime spark dell'infrastruttura, flussi di dati, pipeline di dati e database di Linguaggio di query Kusto (KQL)

La matrice seguente illustra le funzionalità principali di Delta Lake e il relativo supporto per ogni funzionalità di Fabric.

Funzionalità dell'infrastruttura Mapping di colonne basate su nomi Vettori di eliminazione Scrittura in ordine V Ottimizzazione e manutenzione delle tabelle Partizioni di scrittura Leggere partizioni Clustering liquido TIMESTAMP_NTZ Funzionalità di lettura/scrittura differenziali e funzionalità di tabella predefinite
Esportazione delta Lake del data warehouse No No No No Lettore: 3
Writer: 7
Vettori di eliminazione
Endpoint di Analytics SQL N/A (non applicabile) N/A (non applicabile) N/A (non applicabile) No N/A (non applicabile)
Fabric Spark Runtime 1.3 Lettore: 1
Writer: 2
Fabric Spark Runtime 1.2 Sì, sola lettura Lettore: 1
Writer: 2
Fabric Spark Runtime 1.1 No Sì, sola lettura No Lettore: 1
Writer: 2
Dataflows No Sì, sola lettura No Lettore: 1
Writer: 2
Pipeline di dati No No No Sì, sovrascrivere solo Sì, sola lettura No Lettore: 1
Writer: 2
Modelli semantici direct lake di Power BI N/A (non applicabile) N/A (non applicabile) N/A (non applicabile) No N/A (non applicabile)
Esportare modelli semantici di Power BI in OneLake N/A (non applicabile) No N/A (non applicabile) No No Lettore: 2
Writer: 5
Database KQL No No* No No Lettore: 1
Writer: 1
EventStreams No No No No N/A (non applicabile) No No Lettore: 1
Writer: 2

* I database KQL offrono determinate funzionalità di manutenzione delle tabelle, ad esempio la conservazione. I dati vengono rimossi alla fine del periodo di conservazione da OneLake. Per altre informazioni, vedere Una copia logica.

Nota

  • Fabric non scrive mapping di colonne basate su nomi per impostazione predefinita. L'esperienza di Fabric predefinita genera tabelle compatibili nel servizio. Delta lake, prodotto da servizi di terze parti, potrebbe avere caratteristiche di tabella incompatibili.
  • Alcune esperienze di Fabric non hanno funzionalità ereditate di ottimizzazione e manutenzione delle tabelle, ad esempio la compattazione bin, l'ordine V e la pulizia dei file non con riferimenti precedenti. Per mantenere ottimali le tabelle Delta Lake per l'analisi, seguire le tecniche descritte in Usare la funzionalità di manutenzione tabelle per gestire le tabelle delta in Fabric per le tabelle inserite usando tali esperienze.

Limitazioni correnti

Attualmente Fabric non supporta queste funzionalità di Delta Lake:

  • Delta Lake 3.x Uniform
  • Scrittura di colonne Identity (funzionalità proprietaria di Databricks)
  • Tabelle live delta (funzionalità proprietaria di Databricks)
  • RLE (Codifica lunghezza esecuzione) abilitata nel file del checkpoint