Compartir a través de


Interoperabilidad del formato de tabla Delta Lake

En Microsoft Fabric, el formato de tabla delta Lake es el estándar para el análisis. Delta Lake es una capa de almacenamiento de código abierto que aporta transacciones ACID (atomicidad, coherencia, aislamiento, durabilidad) a cargas de trabajo de macrodatos y análisis.

Todas las experiencias de Fabric generan y consumen tablas de Delta Lake, lo que impulsa la interoperabilidad y una experiencia de producto unificada. Las tablas de Delta Lake generadas por un motor de proceso, como Fabric Data Warehouse o Synapse Spark, pueden consumirse en cualquier otro motor, como Power BI. Al ingerir datos en Fabric, Fabric lo almacena como tablas delta de forma predeterminada. Puede integrar fácilmente datos externos que contienen tablas de Delta Lake mediante accesos directos de OneLake.

Características de Delta Lake y experiencias de Fabric

Para lograr la interoperabilidad, todas las experiencias de Fabric se alinean en las características de Delta Lake y las funcionalidades de Fabric. Algunas experiencias solo pueden escribir en tablas de Delta Lake, mientras que otras pueden leerlas.

  • Escritores: almacenamientos de datos, secuencias de eventos y modelos semánticos de Power BI exportados a OneLake
  • Lectores: punto de conexión de análisis SQL y modelos semánticos de Direct Lake de Power BI
  • Escritores y lectores: Entorno de ejecución de Fabric Spark, flujos de datos, canalizaciones de datos y bases de datos del Lenguaje de Consulta Kusto (KQL)

En la matriz siguiente se muestran las características clave de Delta Lake y su compatibilidad con cada funcionalidad de Fabric.

Funcionalidad de Fabric Asignaciones de columnas basadas en nombres Vectores de eliminación Escritura de V-Order Optimización y mantenimiento de tablas Escritura de particiones Leer particiones Agrupación en clústeres líquidos TIMESTAMP_NTZ Versión del lector/escritor delta y características predeterminadas de la tabla
Exportación de Delta Lake en un almacenamiento de datos No No No No Lector: 3
Escritor: 7
Vectores de eliminación
Punto de conexión de análisis SQL N/A (no aplicable) N/A (no aplicable) N/A (no aplicable) No N/A (no aplicable)
Fabric Spark Runtime 1.3 Lector: 1
Escritor: 2
Fabric Spark Runtime 1.2 Sí, solo de lectura Lector: 1
Escritor: 2
Fabric Spark Runtime 1.1 No Sí, solo de lectura No Lector: 1
Escritor: 2
Flujos de datos No Sí, solo de lectura No Lector: 1
Escritor: 2
Tuberías de datos No No No Sí, solo sobrescribir Sí, solo de lectura No Lector: 1
Escritor: 2
Modelos semánticos de Direct Lake en Power BI N/A (no aplicable) N/A (no aplicable) N/A (no aplicable) No N/A (no aplicable)
Exportación de modelos semánticos de Power BI a OneLake N/A (no aplicable) No N/A (no aplicable) No No Lector: 2
Escritor: 5
Bases de datos KQL No No* No No Lector: 1
Escritor: 1
Secuencias de eventos No No No No N/A (no aplicable) No No Lector: 1
Escritor: 2

Las bases de datos KQL * proporcionan ciertas funcionalidades de mantenimiento de tablas, como la de retención. Los datos se eliminan al concluir el periodo de retención en OneLake. Para más información, vea Una copia lógica.

Nota

  • Fabric no escribe asignaciones de columnas basadas en nombres de forma predeterminada. La experiencia predeterminada de Fabric genera tablas compatibles con el servicio. Delta Lake, producido por servicios de terceros, puede tener características de tabla incompatibles.
  • Algunas experiencias de Fabric no tienen funcionalidades de mantenimiento y optimización de tablas heredadas, como compactación de ubicación, V-Order y limpieza de archivos antiguos a los que no se hace referencia. Las tablas ingeridas mediante esas experiencias usan las técnicas descritas en Uso de la característica de mantenimiento de tablas para administrar tablas Delta en Fabric para mantener las tablas de Delta Lake en condiciones óptimas para el análisis.

Limitaciones actuales

Actualmente, Fabric no admite estas características de Delta Lake:

  • Delta Lake 3.x Uniform
  • Escritura de columnas de identidad (característica propietaria de Databricks)
  • Delta Live Tables (característica propietaria de Databricks)
  • RLE (codificación de longitud de ejecución) habilitada en el archivo de punto de comprobación