Compartir a través de


Opciones para obtener datos en el almacén de lago de Fabric

La experiencia de obtención de datos cubre todos los escenarios del usuario para incorporar datos al lago de datos, como:

  • Conectar a un SQL Server existente y copiar datos en la tabla delta del lago de datos.
  • Cargando archivos desde el equipo.
  • Copiar y combinar varias tablas de otros lagos de datos en una nueva tabla delta.
  • Conexión a un origen de streaming para aterrizar datos en un almacén de lago.
  • Hacer referencia a datos sin copiarlos desde otros almacenes de lago internos u orígenes externos.

Diferentes formas de cargar datos en un lago de datos

En Microsoft Fabric, hay varias maneras de meter datos en un almacén de lago:

  • Cargar archivos desde el equipo local
  • Ejecutar una herramienta de copia en las canalizaciones
  • Configurar un flujo de datos
  • Bibliotecas de Apache Spark en el código del cuaderno
  • Transmisión de eventos en tiempo real con Eventstream
  • Obtención de datos de Eventhouse

Carga de archivos local

También puede cargar datos almacenados en el equipo local. Puede hacerlo directamente en el explorador del lago de datos.

Recorte de pantalla del cuadro de diálogo de carga de archivos en el Explorador de almacén de lago de datos.

Herramienta Copiar en canalizaciones

La herramienta Copiar es una solución de Integración de datos altamente escalable que le permite conectarse a diferentes orígenes de datos y cargar los datos en formato original o convertirlos en una tabla delta. La herramienta de copia es una parte de las actividades de canalización que se pueden orquestar de varias maneras, como la programación o el desencadenamiento en función del evento. Para obtener más información, consulte Cómo copiar datos mediante la actividad de copia.

Flujos de datos

Para los usuarios que están familiarizados con los flujos de datos de Power BI, la misma herramienta está disponible para cargar datos en el lago de datos. Es posible acceder de forma rápida desde la opción "Obtener datos" del explorador del lago de datos y obtener datos de más de 200 conectores. Para obtener más información, consulte Inicio rápido: Creación del primer flujo de datos para obtener y transformar datos.

Código del cuaderno

Puede usar las bibliotecas de Spark disponibles para conectarse directamente a un origen de datos, cargar datos en un marco de datos y, a continuación, guardarlos en un lago de datos. Este método es la forma más abierta de cargar datos en un lago de datos que el código de usuario administra por completo.

Nota:

Las tablas Delta externas creadas con el código de Spark no serán visibles para un punto de conexión de SQL Analytics. Use accesos directos en el espacio Tabla para hacer que las tablas Delta externas sean visibles para un punto de conexión de SQL Analytics. Para obtener información sobre cómo crear un acceso directo, consulte Crear un acceso directo a archivos o tablas.

Transmisión de eventos en tiempo real con Eventstream

Con Eventstream, puede obtener, procesar y redirigir eventos en tiempo real de gran volumen desde una amplia variedad de orígenes.

Recorte de pantalla de la obtención de datos en un almacén de lago de datos desde Eventstream.

Para ver cómo agregar un almacén de lago de datos como destino para Eventstream, vea Obtención de datos de Eventstream en un almacén de lago de datos.

Para obtener un rendimiento óptimo de streaming, puede transmitir datos de Eventstream a un centro de eventos y, después, habilitar la disponibilidad de OneLake.

Obtención de datos de Eventhouse

Al habilitar la disponibilidad de OneLake en los datos de un centro de eventos, se crea una tabla Delta en OneLake. Un almacén de lago de datos puede acceder a esta tabla Delta mediante un acceso directo. Para más información, consulte Accesos directos de OneLake. Para más información, vea Disponibilidad de OneLake en Eventhouse.

Consideraciones al elegir el enfoque para cargar datos

Caso de uso Recomendación
Carga de archivos pequeña desde la máquina local Uso de la carga de archivos local
Datos pequeños o conectores específicos Uso de flujos de datos
Origen de datos grande Uso de la herramienta Copiar en canalizaciones
Transformaciones de datos complejas Uso de código del cuaderno
Streaming de datos Uso de Eventstream para transmitir datos a Eventhouse; habilitar la disponibilidad de OneLake y crear un acceso directo desde un almacén de lago de datos
Datos de serie temporal Obtención de datos de Eventhouse