Del via


Muligheder for at hente data ind i Fabric Lakehouse

Hent data-oplevelsen dækker alle brugerscenarier for at hente data ind i lakehouse, f.eks.:

  • Opretter forbindelse til eksisterende SQL Server og kopierer data til Delta-tabellen i lakehouse.
  • Overfører filer fra computeren.
  • Kopierer og fletter flere tabeller fra andre lakehouses til en ny Delta-tabel.
  • Oprettelse af forbindelse til en streamingkilde til landdata i et lakehouse.
  • Referer til data uden at kopiere dem fra andre interne lakehouses eller eksterne kilder.

Forskellige måder at indlæse data på i et lakehouse

I Microsoft Fabric er der et par måder, hvorpå du kan hente data ind i et lakehouse:

  • Filoverførsel fra lokal computer
  • Kør et kopiværktøj i pipelines
  • Konfigurer et dataflow
  • Apache Spark-biblioteker i notesbogkode
  • Stream-hændelser i realtid med Eventstream
  • Hent data fra Eventhouse

Overførsel af lokal fil

Du kan også uploade data, der er gemt på din lokale computer. Du kan gøre det direkte i Lakehouse explorer.

Skærmbillede af dialogboksen til filupload i Stifinder i Lakehouse.

Kopiér værktøj i pipelines

Kopiér-værktøjet er en yderst skalerbar dataintegrationsløsning, der giver dig mulighed for at oprette forbindelse til forskellige datakilder og indlæse dataene enten i det oprindelige format eller konvertere dem til en Delta-tabel. Kopiér værktøj er en del af pipelineaktiviteter, som du kan ændre på flere måder, f.eks. planlægning eller udløsning baseret på en hændelse. Du kan få flere oplysninger under Sådan kopierer du data ved hjælp af kopieringsaktivitet.

Dataflows

For brugere, der kender Power BI-dataflow, er det samme værktøj tilgængeligt til indlæsning af data i dit lakehouse. Du kan hurtigt få adgang til den fra Lakehouse-stifinderindstillingen "Hent data" og indlæse data fra mere end 200 connectors. Du kan få flere oplysninger under Hurtig start: Opret dit første dataflow for at hente og transformere data.

Notesbogkode

Du kan bruge tilgængelige Spark-biblioteker til at oprette direkte forbindelse til en datakilde, indlæse data i en dataramme og derefter gemme dem i et lakehouse. Denne metode er den mest åbne måde at indlæse data på i det lakehouse, som brugerkoden administrerer fuldt ud.

Bemærk

Eksterne Delta-tabeller, der er oprettet med Spark-kode, vil ikke være synlige for et SQL Analytics-slutpunkt. Brug genveje i Tabelområde til at gøre eksterne Delta-tabeller synlige for et SQL Analytics-slutpunkt. Du kan få mere at vide om, hvordan du opretter en genvej, under Opret en genvej til filer eller tabeller.

Stream-hændelser i realtid med Eventstream

Med Eventstream kan du hente, behandle og distribuere store mængder hændelser i realtid fra en lang række kilder.

Skærmbillede af hentning af data til et lakehouse fra Eventstream.

Hvis du vil se, hvordan du tilføjer lakehouse som destination for Eventstream, skal du se Hent data fra Eventstream i et lakehouse.

For at opnå optimal streamingydeevne kan du streame data fra Eventstream til et Eventhouse og derefter aktivere OneLake-tilgængelighed.

Hent data fra Eventhouse

Når du aktiverer OneLake-tilgængelighed for data i et Eventhouse, oprettes der en Delta-tabel i OneLake. En lakehouse kan få adgang til denne Delta-tabel ved hjælp af en genvej. Du kan få flere oplysninger under OneLake-genveje. Du kan få flere oplysninger under Tilgængelighed af Eventhouse OneLake.

Overvejelser ved valg af tilgang til indlæsning af data

Use case Anbefaling
Overførsel af små filer fra lokal computer Brug lokal filoverførsel
Små data eller en bestemt connector Brug dataflow
Stor datakilde Brug kopiværktøjet i pipelines
Komplekse datatransformationer Brug notesbogkode
Streamingdata Brug Eventstream til at streame data til Eventhouse. aktivér OneLake-tilgængelighed, og opret en genvej fra Lakehouse
Tidsseriedata Hent data fra Eventhouse