Dela via


Alternativ för att hämta data till Fabric Lakehouse

Hämta dataupplevelsen omfattar alla användarscenarier för att föra in data i lakehouse, till exempel:

  • Ansluta till befintlig SQL Server och kopiera data till Delta-tabellen på lakehouse.
  • Laddar upp filer från datorn.
  • Kopiera och sammanfoga flera tabeller från andra sjöhus till en ny Delta-tabell.
  • Ansluta till en strömmande källa för att landa data i ett sjöhus.
  • Referera till data utan att kopiera dem från andra interna sjöhus eller externa källor.

Olika sätt att läsa in data i ett sjöhus

I Microsoft Fabric finns det några sätt att hämta data till ett sjöhus:

  • Filuppladdning från en lokal dator
  • Köra ett kopieringsverktyg i pipelines
  • Konfigurera ett dataflöde
  • Apache Spark-bibliotek i notebook-kod
  • Strömma realtidshändelser med Eventstream
  • Hämta data från Eventhouse

Lokal filuppladdning

Du kan också ladda upp data som lagras på den lokala datorn. Du kan göra det direkt i Lakehouse Explorer.

Skärmbild av dialogrutan filuppladdning i Lakehouse-utforskaren.

Kopieringsverktyget i pipelines

Verktyget Kopiera är en mycket skalbar Dataintegration lösning som gör att du kan ansluta till olika datakällor och läsa in data antingen i ursprungligt format eller konvertera dem till en Delta-tabell. Kopieringsverktyget är en del av pipelineaktiviteter som du kan ändra på flera sätt, till exempel schemaläggning eller utlösande baserat på en händelse. Mer information finns i Kopiera data med kopieringsaktivitet.

Dataflöden

För användare som är bekanta med Power BI-dataflöden är samma verktyg tillgängligt för att läsa in data i ditt lakehouse. Du kan snabbt komma åt den från alternativet Hämta data i Lakehouse Explorer och läsa in data från över 200 anslutningsappar. Mer information finns i Snabbstart: Skapa ditt första dataflöde för att hämta och transformera data.

Notebook-kod

Du kan använda tillgängliga Spark-bibliotek för att ansluta till en datakälla direkt, läsa in data till en dataram och sedan spara dem i ett sjöhus. Den här metoden är det mest öppna sättet att läsa in data i lakehouse som användarkoden hanterar fullt ut.

Kommentar

Externa Delta-tabeller som skapats med Spark-kod visas inte för en SQL-analysslutpunkt. Använd genvägar i Tabellutrymme för att göra externa Delta-tabeller synliga för en SQL-analysslutpunkt. Mer information om hur du skapar en genväg finns i Skapa en genväg till filer eller tabeller.

Strömma realtidshändelser med Eventstream

Med Eventstream kan du hämta, bearbeta och dirigera stora volymer realtidshändelser från en mängd olika källor.

Skärmbild av hur du hämtar data till ett lakehouse från Eventstream.

Information om hur du lägger till lakehouse som mål för Eventstream finns i Hämta data från Eventstream i ett sjöhus.

För optimala strömningsprestanda kan du strömma data från Eventstream till ett Eventhouse och sedan aktivera OneLake-tillgänglighet.

Hämta data från Eventhouse

När du aktiverar OneLake-tillgänglighet för data i ett Eventhouse skapas en Delta-tabell i OneLake. Den här Delta-tabellen kan nås av ett sjöhus med hjälp av en genväg. Mer information finns i OneLake-genvägar. Mer information finns i Tillgänglighet för Eventhouse OneLake.

Överväganden när du väljer metod för att läsa in data

Användningsfall Rekommendation
Liten filuppladdning från den lokala datorn Använda lokal filuppladdning
Små data eller specifika anslutningsappar Använda dataflöden
Stor datakälla Använda verktyget Kopiera i pipelines
Komplexa datatransformeringar Använda notebook-kod
Strömma data Använd Eventstream för att strömma data till Eventhouse. aktivera OneLake-tillgänglighet och skapa en genväg från Lakehouse
Tidsseriedata Hämta data från Eventhouse