Del via


Indfødning af data i OneLake, og analysér med Azure Databricks

I denne vejledning skal du:

  • Opret en pipeline i et arbejdsområde, og indfødning af data i din OneLake i Delta-format.

  • Læs og rediger en Delta-tabel i OneLake med Azure Databricks.

Forudsætninger

Før du starter, skal du have:

  • Et arbejdsområde med et Lakehouse-element.

  • Et Premium Azure Databricks-arbejdsområde. Kun Premium Azure Databricks-arbejdsområder understøtter passthrough af Microsoft Entra-legitimationsoplysninger. Når du opretter din klynge, skal du aktivere passthrough af legitimationsoplysninger til Azure Data Lake Storage i Avancerede indstillinger.

  • Et eksempeldatasæt.

Indfødning af data, og rediger Delta-tabellen

  1. Gå til dit lakehouse i Power BI-tjeneste, vælg Hent data, og vælg derefter Ny datapipeline.

    Skærmbillede, der viser, hvordan du navigerer til indstillingen for ny datapipeline fra brugergrænsefladen.

  2. I prompten Ny pipeline skal du angive et navn til den nye pipeline og derefter vælge Opret.

  3. I denne øvelse skal du vælge NYC Taxi – Grønne eksempeldata som datakilde og derefter vælge Næste.

    Skærmbillede, der viser, hvordan du vælger NYC-eksempel på semantisk model.

  4. På eksempelskærmen skal du vælge Næste.

  5. Som datadestination skal du vælge navnet på det lakehouse, du vil bruge til at gemme Data fra OneLake Delta-tabellen. Du kan vælge et eksisterende lakehouse eller oprette et nyt.

    Skærmbillede, der viser, hvordan du vælger destinationssøhus.

  6. Vælg, hvor outputtet skal gemmes. Vælg Tabeller som rodmappe, og angiv "nycsample" som tabelnavn.

  7. På skærmen Gennemse + Gem skal du vælge Start dataoverførsel med det samme og derefter vælge Gem + Kør.

    Skærmbillede, der viser, hvordan du angiver tabelnavn.

  8. Når jobbet er fuldført, skal du gå til lakehouse og få vist deltatabellen under mappen /Tables.

  9. Højreklik på det oprettede tabelnavn, vælg Egenskaber, og kopiér stien til Azure Blob Filesystem (ABFS).

  10. Åbn din Azure Databricks-notesbog. Læs deltatabellen på OneLake.

    olsPath = "abfss://<replace with workspace name>@onelake.dfs.fabric.microsoft.com/<replace with item name>.Lakehouse/Tables/nycsample" 
    df=spark.read.format('delta').option("inferSchema","true").load(olsPath)
    df.show(5)
    
  11. Opdater Delta-tabeldataene ved at ændre en feltværdi.

    %sql
    update delta.`abfss://<replace with workspace name>@onelake.dfs.fabric.microsoft.com/<replace with item name>.Lakehouse/Tables/nycsample` set vendorID = 99999 where vendorID = 1;