Del via


Selvstudium: Indfødning af data i et lager

Gælder for:✅ Warehouse i Microsoft Fabric

I dette selvstudium kan du få mere at vide om, hvordan du indfødning af data fra Microsoft Azure Storage til et lager for at oprette tabeller.

Seddel

Dette selvstudium er en del af et end-to-end-scenarie. Hvis du vil fuldføre dette selvstudium, skal du først fuldføre disse selvstudier:

  1. Opret et arbejdsområde
  2. Opret et lager

Indtag data

I denne opgave kan du få mere at vide om, hvordan du henter data til lageret for at oprette tabeller.

  1. Sørg for, at det arbejdsområde, du oprettede i første selvstudium, er åbent.

  2. I landingsruden for arbejdsområdet skal du vælge + Nyt element for at få vist en komplet liste over tilgængelige elementtyper.

  3. På listen i afsnittet Hent data skal du vælge datapipeline elementtype.

  4. I vinduet Ny pipeline skal du i feltet Navn angive Load Customer Data.

    Skærmbillede af dialogboksen Ny pipeline, hvor det angivne navn fremhæves.

  5. Hvis du vil klargøre pipelinen, skal du vælge Opret. Klargøringen er fuldført, når Opret en datapipeline landingsside vises.

  6. På landingssiden for datapipelinen skal du vælge Pipelineaktivitet.

    Skærmbillede af landingssiden Opret en datapipeline, der fremhæver indstillingen Pipelineaktivitet.

  7. Vælg Kopiér data inde fra afsnittet Flyt og transformér i menuen.

    Skærmbillede af afsnittet Flyt og transformér, der viser, hvor du skal vælge Kopiér data.

  8. På pipelinedesignlærredet skal du vælge Kopiér data aktivitet.

    Skærmbillede af kopiér data, der er placeret på designlærredet.

  9. Hvis du vil konfigurere aktiviteten, skal du på siden Generelt i feltet Navn erstatte standardteksten med CD Load dimension_customer.

    Skærmbillede af fanen Generelt, der viser, hvor du skal angive navnet på kopiaktiviteten.

  10. Vælg Flere på rullelisten Forbindelse på siden Kilde for at få vist alle de datakilder, du kan vælge imellem, herunder datakilder i OneLake-katalog.

  11. Vælg + Ny for at oprette en ny datakilde.

  12. Søg efter, og vælg derefter Azure Blobs.

  13. Angiv https://fabrictutorialdata.blob.core.windows.net/sampledata/i feltet Kontonavn eller URL-adresse på siden Opret forbindelse til datakilde .

  14. Bemærk, at rullelisten Forbindelsesnavn udfyldes automatisk, og at godkendelsestypen er angivet til Anonym.

    Skærmbillede af vinduet Opret forbindelse til datakilde, der viser alle de indstillinger, der er udført.

  15. Vælg Opret forbindelse.

  16. På siden Source skal du fuldføre følgende indstillinger for at få adgang til parquetfilerne i datakilden:

    1. I felterne Filsti skal du skrive:

      1. sti til fil – objektbeholder:sampledata

      2. Filsti - mappe:WideWorldImportersDW/tables

      3. Filsti - Filnavn:dimension_customer.parquet

    2. Vælg Parquetpå rullelisten filformat .

  17. Hvis du vil have vist dataene og teste, at der ikke er nogen fejl, skal du vælge Eksempeldata.

    Skærmbillede af siden Kilde, der fremhæver de ændringer, der er foretaget i de forrige trin, og funktionen Eksempel på data.

  18. Vælg det Wide World Importers lager på rullelisten Forbindelse på siden Destination.

  19. For tabelindstillingskal du vælge indstillingen Opret tabel automatisk.

  20. Skriv dboi det første tabelfelt .

  21. Skriv dimension_customeri det andet felt.

    Skærmbillede af destinationssiden, hvor de ændringer, der er foretaget i de forrige trin, fremhæves.

  22. På båndet Hjem skal du vælge Kør.

  23. I Gem og kør? dialogboks skal du vælge Gem og kør for at få pipelinen til at indlæse tabellen dimension_customer.

    Skærmbillede af dialogboksen Gem og kør, hvor knappen Gem og kør fremhæves.

  24. Hvis du vil overvåge status for kopiaktiviteten, skal du gennemse pipelinekørselsaktiviteterne på siden med Output (vent på, at den fuldføres med statussen Fuldført).

    Skærmbillede af siden Output, hvor status for Lykkedes fremhæves.

Næste trin