Dela via


Självstudiekurs om Lakehouse: Mata in data i lakehouse

I den här självstudien matar du in fler dimensions- och faktatabeller från Wide World Importers (WWI) till lakehouse.

Förutsättningar

Mata in data

I det här avsnittet använder du aktiviteten Kopiera data i Data Factory-pipelinen för att mata in exempeldata från ett Azure-lagringskonto till avsnittet Filer i lakehouse som du skapade tidigare.

  1. Välj Arbetsytor i det vänstra navigeringsfönstret och välj sedan din nya arbetsyta på menyn Arbetsytor . Objektvyn för arbetsytan visas.

  2. Från menyalternativet +Nytt i menyfliksområdet för arbetsytan väljer du Datapipeline.

    Skärmbild som visar hur du skapar en ny datapipeline.

  3. I dialogrutan Ny pipeline anger du namnet som IngestDataFromSourceToLakehouse och väljer Skapa. En ny datafabrikspipeline skapas och öppnas.

  4. Konfigurera sedan en HTTP-anslutning för att importera exempeldata från World Wide Importers till Lakehouse. I listan med Nya källor väljer du Visa mer, söker efter Http och väljer den.

    Skärmbild som visar var du väljer HTTP-källan.

  5. I fönstret Anslut till datakälla anger du informationen i tabellen nedan och väljer Nästa.

    Property Värde
    webbadress https://assetsprod.microsoft.com/en-us/wwi-sample-dataset.zip
    Connection Skapa en ny anslutning
    Anslutningens namn wwisampledata
    Data-gateway Ingen
    Typ av autentisering Anonym

    Skärmbild som visar parametrarna för att konfigurera Http-anslutningen.

  6. I nästa steg aktiverar du den binära kopian och väljer ZipDeflate (.zip) som komprimeringstyp eftersom källan är en .zip fil. Behåll de andra fälten som standardvärden och klicka på Nästa.

    Skärmbild som visar hur du väljer en komprimeringstyp.

  7. I fönstret Anslut till datamål anger du rotmappen som Filer och klickar på Nästa. Då skrivs data till avsnittet Filer i lakehouse.

    Skärmbild som visar målanslutningsinställningarna för lakehouse.

  8. Välj filformatet som Binärt för målet. Klicka på Nästa och sedan Spara+Kör. Du kan schemalägga pipelines för att uppdatera data med jämna mellanrum. I den här självstudien kör vi bara pipelinen en gång. Datakopieringsprocessen tar cirka 10–15 minuter att slutföra.

    Skärmbild som visar målfilformatet.

  9. Du kan övervaka pipelinekörningen och aktiviteten på fliken Utdata . Du kan också visa detaljerad information om dataöverföring genom att välja glasögonikonen bredvid pipelinenamnet, som visas när du hovrar över namnet.

    Skärmbild som visar status för kopieringspipelineaktiviteten.

  10. När pipelinen har körts går du till lakehouse (wwilakehouse) och öppnar utforskaren för att se importerade data.

    Skärmbild som visar hur du navigerar till lakehouse.

  11. Kontrollera att mappen WideWorldImportersDW finns i Utforskarvyn och innehåller data för alla tabeller.

    Skärmbild som visar att källdata kopieras till Lakehouse Explorer.

  12. Data skapas under avsnittet Filer i Lakehouse Explorer. En ny mapp med GUID innehåller alla data som behövs. Byt namn på GUID till wwi-raw-data

Information om hur du läser in inkrementella data i ett sjöhus finns i Inkrementellt läsa in data från ett informationslager till ett sjöhus.

Gå vidare