Dela via


Så här kommer du åt lokala datakällor i Data Factory för Microsoft Fabric

Data Factory för Microsoft Fabric är en kraftfull molnbaserad dataintegreringstjänst som gör att du kan skapa, schemalägga och hantera arbetsflöden för olika datakällor. I scenarier där dina datakällor finns lokalt tillhandahåller Microsoft den lokala datagatewayen för att på ett säkert sätt överbrygga klyftan mellan din lokala miljö och molnet. Det här dokumentet vägleder dig genom processen att komma åt lokala datakällor i Data Factory för Microsoft Fabric med hjälp av den lokala datagatewayen.

Skapa en lokal datagateway

  1. En lokal datagateway är ett program som är utformat för att installeras i en lokal nätverksmiljö. Det ger ett sätt att installera gatewayen direkt på din lokala dator. Detaljerade anvisningar om hur du laddar ned och installerar den lokala datagatewayen finns i Installera en lokal datagateway.

    Skärmbild som visar konfigurationen av den lokala datagatewayen.

  2. Logga in med ditt användarkonto för att få åtkomst till den lokala datagatewayen, varefter den är förberedd för användning.

    Skärmbild som visar konfigurationen av den lokala datagatewayen efter att användaren har loggat in.

Kommentar

En lokal datagateway med en högre version än eller lika med 3000.214.2 krävs för att stödja Infrastruktur-pipelines.

Skapa en anslutning för din lokala datakälla

  1. Gå till administratörsportalen och välj inställningsknappen (en ikon som ser ut som en kugghjul) längst upp till höger på sidan. Välj sedan Hantera anslutningar och gatewayer på den nedrullningsbara menyn som visas.

    Skärmbild som visar menyn Inställningar med Hantera anslutningar och gatewayer markerade.

  2. I dialogrutan Ny anslutning som visas väljer du Lokalt och anger sedan ditt gatewaykluster, tillsammans med den associerade resurstypen och relevant information.

    Skärmbild som visar dialogrutan Ny anslutning med Lokalt valt.

    Tillgängliga anslutningstyper som stöds för lokala anslutningar är:

    • Entra-ID
    • Adobe Analytics
    • Analysis Services
    • Azure Blob Storage
    • Azure Data Lake Storage Gen2
    • Azure Table Storage
    • Essbase
    • Fil
    • Mapp
    • Google Analytics
    • IBM DB2
    • IBM Informix-databas
    • MySQL
    • OData
    • ODBC
    • OLE DB
    • Oracle
    • PostgreSQL
    • Salesforce
    • SAP Business Warehouse Message Server
    • SAP Business Warehouse Server
    • SAP HANA
    • SharePoint
    • SQL Server
    • Sybase
    • Teradata
    • Webb

    En omfattande lista över anslutningsappar som stöds för lokala datatyper finns i Anslutningsappar för datapipelines i Microsoft Fabric.

Ansluta din lokala datakälla till ett Dataflöde Gen2 i Data Factory för Microsoft Fabric

  1. Gå till din arbetsyta och skapa ett Dataflöde Gen2.

    Skärmbild som visar en demoarbetsyta med det nya alternativet Dataflow Gen2 markerat.

  2. Lägg till en ny källa i dataflödet och välj den anslutning som upprättades i föregående steg.

    Skärmbild som visar dialogrutan Anslut till datakälla i ett Dataflöde Gen2 med en lokal källa vald.

  3. Du kan använda Dataflöde Gen2 för att utföra nödvändiga datatransformeringar baserat på dina krav.

    Skärmbild som visar Power Query-redigeraren med några transformeringar som tillämpas på exempeldatakällan.

  4. Använd knappen Lägg till datamålfliken Start i Power Query-redigeraren för att lägga till ett mål för dina data från den lokala källan.

    Skärmbild som visar Power Query-redigeraren med knappen Lägg till datamål markerad, som visar tillgängliga måltyper.

  5. Publicera Dataflöde Gen2.

    Skärmbild som visar Power Query-redigeraren med knappen Publicera markerad.

Nu har du skapat ett Dataflöde Gen2 för att läsa in data från en lokal datakälla till ett molnmål.

Använda lokala data i en pipeline

  1. Gå till din arbetsyta och skapa en datapipeline.

    Skärmbild som visar hur du skapar en ny datapipeline.

Kommentar

Du måste konfigurera brandväggen för att tillåta utgående anslutningar *.frontend.clouddatahub.net från gatewayen för Infrastruktur-pipelinefunktioner.

  1. På fliken Start i pipelineredigeraren väljer du Kopiera data och sedan Använd kopieringsassistenten. Lägg till en ny källa till aktiviteten på sidan Välj datakälla i assistenten och välj sedan anslutningen som upprättades i föregående steg.

    Skärmbild som visar var du väljer en ny datakälla från aktiviteten Kopiera data.

  2. Välj ett mål för dina data från den lokala datakällan.

    Skärmbild som visar var du väljer datamålet i aktiviteten Kopiera.

  3. Köra pipelinen.

    Skärmbild som visar var pipelinen ska köras i pipelineredigerarens fönster.

Nu har du skapat och kört en pipeline för att läsa in data från en lokal datakälla till ett molnmål.