Introduktion
Datapipelines definierar en sekvens med aktiviteter som samordnar en övergripande process, vanligtvis genom att extrahera data från en eller flera källor och läsa in dem i ett mål. omvandlar den ofta längs vägen. Pipelines används ofta för att automatisera ETL-processer (extract, transform, and load ) som matar in transaktionsdata från driftdatalager till ett analysdatalager, till exempel en lakehouse, ett informationslager eller en SQL-databas.
Om du redan är bekant med Azure Data Factory är datapipelines i Microsoft Fabric omedelbart bekanta. De använder samma arkitektur för anslutna aktiviteter för att definiera en process som kan innehålla flera typer av databearbetningsuppgifter och kontrollflödeslogik. Du kan köra pipelines interaktivt i Microsoft Fabric-användargränssnittet eller schemalägga dem så att de körs automatiskt.