Förklara datafabriksprocessen

Slutförd

Datadrivna arbetsflöden

Pipelines (datadrivna arbetsflöden) i Azure Data Factory utför vanligen följande fyra steg:

Data Factory-process

Ansluta och samla in

Det första steget i att skapa ett orkestreringssystem är att definiera och ansluta alla nödvändiga datakällor, till exempel databaser, filresurser och FTP-webbtjänster. Nästa steg är att mata in data efter behov till en central plats för efterföljande bearbetning.

Omvandla och berika

Beräkningstjänster som Databricks och Machine Learning kan användas för att förbereda eller producera transformerade data enligt ett underhållsbart och kontrollerat schema för att mata produktionsmiljöer med rensade och transformerade data. I vissa fall kan du till och med utöka källdata med ytterligare data för att underlätta analysen eller konsolidera dem genom en normaliseringsprocess som ska användas i ett Machine Learning-experiment som exempel.

Publicera

När rådata har förfinats till ett företagsklart förbrukningsformulär från transformerings- och berikarfasen kan du läsa in data i Azure Data Warehouse, Azure SQL Database, Azure Cosmos DB eller den analysmotor som företagsanvändarna kan peka på från sina business intelligence-verktyg

Monitor

Azure Data Factory har inbyggt stöd för pipelineövervakning via Azure Monitor, API, PowerShell, Azure Monitor-loggar och hälsopaneler på Azure Portal för att övervaka schemalagda aktiviteter och pipelines för framgångs- och felfrekvens.