Einführung

Abgeschlossen

Datenpipelines definieren eine Abfolge von Aktivitäten, die einen Gesamtprozess orchestrieren, in der Regel durch Extrahieren von Daten aus einer oder mehreren Quellen und Laden der Daten in ein Ziel. Oft werden sie dabei transformiert. Pipelines werden häufig verwendet, um ETL-Prozesse (Extrahieren, Transformieren und Laden) zu automatisieren, die Transaktionsdaten aus operativen Datenspeichern in einen analytischen Datenspeicher erfassen, z. B. in einem Lakehouse, Data Warehouse oder einer SQL-Datenbank.

Wenn Sie bereits mit Azure Data Factory gearbeitet haben, werden Ihnen Datenpipelines in Microsoft Fabric sofort vertraut vorkommen. Sie verwenden die gleiche Architektur verknüpfter Aktivitäten, um einen Prozess zu definieren, der mehrere Arten von Datenverarbeitungstasks und Ablaufsteuerungslogik beinhalten kann. Sie können Pipelines interaktiv auf der Microsoft Fabric-Benutzeroberfläche ausführen oder die automatische Ausführung planen.