Modul 1: Erstellen einer Pipeline mit Data Factory
Dieses Modul nimmt ca. 10 Minuten in Anspruch und behandelt das Erfassen von Rohdaten aus dem Quellspeicher in der Bronze-Tabelle eines Data Lakehouse mithilfe der Copy-Aktivität in einer Pipeline.
Die übergeordneten Schritte in Modul 1 sind wie folgt:
- Erstellen Sie eine Datenpipeline.
- Verwenden einer Copy-Aktivität in der Pipeline zum Laden von Beispieldaten in ein Data Lakehouse.
Erstellen einer Datenpipeline
Ein Microsoft Fabric-Mandantenkonto mit einem aktiven Abonnement ist erforderlich. Erstellen Sie ein kostenloses Konto.
Stellen Sie sicher, dass Sie über einen Microsoft Fabric-aktivierten Arbeitsbereich verfügen: Erstellen eines Arbeitsbereichs.
Melden Sie sich bei Power BIan.
Wählen Sie das Standardmäßige Power BI-Symbol unten links auf dem Bildschirm aus, und wechseln Sie zur Data Factory- Oberfläche.
Wählen Sie Datenpipeline aus, und geben Sie einen Pipelinenamen an. Klicken Sie anschließend auf Erstellen.
Verwenden einer Copy-Aktivität in der Pipeline zum Laden von Beispieldaten in ein Data Lakehouse
Schritt 1: Verwenden Sie den Kopier-Assistenten, um eine Kopieraktivität zu konfigurieren.
Wählen Sie Kopierdaten-Assistent, um das Kopierassistent-Tool zu öffnen.
Schritt 2: Konfigurieren Sie Ihre Einstellungen im Kopier-Assistenten.
Das Daten kopieren Dialogfeld wird angezeigt, wobei der erste Schritt, Datenquelle auswählen, hervorgehoben ist. Wählen Sie Beispieldaten aus den Optionen oben im Dialogfeld aus, und wählen Sie dann NYC Taxi - Greenaus.
Die Datenquellenvorschau wird als Nächstes auf der Seite Mit Datenquelle verbinden angezeigt. Überprüfen Sie, und wählen Sie dann Weiteraus.
Wählen Sie beim Schritt Datenziel auswählen im Kopier-Assistenten die Option Lakehouse aus, und klicken Sie dann auf Weiter.
Wählen Sie auf der angezeigten Konfigurationsseite für das Datenziel Neues Lakehouse erstellen aus, und geben Sie einen Namen für das neue Lakehouse ein. Wählen Sie dann erneut Weiter aus.
Konfigurieren Sie nun die Details Ihres Lakehouse-Ziels auf der Seite Ordnerpfad oder Tabelle auswählen und zuordnen. Wählen Sie Tabellen für den Stammordner aus, geben Sie einen Tabellennamen an, und wählen Sie die Aktion Überschreiben aus. Aktivieren Sie nicht das Kontrollkästchen Partition aktivieren, das angezeigt wird, nachdem Sie die Tabellenaktion Überschreiben ausgewählt haben.
Überprüfen Sie abschließend auf der Seite Überprüfen + speichern des Assistent zum Kopieren von Daten die Konfiguration. Deaktivieren Sie für dieses Tutorial das Kontrollkästchen Datenübertragung sofort starten, da Sie die Aktivität im nächsten Schritt manuell ausführen. Wählen Sie dann OKaus.
Schritt 3: Ausführen und Überprüfen der Ergebnisse der Copy-Aktivität.
Wählen Sie im Pipeline-Editor die Registerkarte Ausführen aus. Wählen Sie dann die Schaltfläche Ausführen aus und dann in der Eingabeaufforderung auf Speichern und ausführen, um die Copy-Aktivität auszuführen.
Sie können die Ausführung überwachen und die Ergebnisse auf der Registerkarte Ausgabe unterhalb der Pipelinecanvas überprüfen. Wählen Sie die Schaltfläche für Ausführungsdetails aus (Brillensymbol, das angezeigt wird, wenn Sie den Mauszeiger auf die Pipelineausführung bewegen), um die Ausführungsdetails anzuzeigen.
Die Ausführungsdetails geben an, dass 1.508.501 Zeilen gelesen und geschrieben wurden.
Erweitern Sie den Abschnitt Aufschlüsselung der Ausführungsdauer, um die Dauer der einzelnen Phasen der Copy-Aktivität anzuzeigen. Nachdem Sie die Kopierdetails überprüft haben, klicken Sie auf Schließen.
Verwandte Inhalte
In diesem ersten Modul zu unserem End-to-End-Lernprogramm für Ihre erste Datenintegration mit Data Factory in Microsoft Fabric haben Sie folgendes gelernt:
- Erstellen Sie eine Datenpipeline.
- Hinzufügen einer Copy-Aktivität zu Ihrer Pipeline.
- Verwenden Sie Beispieldaten, und erstellen Sie ein Data Lakehouse, um die Daten in einer neuen Tabelle zu speichern.
- Ausführen der Pipeline und Anzeigen von Details und der Aufschlüsselung der Ausführungsdauer.
Fahren Sie mit dem nächsten Abschnitt fort, um den Datenfluss zu erstellen.