Transformieren von Daten durch Ausführen einer Spark-Auftragsdefinitionsaktivität
Mit der Spark-Auftragsdefinitionsaktivität in Data Factory für Microsoft Fabric können Sie Verbindungen zu Ihren Spark-Auftragsdefinitionen erstellen und sie aus einer Datenpipeline ausführen.
Voraussetzungen
Um zu beginnen, müssen die folgenden Voraussetzungen erfüllt sein:
- Ein Mandantenkonto mit einem aktiven Abonnement. Sie können kostenlos ein Konto erstellen.
- Ein Arbeitsbereich wurde erstellt.
Hinzufügen einer Spark-Auftragsdefinitionsaktivität zu einer Pipeline mit Benutzeroberfläche
Erstellen Sie eine neue Datenpipeline in Ihrem Arbeitsbereich.
Suchen Sie auf der Karte der Startseite nach Spark-Auftragsdefinition aktualisieren und wählen Sie sie aus, oder wählen Sie die Aktivität in der Leiste Aktivitäten aus, um sie dem Pipeline-Kollaborationsbereich hinzuzufügen.
Wählen Sie die neue Spark-Auftragsdefinitionsaktivität im Pipeline-Editor-Kollaborationsbereich aus, wenn er nicht bereits ausgewählt ist.
Informationen zur Konfiguration der Optionen auf der Registerkarte Allgemeine Einstellungen finden Sie in der Anleitung Allgemeine Einstellungen.
Einstellungen der Spark-Auftragsdefinitionsaktivität
Wählen Sie im Eigenschaftsbereich der Aktivität die Registerkarte Einstellungen und dann den Fabric-Arbeitsbereich, der die Spark-Auftragsdefinition enthält, die Sie ausführen möchten.
Bekannte Einschränkungen
Die aktuellen Einschränkungen in der Spark-Auftragsdefinitionsaktivität für Fabric Data Factory sind hier aufgeführt. Änderungen dieses Abschnitts sind vorbehalten.
- Das Erstellen einer neuen Spark-Auftragsdefinitionsaktivität innerhalb der Aktivität wird derzeit nicht unterstützt (unter Einstellungen)
- Die Parameterisierungsunterstützung ist nicht verfügbar.
- Obwohl wir die Überwachung der Aktivität über die Ausgaberegisterkarte unterstützen, können Sie die Spark-Auftragsdefinition noch nicht auf einer detaillierteren Ebene überwachen. Links zur Überwachungsseite, zum Status, zur Dauer und zur vorherigen Spark-Auftragsdefinition sind beispielsweise nicht direkt in der Data Factory verfügbar. Auf der Überwachungsseite Spark-Auftragsdefinition werden jedoch genauere Details angezeigt.
Speichern und Ausführen oder Planen der Pipeline
Nachdem Sie alle anderen Aktivitäten konfiguriert haben, die für Ihre Pipeline erforderlich sind, wechseln Sie oben im Pipeline-Editor zur Registerkarte Start, und klicken Sie auf die Schaltfläche „Speichern“, um die Pipeline zu speichern. Wählen Sie Ausführen aus, um sie direkt auszuführen, oder Planen, um sie zu planen. Sie können hier auch den Ausführungsverlauf anzeigen oder andere Einstellungen konfigurieren.