Freigeben über


Preisszenario mit Dataflow Gen2 zum Laden von 2 GB lokalen CSV-Daten in eine Lakehouse-Tabelle

In diesem Szenario wurde Dataflow Gen2 verwendet, um 2 GB lokale CSV-Daten in eine Lakehouse-Tabelle in Microsoft Fabric zu laden.

Die im folgenden Beispiel verwendeten Preise sind hypothetisch und stellen nicht die tatsächlichen genauen Preise dar. Diese Beispiele sollen nur zeigen, wie Sie die Kosten für Data Factory-Projekte in Microsoft Fabric schätzen, planen und verwalten können. Da die Preise für Fabric-Kapazitäten in jeder Region unterschiedlich sind, verwenden wir nutzungsbasierte Preise für eine Fabric-Kapazität in USA, Westen 2 (einer typischen Azure-Region) in Höhe von 0,18 $ pro CU und Stunde. Weitere Preisoptionen für Fabric-Kapazitäten finden Sie unter Microsoft Fabric – Preise.

Konfiguration

Um dieses Szenario zu realisieren, müssen Sie einen Dataflow mit den folgenden Schritten erstellen:

  1. Initialisieren des Dataflows: Beginnen Sie, indem Sie 2 GB CSV-Dateien aus Ihrer lokalen Umgebung in den Dataflow hochladen.
  2. Konfigurieren der Power Query:
    1. Navigieren Sie zu Power Query.
    2. Deaktivieren Sie die Option zum Staging der Abfrage.
    3. Fahren Sie fort, um die CSV-Dateien zu kombinieren.
  3. Datentransformation:
    1. Stufen Sie Kopfzeilen zur Übersichtlichkeit höher.
    2. Entfernen Sie überflüssige Spalten.
    3. Passen Sie die Spaltendatentypen nach Bedarf an.
  4. Definieren des Ausgabedatenziels:
    1. Konfigurieren Sie Lakehouse als Datenausgabeziel.
    2. In diesem Beispiel wurde ein Lakehouse in Fabric erstellt und verwendet.

Kostenschätzung mithilfe der Fabric-Metrik-App

Screenshot, der die Dauer und den CU-Verbrauch des Auftrags in der Fabric Metrics App zeigt.

Screenshot mit Details zu den Kosten für die Aktualisierung von Dataflow Gen2.

Screenshot mit Details zu einem Dataflow Gen2 High Scale Dataflow Compute-Verbrauch, der in der Ausführung verwendet wird.

Screenshot mit Details zu einem zweiten Dataflow Gen2 High Scale Dataflow Compute-Verbrauch, der in der Ausführung verwendet wird.

Der Dataflow Gen2-Aktualisierungsvorgang verbrauchte 4749,42 CU-Sekunden, und zwei High Scale Dataflows Compute-Vorgänge verbrauchten jeweils 7,78 CU-Sekunden + 7,85 CU-Sekunden.

Hinweis

Obwohl die tatsächliche Ausführungsdauer als Metrik gemeldet wird, ist sie für die Berechnung der effektiven CU-Stunden mit der Fabric-Metrik-App nicht relevant, da die ebenfalls gemeldete CU-Sekunden-Metrik die Dauer bereits berücksichtigt.

Metrik Computeverbrauch
Dataflow Gen2-Aktualisierung CU-Sekunden 4749,42 CU-Sekunden
High Scale Dataflows Compute CU-Sekunden (7,78 + 7,85) 15,63 CU-Sekunden
Effektiv berechnete CU-Stunden (4749,42 + 15,63) / (60*60) = 1,32 CU-Stunden

Gesamtlaufkosten bei 0,18 $/CU-Stunde = (1,32 CU-Stunden) * (0,18 $/CU-Stunde) ~= 0,24 $