Freigeben über


Preisszenario mit einer Datenpipeline zum Laden von 1 TB Parquet-Daten in ein Data Warehouse

In diesem Szenario wurde eine Copy-Aktivität in einer Datenpipeline verwendet, um 1 TB Parquet-Daten zu laden, die in Azure Data Lake Storage (ADLS) Gen2 in ein Data Warehouse in Microsoft Fabric gespeichert sind.

Die im folgenden Beispiel verwendeten Preise sind hypothetisch und stellen nicht die tatsächlichen genauen Preise dar. Diese Beispiele sollen nur zeigen, wie Sie die Kosten für Data Factory-Projekte in Microsoft Fabric schätzen, planen und verwalten können. Da die Preise für Fabric-Kapazitäten in jeder Region unterschiedlich sind, verwenden wir nutzungsbasierte Preise für eine Fabric-Kapazität in USA, Westen 2 (einer typischen Azure-Region) in Höhe von 0,18 $ pro CU und Stunde. Weitere Preisoptionen für Fabric-Kapazitäten finden Sie unter Microsoft Fabric – Preise.

Konfiguration

Um dieses Szenario zu realisieren, müssen Sie eine Pipeline mit der folgenden Konfiguration erstellen:

Screenshot showing the configuration of a pipeline copying Parquet data from ADLS Gen2 to a data warehouse.

Kostenschätzung mithilfe der Fabric-Metrik-App

Screenshot showing the duration and CU consumption of the job in the Fabric Metrics App.

Der Datenverschiebungsvorgang beanspruchte 3.960 CU-Sekunden mit einer Dauer von 662,64 Sekunden, während der Aktivitätsausführungsvorgang null war, da es keine Nicht-Copy-Aktivitäten in der Pipelineausführung gab.

Hinweis

Obwohl die tatsächliche Ausführungsdauer als Metrik gemeldet wird, ist sie für die Berechnung der effektiven CU-Stunden mit der Fabric-Metrik-App nicht relevant, da die ebenfalls gemeldete CU-Sekunden-Metrik die Dauer bereits berücksichtigt.

Metrik Datenverschiebungsvorgang
CU-Sekunden 3.960 CU-Sekunden
Effektive CU-Stunden (3.960) / (60*60) CU-Stunden = 1,1 CU-Stunden

Gesamtlaufkosten bei 0,18 $/CU-Stunde = (1,1 CU-Stunden) * (0,18 $/CU-Stunde) ~= 0,20 $