Scénario de tarification utilisant un pipeline de données pour charger 1 To de données Parquet dans une table Lakehouse
Dans ce scénario, une activité Copy a été utilisée dans un pipeline de données pour charger 1 To de données Parquet stockées dans Azure Data Lake Storage (ADLS) Gen2 dans une table Lakehouse dans Microsoft Fabric.
Les prix utilisés dans l’exemple suivant sont hypothétiques et n’ont pas vocation à indiquer une tarification réelle exacte. Il s’agit simplement de montrer comment estimer, planifier et gérer les coûts des projets Data Factory dans Microsoft Fabric. En outre, étant donné que les capacités de Fabric sont facturées de manière unique entre les régions, nous utilisons la tarification de paiement à l’utilisation pour une capacité Fabric dans la région USA Ouest 2 (région Azure classique), à 0,18 $ par unité de capacité par heure. Reportez-vous ici à Microsoft Fabric : tarification pour explorer d’autres options de tarification de capacité Fabric.
Configuration
Pour réaliser ce scénario, créez un pipeline avec la configuration suivante :
Estimation des coûts à l’aide de l’application de métriques Fabric
L’opération de déplacement des données a utilisé 291 960 CU secondes avec une durée de 810,16 secondes (13,5 minutes), tandis que l’opération d’exécution de l’activité était nulle, car il n’y avait pas d’activités de non-copie dans l’exécution du pipeline.
Remarque
Bien qu’elle soit signalée en tant que métrique, la durée réelle de l’exécution n’est pas pertinente lors du calcul des CU heures effectives avec l’application de métriques Fabric étant donné que la métrique CU secondes qu’elle signale est déjà comptabilisée pour sa durée.
Métrique | Opération de déplacement des données |
---|---|
CU secondes | 291 960 CU secondes |
CU heures effectives | (291 960) / (60*60) CU heures = 81,1 CU heures |
Coût total d’exécution à 0,18 $/CU heure = (81,1 CU heures) * (0,18 $/CU heure) ~= 14,60 $