Exemple de tarification : Intégration de données dans un VNET managé Azure Data Factory
S’APPLIQUE À : Azure Data Factory Azure Synapse Analytics
Conseil
Essayez Data Factory dans Microsoft Fabric, une solution d’analyse tout-en-un pour les entreprises. Microsoft Fabric couvre tous les aspects, du déplacement des données à la science des données, en passant par l’analyse en temps réel, l’aide à la décision et la création de rapports. Découvrez comment démarrer un nouvel essai gratuitement !
Dans ce scénario, vous souhaitez supprimer des fichiers d’origine d’un Stockage Blob Azure et copier des données d’Azure SQL Database vers le Stockage Blob Azure sur une base horaire pour 8 heures par jour. Nous calculerons le prix sur 30 jours. Vous effectuerez cette opération à deux reprises sur des pipelines différents pour chaque exécution. Le temps d’exécution de ces deux pipelines se chevauche.
Les prix mentionnés dans l’exemple sont hypothétiques et ne sont pas destinés à indiquer la tarification réelle exacte. Les coûts de lecture/écriture et de surveillance ne sont pas affichés, car ils sont généralement négligeables et n’ont pas d’impact significatif sur les coûts globaux. Les exécutions d’activité sont également arrondies au 1 000e le plus proche dans les estimations de la calculatrice de prix.
Reportez-vous à la Calculatrice de tarification Azure pour obtenir des scénarios plus spécifiques et estimer vos coûts futurs d’utilisation du service.
Configuration
Pour réaliser ce scénario, vous créez deux pipelines avec les éléments suivants :
- Activité de pipeline – Supprimer l’activité.
- Activité de copie avec un jeu de données d’entrée pour les données à copier à partir du Stockage Blob Azure.
- Un jeu de données de sortie pour les données sur Azure SQL Database.
- Un déclencheur de planification pour exécuter le pipeline. Lorsque vous souhaitez exécuter un pipeline, vous pouvez le déclencher immédiatement ou le planifier. En plus du pipeline lui-même, chaque instance de déclencheur compte comme une seule exécution d’activité.
Estimation des coûts
Opérations | Types et unités |
---|---|
Exécution d’un pipeline | 6 exécutions d’activité par exécution (2 pour l’exécution du déclencheur, 4 pour les exécutions d’activités) = 1 440 arrondies à une valeur supérieure puisque la calculatrice autorise uniquement les incréments de 1 000. |
Exécution de l’activité de suppression : temps d’exécution du pipeline par exécution = 7 minutes. Si l’exécution de l’activité de suppression dans le premier pipeline est de 10h00 UTC à 10h05 UTC et l’exécution de l’activité de suppression dans le second pipeline est de 10h02 UTC à 10h07 UTC. | Total (7 min + 60 min) / 60 min * 30 exécutions mensuelles = 33,5 heures d’exécution de l’activité de pipeline dans le réseau virtuel managé. L’activité pipeline prend en charge jusqu’à 50 exécutions simultanées par nœud dans le VNET managé. L’activité de pipeline a une durée de vie (TTL) de 60 minutes. |
Hypothèse de données de copie : Temps d’exécution du DIU par exécution = 10 minutes si l’exécution de la copie dans le premier pipeline est de 10:06 AM UTC à 10:15 AM UTC et l’exécution de l’activité de copie dans le second pipeline est de 10:08 AM UTC à 10:17 AM UTC. | [(10 min + 2 min (frais de temps de file d’attente jusqu’à 2 minutes)) / 60 min * 4 Integration Runtime du réseau virtuel managé Azure (paramètre DIU par défaut = 4)] * 2 = 1,6 heure quotidienne d’exécution de l’activité de déplacement de données dans le réseau virtuel managé. Pour plus d’informations sur les unités d’intégration de données et l’optimisation des performances de copie, consultez cet article |
Exemple de calculatrice de prix
Prix total du scénario pendant 30 jours : 83,50 $
Contenu connexe
- Exemple de tarification : Copier des données d’AWS S3 vers le Stockage Blob Azure toutes les heures pendant 30 jours
- Exemple de tarification : Copier des données et les transformer toutes les heures avec Azure Databricks pendant 30 jours
- Exemple de tarification : Copier des données et les transformer toutes les heures avec des paramètres dynamiques pendant 30 jours
- Exemple de tarification : Exécuter des packages SSIS sur le runtime d’intégration Azure-SSIS
- Exemple de tarification : Utilisation du débogage du flux de données de mappage pour une journée de travail normale
- Exemple de tarification : Transformation des données dans le magasin d’objets blob avec des flux de données de mappage
- Exemple de tarification : Obtenir des données delta à partir de SAP ECC via SAP CDC dans les flux de données de mappage