Exemple de tarification : Obtenir des données delta à partir de SAP ECC via SAP CDC dans les flux de données de mappage
S’APPLIQUE À : Azure Data Factory
Azure Synapse Analytics
Conseil
Essayez Data Factory dans Microsoft Fabric, une solution d’analyse tout-en-un pour les entreprises. Microsoft Fabric couvre tous les aspects, du déplacement des données à la science des données, en passant par l’analyse en temps réel, l’aide à la décision et la création de rapports. Découvrez comment démarrer un nouvel essai gratuitement !
Dans ce scénario, vous souhaitez obtenir des modifications delta d’une table dans SAP ECC via le connecteur SAP CDC, effectuer quelques transformations nécessaires en version d’évaluation, puis écrire des données dans le stockage Azure Data Lake Gen2 dans le flux de données de mappage ADF tous les jours. Nous calculerons les prix d’exécution selon une planification une fois par heure pendant 8 heures sur 30 jours.
Les prix mentionnés dans l’exemple ci-dessous sont hypothétiques et ne sont pas destinés à indiquer la tarification réelle exacte. Les coûts de lecture/écriture et de surveillance ne sont pas affichés, car ils sont généralement négligeables et n’ont pas d’impact significatif sur les coûts globaux. Les exécutions d’activité sont également arrondies au 1 000e le plus proche dans les estimations de la calculatrice de prix.
Reportez-vous à la Calculatrice de tarification Azure pour obtenir des scénarios plus spécifiques et estimer vos coûts futurs d’utilisation du service.
Configuration
Pour réaliser ce scénario, créez un pipeline avec les éléments suivants :
- Une activité de flux de données de mappage avec un jeu de données d’entrée pour que les données soient chargées à partir de SAP ECC, de la logique de transformation et d’un jeu de données de sortie pour les données sur le stockage Azure Data Lake Gen2.
- Un runtime d’intégration auto-hébergé référencé au connecteur CDC SAP.
- Un déclencheur de planification pour exécuter le pipeline. Lorsque vous souhaitez exécuter un pipeline, vous pouvez le déclencher immédiatement ou le planifier. En plus du pipeline lui-même, chaque instance de déclencheur compte comme une seule exécution d’activité.
Estimation des coûts
Pour charger des données à partir de SAP ECC via le connecteur SAP CDC dans le flux de données de mappage, vous devez installer votre Self-Hosted Integration Runtime sur un ordinateur local ou une machine virtuelle pour vous connecter directement à votre système SAP ECC. Étant donné que vous serez facturé sur les deux runtime d'intégration auto-hébergé avec 0,10 $/heure et le flux de données de mappage avec son unité de prix vCore-hour.
En supposant que chaque fois qu’il nécessite 15 minutes pour terminer le travail, les estimations des coûts sont comme ci-dessous.
Opérations | Types et unités |
---|---|
Exécution d’un pipeline | 2 exécutions d’activité par exécution (1 pour l’exécution du déclencheur, 1 pour les exécutions d’activités) = 480 arrondies à une valeur supérieure puisque la calculatrice autorise uniquement les incréments de 1000. |
Data Flow : heures d’exécution de calcul général avec 8 cœurs par exécution = 15 minutes | 15 min\60 min |
Microsoft Integration Runtime auto-hébergé : heures d’exécution du déplacement de données 60 par exécution = 15 minutes | 15 min\60 min |
Exemple de calculatrice de prix
Prix total du scénario pendant 30 jours : 138,66 $
Contenu connexe
- Exemple de tarification : Copier des données d’AWS S3 vers le Stockage Blob Azure toutes les heures pendant 30 jours
- Exemple de tarification : Copier des données et les transformer toutes les heures avec Azure Databricks pendant 30 jours
- Exemple de tarification : Copier des données et les transformer toutes les heures avec des paramètres dynamiques pendant 30 jours
- Exemple de tarification : Exécuter des packages SSIS sur le runtime d’intégration Azure-SSIS
- Exemple de tarification : Utilisation du débogage du flux de données de mappage pour une journée de travail normale
- Exemple de tarification : Transformation des données dans le magasin d’objets blob avec des flux de données de mappage
- Exemple de tarif : Intégration de données dans un VNET managé Azure Data Factory