Prisexempel: Hämta deltadata från SAP ECC via SAP CDC i mappning av dataflöden
GÄLLER FÖR: Azure Data Factory Azure Synapse Analytics
Dricks
Prova Data Factory i Microsoft Fabric, en allt-i-ett-analyslösning för företag. Microsoft Fabric omfattar allt från dataflytt till datavetenskap, realtidsanalys, business intelligence och rapportering. Lär dig hur du startar en ny utvärderingsversion kostnadsfritt!
I det här scenariot vill du få deltaändringar från en tabell i SAP ECC via SAP CDC-anslutningsappen, göra några nödvändiga transformeringar under flygning och sedan skriva data till Azure Data Lake Gen2-lagring i ADF-mappningsdataflöde dagligen. Vi beräknar priser för körning enligt ett schema en gång i timmen i 8 timmar över 30 dagar.
Priserna som används i det här exemplet nedan är hypotetiska och är inte avsedda att innebära exakta faktiska priser. Läs-/skriv- och övervakningskostnader visas inte eftersom de vanligtvis är försumbara och inte påverkar de totala kostnaderna nämnvärt. Aktivitetskörningar avrundas också till de närmaste 1 000 i priskalkylatorns uppskattningar.
Se Priskalkylatorn för Azure för mer specifika scenarier och för att beräkna framtida kostnader för att använda tjänsten.
Konfiguration
För att åstadkomma scenariot måste du skapa en pipeline med följande objekt:
- En mappning Dataflöde aktivitet med en indatauppsättning för data som ska läsas in från SAP ECC, transformeringslogik och en utdatauppsättning för data på Azure Data Lake Gen2-lagring.
- En lokalt installerad integrationskörning som refereras till SAP CDC-anslutningsappen.
- En schemautlösare för att köra pipelinen. När du vill köra en pipeline kan du antingen utlösa den direkt eller schemalägga den. Förutom själva pipelinen räknas varje utlösarinstans som en enda aktivitetskörning.
Kostnadsuppskattning
För att kunna läsa in data från SAP ECC via SAP CDC-anslutningsappen i Mappning Dataflöde måste du installera din lokala integrationskörning på en lokal dator eller virtuell dator för att ansluta direkt till ditt SAP ECC-system. Med tanke på detta debiteras du på både lokalt installerad integrationskörning med $0,10/timme och mappning Dataflöde med prisenheten vCore-hour.
Om vi antar att varje gång det tar 15 minuter att slutföra jobbet är kostnadsuppskattningarna enligt nedan.
Drift | Typer och enheter |
---|---|
Kör pipeline | 2 Aktivitetskörningar per körning (1 för utlösarkörning, 1 för aktivitetskörning) = 480, avrundad eftersom kalkylatorn endast tillåter steg om 1 000. |
Dataflöde: körningstimmar för allmän beräkning med 8 kärnor per körning = 15 minuter | 15 min/60 min |
Lokalt installerad integrationskörning: körningstimmar för dataflytt60 per körning = 15 minuter | 15 min/60 min |
Exempel på priskalkylator
Total prissättning för scenario i 30 dagar: 138,66 USD
Relaterat innehåll
- Prisexempel: Kopiera data från AWS S3 till Azure Blob Storage per timme i 30 dagar
- Prisexempel: Kopiera data och transformera med Azure Databricks per timme i 30 dagar
- Prisexempel: Kopiera data och transformera med dynamiska parametrar per timme i 30 dagar
- Prisexempel: Köra SSIS-paket på Azure-SSIS Integration Runtime
- Prisexempel: Använda felsökning av dataflödesmappning för en normal arbetsdag
- Prisexempel: Transformera data i bloblager med mappning av dataflöden
- Prisexempel: Dataintegrering i Azure Data Factory Managed VNET