Prisfastsættelsesscenarie ved hjælp af en datapipeline til indlæsning af 1 TB Parquet-data i et data warehouse med midlertidig lagring
I dette scenarie blev en kopiaktivitet brugt i en datapipeline til at indlæse 1 TB parquet-tabeldata, der er gemt i Azure Data Lake Storage (ADLS) Gen2, til et data warehouse med midlertidig lagring i Microsoft Fabric.
De priser, der bruges i følgende eksempel, er hypotetiske og har ikke til hensigt at indebære nøjagtige faktiske priser. Disse er blot for at vise, hvordan du kan estimere, planlægge og administrere omkostninger for Data Factory-projekter i Microsoft Fabric. Da Fabric-kapaciteter prissættes entydigt på tværs af områder, bruger vi også prissætningen efter forbrug for en Fabric-kapacitet i det vestlige USA 2 (et typisk Azure-område) til 0,18 USD pr. CU pr. time. Se Microsoft Fabric – Priser for at udforske andre muligheder for prisfastsættelse for Fabric-kapacitet her.
Konfiguration
Hvis du vil opnå dette scenarie, skal du oprette en pipeline med følgende konfiguration:
Estimering af omkostninger ved hjælp af Appen Fabric Metrics
Dataflytningshandlingen brugte 267.480 CU sekunder med en varighed på 1504,42 sekunder (25,07 minutter), mens aktivitetskørselshandlingen var null, da der ikke var nogen ikke-kopiaktiviteter i pipelinekørslen.
Bemærk
Selvom den er rapporteret som en metrikværdi, er den faktiske varighed af kørslen ikke relevant ved beregning af de effektive CU-timer med Fabric Metrics-appen, da den metrikværdi for CU-sekunder, den også rapporterer, allerede tegner sig for dens varighed.
Metric | Dataflytningshandling |
---|---|
CU-sekunder | 267.480 CU sekunder |
Effektive CU-timer | (267.480) / (60*60) CU-timer = 74,3 CU-timer |
Samlede kørselsomkostninger til $0.18/CU time = (74,3 CU-timer) * ($0,18/CU time) ~= $13,37