Del via


Prisscenarie ved hjælp af en datapipeline til indlæsning af 1 TB CSV-data i en Lakehouse-tabel

I dette scenarie blev en kopiaktivitet brugt i en datapipeline til at indlæse 1 TB CSV-data, der er gemt i AdLS (Azure Data Lake Storage) Gen2, til en Lakehouse-tabel i Microsoft Fabric.

De priser, der bruges i følgende eksempel, er hypotetiske og har ikke til hensigt at indebære nøjagtige faktiske priser. Disse er blot for at vise, hvordan du kan estimere, planlægge og administrere omkostninger for Data Factory-projekter i Microsoft Fabric. Da Fabric-kapaciteter prissættes entydigt på tværs af områder, bruger vi også prissætningen efter forbrug for en Fabric-kapacitet i det vestlige USA 2 (et typisk Azure-område) til 0,18 USD pr. CU pr. time. Se her Microsoft Fabric – Prissætning for at udforske andre muligheder for prisfastsættelse for Fabric-kapacitet.

Konfiguration

Hvis du vil opnå dette scenarie, skal du oprette en pipeline med følgende konfiguration:

Skærmbillede, der viser konfigurationen af en pipeline, der kopierer CSV-data til en Lakehouse-tabel.

Estimering af omkostninger ved hjælp af Appen Fabric Metrics

Skærmbillede, der viser varigheden og forbruget af CU for jobbet i appen Fabric Metrics.

Dataflytningshandlingen brugte 282.240 CU sekunder med en varighed på 763,78 sekunder (12,73 minutter), mens aktivitetskørselshandlingen var null, da der ikke var nogen ikke-kopiaktiviteter i pipelinekørslen.

Seddel

Selvom den er rapporteret som en metrikværdi, er den faktiske varighed af kørslen ikke relevant ved beregning af de effektive CU-timer med Fabric Metrics-appen, da den metrikværdi for CU-sekunder, den også rapporterer, allerede tegner sig for dens varighed.

Metrikværdi Dataflytningshandling
CU-sekunder 282.240 CU sekunder
Effektive CU-timer (282.240) / (60*60) CU-timer = 78,4 CU-timer

Samlede kørselsomkostninger på $0,18/CU time = (78,4 CU-timer) * ($0,18/CU time) ~= $14,11