使用 Dataflow Gen2 將 2 GB 的 Parquet 資料上載到 Lakehouse 資料表的定價情境
在此案例中,Dataflow Gen2 用來將儲存在 Azure Data Lake Storage (ADLS) Gen2 中的 2 GB Parquet 資料載入至 Microsoft Fabric 中的 Lakehouse 資料表。 針對 Parquet 資料,我們使用了紐約市綠色計程車的範例資料。
下列範例中使用的價格為假設,並非表示確切實際價格。 這些只是為了示範如何在 Microsoft Fabric 中預估、規劃和管理 Data Factory 專案的成本。 此外,由於各區域的 Fabric 容量定價各異,我們在美國西部 2(一般 Azure 區域)使用隨用隨付方案,每小時 0.18 美元。 請參閱此處的 Microsoft Fabric - 定價,以探索其他 Fabric 容量定價選項。
組態
若要完成案例,您需要使用下列步驟建立資料流程:
- 初始化資料流:從 ADLS Gen2 記憶體帳戶取得 2 GB Parquet 檔案資料。
- 設定 Power Query:
- 進入 Power Query。
- 確定已啟用暫存查詢的選項。
- 繼續合併 Parquet 檔案。
- 資料轉換:
- 提升標頭的清晰度。
- 移除不必要的資料行。
- 視需要調整欄資料類型。
- 定義輸出資料目的地:
- 將 Lakehouse 設定為資料輸出目的地。
- 此範例中,在 Fabric 中已建置並使用了資料儲存和分析平台 Lakehouse。
使用網狀架構計量應用程式的成本估計
「高規模資料流計算計量」記錄了可忽略不計的活動。 Dataflow Gen2 重新整理作業的標準計算計量會耗用 112,098.540 個計算單位 (OU)。 務必考慮到其他作業,包括倉儲查詢、SQL 端點查詢及資料集隨選重新整理,它們構成 Dataflow Gen2 實施中相當重要的細節層面,這些細節目前在各自的操作中是透明且必要的。 不過,這些作業將會在未來的更新中隱藏,而且在估計 Dataflow Gen2 的成本時應予以忽略。
注意
雖然被用作報告的指標,但在使用 Fabric Metrics App 計算有效 CU 時,執行的實際持續時間並不重要,因為該應用程式報告的 CU 秒計量已經考慮了其持續時間。
計量 | 標準計算 | 高規模計算 |
---|---|---|
CU 總秒數 | 112,098.54 CU 秒 | 0 CU 秒 |
已計費的有效 CU 小時 | 112,098.54 / (60*60) = 31.14 CU 小時 | 0 / (60*60) = 0 CU 小時 |
總執行成本為 0.18 美元/CU 小時 = (31.14 CU 小時) * (0.18 美元/CU 小時) ~= 5.60 美元