共用方式為


使用 Dataflow Gen2 將 2 GB 的 Parquet 資料上載到 Lakehouse 資料表的定價情境

在此案例中,Dataflow Gen2 用來將儲存在 Azure Data Lake Storage (ADLS) Gen2 中的 2 GB Parquet 資料載入至 Microsoft Fabric 中的 Lakehouse 資料表。 針對 Parquet 資料,我們使用了紐約市綠色計程車的範例資料。

下列範例中使用的價格為假設,並非表示確切實際價格。 這些只是為了示範如何在 Microsoft Fabric 中預估、規劃和管理 Data Factory 專案的成本。 此外,由於各區域的 Fabric 容量定價各異,我們在美國西部 2(一般 Azure 區域)使用隨用隨付方案,每小時 0.18 美元。 請參閱此處的 Microsoft Fabric - 定價,以探索其他 Fabric 容量定價選項。

組態

若要完成案例,您需要使用下列步驟建立資料流程:

  1. 初始化資料流:從 ADLS Gen2 記憶體帳戶取得 2 GB Parquet 檔案資料。
  2. 設定 Power Query:
    1. 進入 Power Query。
    2. 確定已啟用暫存查詢的選項。
    3. 繼續合併 Parquet 檔案。
  3. 資料轉換:
    1. 提升標頭的清晰度。
    2. 移除不必要的資料行。
    3. 視需要調整欄資料類型。
  4. 定義輸出資料目的地:
    1. 將 Lakehouse 設定為資料輸出目的地。
    2. 此範例中,在 Fabric 中已建置並使用了資料儲存和分析平台 Lakehouse。

使用網狀架構計量應用程式的成本估計

顯示網狀架構計量應用程式中作業持續時間和 CU 耗用量的螢幕快照。

顯示 Dataflow Gen2 重新整理持續時間和 CU 耗用量詳細資料的螢幕快照。

此螢幕快照顯示執行中使用的SQL端點查詢持續時間和 CU 耗用量的詳細資料。

此螢幕快照顯示執行中使用的倉儲查詢和 OneLake 計算持續時間和 CU 耗用量的詳細資料。

此螢幕快照顯示執行中使用的查詢和資料集隨選重新整理持續時間和 CU 耗用量和 SQL 端點查詢的詳細資料。

此螢幕快照顯示執行中使用的第二個查詢和資料集隨選重新整理持續時間和 CU 耗用量的詳細資料。

顯示 OneLake Compute 和 2 高規模資料流計算持續時間和執行中所用 CU 耗用量的詳細資料螢幕快照。

「高規模資料流計算計量」記錄了可忽略不計的活動。 Dataflow Gen2 重新整理作業的標準計算計量會耗用 112,098.540 個計算單位 (OU)。 務必考慮到其他作業,包括倉儲查詢、SQL 端點查詢及資料集隨選重新整理,它們構成 Dataflow Gen2 實施中相當重要的細節層面,這些細節目前在各自的操作中是透明且必要的。 不過,這些作業將會在未來的更新中隱藏,而且在估計 Dataflow Gen2 的成本時應予以忽略。

注意

雖然被用作報告的指標,但在使用 Fabric Metrics App 計算有效 CU 時,執行的實際持續時間並不重要,因為該應用程式報告的 CU 秒計量已經考慮了其持續時間。

計量 標準計算 高規模計算
CU 總秒數 112,098.54 CU 秒 0 CU 秒
已計費的有效 CU 小時 112,098.54 / (60*60) = 31.14 CU 小時 0 / (60*60) = 0 CU 小時

總執行成本為 0.18 美元/CU 小時 = (31.14 CU 小時) * (0.18 美元/CU 小時) ~= 5.60 美元