共用方式為


使用 Azure Blob 匯入 (預覽) 匯入商務數據

重要事項

這項功能僅適用於公開預覽版客戶。 預覽中的功能可能不完整,而且在更廣泛的版本中可供使用之前,可能會進行變更。

將商務數據上傳至 Viva Insights 可協助您瞭解 Copilot 使用方式如何影響組織最重要的業務成果。 業務成果可能包括工作和作業層級的生產力計量,例如銷售小組傳送的電子郵件數目或已結案的交易數目。 如需深入瞭解,請參閱 我們關於 Copilot 業務成果 (Copilot 業務影響) 報告 的個別檔。

您可以透過兩種方式之一,在 Microsoft Viva Insights 的進階深入解析應用程式中上傳商務數據:透過身為深入解析系統管理員的個別 .csv 檔案,直接上傳至 Viva Insights;或透過您、來源系統管理員和 Azure 參與者設定的 Azure Blob 匯入。

本文涵蓋第二個選項 Azure Blob 匯入。

透過 Azure Blob 匯入,您 Azure 訂用帳戶的擁有者記憶體帳戶參與者 (角色型 存取控制 系統管理員) 會建立具有 Blob 容器的新記憶體帳戶 Azure 入口網站,而您的來源系統管理員會設定定期將 .csv 檔案導出至 Blob 容器的位置。 然後,您可以設定 Viva Insights,從此位置內的 .csv 檔案自動提取商務數據。

工作流程

  1. 設定:

    1. Azure 訂用帳戶擁有者會在 Azure 入口網站 上建立安全的 Blob 容器。 敏感性商務數據的 Blob 存放區位置應該是安全的,而且必須在客戶的 Azure 訂用帳戶中設定。

    2. 如果 Azure 參與者偏好服務主體授權,Azure 參與者會授權服務主體,並以安全的方式共用 Blob URL 給 Insights 系統管理員和來源系統管理員。 如果 Azure 參與者不偏好服務主體授權,他們會產生 SAS URL,並提供給 Insights 系統管理員和來源系統管理員。

    3. 來源系統管理員會準備 .csv 檔案中的數據,並設定定期將檔案從 HR 來源系統匯出至 Blob 容器。

    4. Insights 系統管理員會在 Viva Insights 應用程式中輸入 URL,以從 Azure Blob 存放區位置開啟匯入。 Insights 管理員 也會上傳商務數據的對應檔案。

  2. 驗證:Viva Insights 驗證數據。 (如果驗證不成功,您可以從驗證 失敗中所述的幾個選項中選擇。)

  3. 處理:Viva Insights 處理數據。 (如果處理不成功,您可以從 處理失敗中所述的幾個選項中選擇。)

    在數據成功驗證和處理之後,整體數據匯入工作就會完成。

影片教學課程

安裝程式

1.建立安全的 Blob 容器

適用於:在帳戶層級具有至少記憶體 Blob 數據參與者許可權的 Azure 訂用帳戶擁有者

  1. 開啟瀏覽器並登入組織的 Azure 入口網站。

  2. [Azure 服務] 底下,選取 [ 記憶體帳戶]

  3. 在左上方的 [記憶體帳戶 ] 下,選取 [ 建立 ] 以設定新的儲存體帳戶。

  4. [專案詳細數據] 底下,使用預設設定。

  5. [實例詳細數據] 下,輸入記憶體帳戶名稱,然後選取您的區域。 針對主要服務,請使用支援階層命名空間的 Gen 2 記憶體帳戶。 深入瞭解如何建立 Azure 記憶體帳戶

  6. 針對效能和備援,除非您需要進行變更,否則可以使用預設設定。

  7. 在底部,選取 [ 下一步 ] 以移至 [進階] 區段。

  8. 在 [進階] 頁面上,選取 [ 需要 REST API 作業的安全傳輸 ] 和 [ 啟用記憶體帳戶密鑰存取]。 針對 [最低 TLS 版本],請至少選取 1.2 版。 選 取 [啟用階層命名空間]

  9. 對於所有其他進階設定,除非您需要進行變更,否則可以使用預設設定。

  10. 在底部,選取 [ 下一步:網络]

  11. 在 [ 網络連線能力] 下,選取 [ 啟用所有網络的公用存取]

  12. [網络路由] 下,選取您的路由喜好設定。

  13. 在底部,選取 [ 下一步:數據保護]

  14. 在 [數據保護] 頁面上,除非您需要進行變更,否則可以使用預設設定。

  15. 在底部,選取 [ 下一步:加密]

  16. 在 [加密] 頁面上,除非您需要進行變更,否則可以使用預設設定。

  17. 在底部,選取 [ 下一步:卷標]

  18. 選擇性:將標籤新增至帳戶。

  19. 在底部,選取 [ 下一步:檢閱]

  20. 檢閱您的選取專案。 然後,選取左下方的 [ 建立]

  21. 在下一個頁面上,會出現一則訊息,指出「部署正在進行中」。部署完成後,您的記憶體帳戶及其設定將會出現。

  22. 在左側的 [ 數據記憶體] 下,選取 [ 容器]

  23. 若要建立新的容器,請在頂端選取 [ 容器]。 然後,在右側輸入容器的名稱,例如 「myCustomData」。。在底部,選取 [ 建立]

2.授權 Blob 容器

適用於:在帳戶層級具有至少記憶體 Blob 數據參與者許可權的 Azure 訂用帳戶擁有者

接下來,您必須建立 Blob SAS URL 或授權 工作場所分析 服務主體。 服務主體授權是建議且更安全的方法。 Blob SAS 令牌沒有任何內建的稽核功能。 針對您選擇的方法,請遵循下列適當步驟。

針對服務主體授權

  1. 在左面板上,選取 [存取控制]。

  2. 在頂端,選取 [角色指派]。 選取 [新增],然後選取 [ 新增角色指派]

  3. 在角色清單中,尋找並選取 [記憶體 Blob 數據參與者]

  4. [成員] 旁, 選取 [選取成員]。 在右側的搜尋欄位中,輸入 工作場所分析並加以選取。

  5. 在左下方,選取 [ 檢閱 + 指派]

  6. 在左面板的 [ 資料記憶體] 下,選取 [ 容器]

  7. 選取您在上述步驟中建立的記憶體容器。

  8. 在左面板的 [ 設定] 下,選取 [ 屬性]

  9. 複製URL並與Insights系統管理員安全地共用。

  10. 讓來源系統管理員知道,誰將填入此容器中的數據。 他們將需要記憶體 Blob 數據參與者存取權。

針對SAS URL授權

  1. 當您建立的新記憶體容器出現時,請選取它。 然後,在左側的 [ 設定] 下方,選 取 [存取原則]

  2. 在 [ 預存存取原則] 底下,選取 [ 新增原則]。 提供唯一標識符,例如 「BlobStoreVivaInsights」。。選取 [讀取 ] 和 [列出 許可權]。 選取過去幾分鐘的開始時間,以及一年後的結束時間。 選取 [確定]

  3. 在左側的 [ 設定] 下方,選取 [ 共用存取令牌]

  4. 您可以使用 [ 簽署金鑰] 下的預設選項。 在 [ 預存存取原則] 下,選取上面建立的原則。 這會自動填入到期窗口和許可權清單。

  5. 針對 [允許的IP 位址 ] 和 [ 允許的通訊協定],您可以使用預設設定。

  6. 取 [產生 SAS 令牌和 URL]

  7. 複製 Blob SAS URL 並與 Insights 系統管理員安全地共用。

  8. 讓來源系統管理員知道,誰將填入此容器中的數據。 他們將需要記憶體 Blob 數據參與者存取權。

3.設定 Viva Insights 以從 Blob 位置匯入數據

適用於:深入解析系統管理員

商務數據可能有不同的數據源,而且可能會根據不同的排程更新。 例如,客戶滿意度和銷售活動計量可能會有不同的來源系統和來源系統管理員。 您應該為每個 Blob 連線設定個別的 Blob 連線,Viva Insights 將其稱為「數據集」。

  1. 從進階深入解析應用程式中的兩個位置之一開始匯入:[數據中樞] 頁面;或 [平台設定] 底下的 [商務數據] 頁面。

    • 數據中樞

      1. 在右面板的 [ 商務數據源] 下,選取 [Azure Blob 匯入]
      2. 選取 [開始]
    • [商務數據 ] 頁面:

      1. 取 [管理數據源],然後選取 [Azure Blob 匯入]
      2. 選取 [開始]
  2. 在 [Azure Blob 連線] 頁面的 [ 連線名稱] 下,輸入匯入的唯一名稱。

  3. [授權類型] 下,選取 [服務主體授權] 或 [SAS URL 授權]。 您在這裡的選擇取決於您在上述步驟 2 中 Azure 參與者所使用的授權方法。

  4. 輸入步驟 2 中 Azure 參與者提供給您的匯入 Blob SAS URLBlob URL

  5. 上傳metadata.json檔案,其輸入如下所述:

    • 若要進行累加式上傳並輕鬆存取此數據,請為此數據集輸入「數據集名稱」和「數據集類型」。 例如,您可以從銷售小組上傳兩個不同的數據集,以了解客戶滿意度和帳戶保留期。 您可以將類型 「Sales」 指派給這些數據集,並將它們命名為 「CSAT」 和 「Account」。分析師可以在設定查詢時搜尋其名稱和類型來探索此數據。 數據集名稱和類型不應該包含空格。

    • "Dataset type":資料類別目錄的名稱,例如「銷售數據」。除了這些系統保留類型以外,您可以指派任何唯一的類型:“Survey”、“CRM”、“Person”、“Signal”、“AnalystUploadedData”、“UserSkills”、“HeirarchicalSkills”、“RelatedSkills”、“SkillsLibrary”、“ManagerHierarchy”、“Learning”、“None”、“InteractiveExplorationPersonOutput”、“None”

    • "Dataset name":代表數據類別目錄中特定數據表的唯一名稱。 如果您的數據集類型名為 「SalesData」,則範例數據集可以是 「交易」、「清查」或「訂單」。

    • "IsBootstrap":根據預設,這會設定為 False 。 只有當您想要覆寫先前上傳的數據表時,才設定為 True (請參閱數據集名稱) 。

    • "ColumnMap":除了 PersonId 和 StartDate 的必要欄位之外,還包含您 .csv 檔案中的自訂字段。 針對自訂欄位,您必須包含名稱和資料類型。

      • 用於源數據行的標籤 (名稱為 「BusinessMetric1」、“BusinessMetric2” 和 “BusinessMetric3” 的) 應該符合 .csv 檔案中的數據行名稱。

      • “name” 屬性應該代表您想要在報表輸出中看到反映的名稱。 請確定您挑選的標籤遵循 這些規則

      • 您有兩個選項可指定 「type」:

        • 如果您的數據值包含整數,請輸入 “int32”
        • 如果您的數據值包含小數點,請輸入 “double”

    注意事項

    您必須上傳數值商務成果數據,以用於進階深入解析中的任何報表。

    以下是範例元數據檔案:

    { 
      "DatasetType": "SalesData", 
      "IsBootstrap": "false", 
      "properties": { 
        "DatasetName":  "Deals" 
      }, 
      "ColumnMap": { 
        "StartDate": { 
          "name": "StartDate", 
          "type": "DateTime_MMDDYYYY" 
        }, 
        "PersonId": { 
          "name": "PersonId", 
          "type": "EmailType" 
        }, 
        "BusinessMetric1": { 
          "name": " Metric1", 
          "type": "int32" 
        }, 
        "BusinessMetric2": { 
          "name": " Metric2", 
          "type": "int32" 
        }, 
        "BusinessMetric3": { 
          "name": " Metric3", 
          "type": "double" 
        } 
      } 
    }
    

    例如,假設您的來源系統管理員使用 「PipelineGenerated」 來擷取已建立的交易數目。 程式代碼會是:

    "PipelineGenerated": { 
    
    "name": "DealsCreated", 
    
    "type": "int32" 
    
    } 
    

    當您上傳數據時,數據會記錄為整數類型的 “PipelineGenerated”。 請確定您上傳數值結果。 深入瞭解如何設定您的商務數據檔

  6. 選取 [提交]

  7. 如果您看到錯誤訊息,請檢查以確定您已遵循上述所有步驟,並檢查以確定您輸入的 Blob SAS URL 或 Blob URL 正確無誤。 選取 [重試]

4.準備商務數據文件並傳送至 Blob 存放區

適用於:在帳戶層級具有至少記憶體 Blob 數據參與者許可權的 Azure 訂用帳戶擁有者

工作 1 - 準備您的數據

首先,為每個數據集建立個別的 .csv 檔案。 如需數據結構和指導方針,請參閱範 例 .csv 範本 ,以避免常見問題,例如太多或太少的唯一值、備援字段、無效的數據格式等等。  深入瞭解檔案規則和驗證錯誤

以這種方式結構化數據:

  • 將您想要匯入的所有欄位新增至檔案

  • 必要的欄位為 “PersonId” 和 “StartDate”

  • 所有商務數據都應該以每月和每個人員層級進行計算

  • “StartDate” 應該代表月份的數據,而日期應該代表月份的第一個。 例如,2024 年 1 月應該以 1/1/2024 表示。 建議至少使用三個月的商務數據。

  • 為您想要分析的每個業務成果計量新增一個數據行。

  • 您必須上傳數值商務成果數據,以用於進階深入解析中的任何報表。

注意事項

在建立連線和對應上傳之前卸除的任何檔案,都不會由 Viva Insights 挑選。 因此,請務必先建立連線,再卸除檔案。

工作 2 - 將資料從來源系統匯出至 Blob 存放區

必要資源:在先前工作中建立的 .csv 檔案

依照您決定的頻率,以程式設計方式將商務數據從來源系統匯出為 .csv 檔案至 Blob 存放區。 或者,您可以在 Azure 入口網站 中手動將 .csv 檔案上傳至 Blob 存放區。

5.驗證

適用於:深入解析系統管理員

在來源系統管理員匯出數據並設定匯入之後,應用程式就會開始驗證。 在大部分情況下,檔案驗證應該會快速完成。

完成此階段之後,驗證會成功或失敗。 視結果而定,您會在 商務數據匯入歷程記錄數據表中收到成功狀態或失敗狀態。 

如需接下來會發生什麼事的相關信息,請移至適當的區段:

驗證成功

驗證成功之後,Viva Insights 開始處理新的數據。 處理可能需要幾小時到一天左右的時間。 在處理期間,您會在匯入 歷程記錄 數據表上看到「處理」狀態。

處理完成之後,它會成功或失敗。 根據結果,您會在匯入 歷程記錄 數據表中找到「成功」或「失敗」狀態。

處理成功

當您在匯入 歷程記錄 數據表中找到「成功」狀態時,上傳程式已完成。 在您收到「成功」狀態之後,您可以:

  • 選取檢視 (眼) 圖示,以查看驗證結果的摘要。

  • 選取對應圖示以查看工作流程的對應設定。

處理失敗

如果處理失敗,您會在匯入 歷程記錄 數據表中找到「處理失敗」狀態。 若要讓處理成功,來源系統管理員必須更正錯誤,並將數據推送至 Viva Insights。

注意事項

處理失敗通常是因為後端錯誤。 如果您看到持續性處理失敗,且您已更正匯入檔案中的數據,請 向我們記錄支援票證

驗證失敗

如果數據驗證失敗,您會在匯入 歷程記錄 數據表中看到「驗證失敗」狀態。 若要讓驗證成功,來源系統管理員必須更正錯誤,並將數據重新傳送至 Blob 存放區。 在 [ 動作] 底下,選取下載圖示以下載錯誤記錄檔。 將此記錄傳送給來源系統管理員,讓他們在再次傳送數據之前知道要更正的事項。

來源系統管理員可能會發現下一節有助於修正其導出檔案中的數據錯誤。

關於數據中的錯誤

適用於:來源系統管理員

當任何數據列或數據行具有任何屬性的無效值時,整個匯入都會失敗,直到數據源管理員修正源數據為止。

如果您的檔案格式不正確,您可能會遇到一些匯入特定錯誤:

  • .csv 檔案是空的。 新增非空白 .csv 檔案,然後再次上傳。

  • 如果 zip 檔案上傳至 Blob 位置,請改為上傳 .csv。

  • 如果.json檔案中遺漏必要字段,請再次檢查並上傳對應檔案。

  • 源數據行未對應至支持的數據類型。 對應至支持的數據類型,然後再次上傳檔案。

  • .csv 檔案中的標頭名稱與您在.json檔案中對應的欄位不符。 請確定.json檔案包含與 .csv 檔案相同的字段,然後再次上傳 .zip 檔案。

  • .csv 檔案中的標頭數目與您在.json檔案中對應的字段不符。 請確定.json檔案包含與 .csv 檔案相同的字段,然後再次上傳 .zip 檔案。

  • 您的 .csv 檔案會對應至.json檔案中的 null 或空白字段。 將它對應至非空白欄位,然後再次上傳 .zip 檔案。

  • 瞭解其他檔案規則和驗證錯誤

暫停狀態

如果您在匯入 歷程記錄 數據表中看到「暫停」狀態,或當您選取 [ 管理數據源] 時,這表示您的授權認證已過期,或存取權已撤銷。 您必須更新認證並重新連線數據來源。

新增數據和管理數據集

適用於:深入解析系統管理員

設定數據匯入之後,請使用下列步驟將新數據新增至現有數據集、建立新的數據集、關閉自動匯入等等。

  1. 在 [ 商務數據] 頁面上,選取 [管理數據源]

  2. [Azure Blob] 下,選取 [ 管理]

    • 若要新增數據集,請選取 [ 新增數據集],然後遵循 上述步驟 3 中所述的程式。

    • 若要刪除數據集,請選取您想要刪除的數據集旁邊的垃圾桶圖示。

    • 若要變更現有的數據集,請選取設定圖示。

    • 若要將新數據新增至現有的數據集,請選取數據集旁邊的加號圖示。

    在下一個頁面上,您可以編輯連線名稱、Blob SAS URL 或 Blob URL。 如果您更新 SAS URL 或 URI,未來數據重新整理會使用新的位置。

    您也可以開啟或關閉自動匯入。 完成後,選取[儲存]。

    若要使用現有的 Blob SAS URL 或 Blob URL 來取代或編輯商務數據,請連絡您的來源系統管理員。當您將資料匯入 Viva Insights 時,您將執行完整或累加式重新整理。 如果您想要刪除欄位,您可以使用完整重新整理來執行此動作。

重新整理類型

Full

當您執行完整重新整理時,您會取代 Viva Insights 中的所有商務數據,也就是覆寫您已匯入的專案。 必要的欄位為 PersonId 和 StartDate。

您可以使用完整重新整理來刪除欄位,因為遺失的欄位不會顯示在您的資料中。 我們將在下一節中討論刪除數據。

刪除具有完整重新整理的欄位

若要刪除具有完整重新整理的欄位,請將數據匯出為包含您想要刪除之欄位以外所有欄位的 .csv。 因為完整重新整理會取代現有的數據,所以除了您在匯入期間遺漏的欄位之外,您最後會使用每個字段。

增量

當您只想要將新資訊新增至已上傳至 Viva Insights 的商務數據時,請執行累加式重新整理。 透過累加式重新整理,您可以為現有員工新增新的商務數據,或編輯現有的商務數據。

如何指出完整或累加式重新整理
  1. 在metadata.json中,移至第 3 行。

  2. "IsBootstrap"將 : 屬性更新為下列其中一項:

    • 如需完整重新整理,請使用 "IsBootstrap" : "true"

    • 若要進行累加式重新整理,請使用 "IsBootstrap" : "false"

當您的匯入選項執行時,Viva Insights 會根據您在 metadata.json 中指定的內容,開始以完整或累加式重新整理的方式處理您的數據。

重要事項

請確定您刪除metadata.json中未包含在 data.csv 檔案中的任何字段。 如果您的metadata.json檔案中有比 data.csv 檔案更多的欄位,或反之亦然,則匯入的處理將會失敗。

要包含在 data.csv 中以進行完整和累加式重新整理的欄位

完整和累加式重新整理應該包含一組相同的必要字段:PersonId 和 StartDate。 StartDate 值應該與每月界限對齊。 從元數據.json檔案中移除您 .csv 中沒有的任何字段。