Fabric 中 Copilot 的隱私權、安全性和負責任使用
在企業開始使用 Fabric 中的 Copilot 之前,您可能會對其運作方式、如何保護您的商務資料安全以及遵守隱私權需求,以及如何負責任地使用生成式 AI 存有疑問。
本文章提供與商務資料安全性和隱私權相關常見問題的解答,協助您的組織開始在 Fabric 中使用 Copilot。 Power BI 中 Copilot 的隱私權、安全性和負責任使用 (預覽版) 一文提供了 Power BI 中的 Copilot 的概觀。 如需適用於 Fabric 的 Copilot 的詳細資料,可參閱該文。
注意
- 您的系統管理員必須先啟用租用戶參數,您才能開始使用 Copilot。 如需詳細資料,請參閱 Copilot 租用戶設定一文。
- 您的 F64 或 P1 容量需要位於此文章 (Fabric 區域可用性) 所列的其中一個區域。
- 如果您的租用戶或容量位於美國或法國以外,在預設下會停用 Copilot,除非您的 Fabric 租用戶管理員在 Fabric 管理員入口網站中啟用傳送至 Azure OpenAI 的資料可以在租用戶的地理國家/地區、合規性邊界或國家雲端執行個體處理的租用戶設定。
- 試用版 SKU 不支援 Microsoft Fabric 中的 Copilot。 僅支援付費 SKU (F64 或更新版本,或 P1 或更新版本)。
- Fabric 中的 Copilot 目前正以公開預覽形式推出,預計將於 2024 年 3 月底提供給所有客戶使用。
- 如需詳細資訊,請參閱 Fabric 和 Power BI 中的 Copilot 概觀一文。
您的商務資料是安全的
- Copilot 功能使用由 Microsoft 完全控制的 Azure OpenAI 服務。 您的資料不會用來訓練模型,而且無法提供給其他客戶使用。
- 您可以保留資料處理位置的控制權。 除非明確允許在區域外部處理資料 (例如,讓您的使用者在區域無法使用 Azure OpenAI 或因為高需求而受到限制時使用 Copilot),否則 Fabric 中 Copilot 處理的資料會保留在租用戶的地理區域內。 深入了解 Copilot 的管理員設定。
- Copilot 不會儲存您的資料以進行濫用監視。 為了增強隱私權和信任,我們更新了濫用監視的方法:先前,我們會在 Fabric 中保留數據 Copilot ,其中包含提示輸入和輸出,最多 30 天,以檢查濫用或濫用。 客戶意見反應之後,我們已排除此 30 天的保留期。 現在,我們不再儲存提示相關資料,展示了我們對隱私和安全性的堅定承諾。
使用之前請先檢查 Copilot 輸出
- Copilot 回應可能包含不準確的或低品質內容,因此,請務必先審查輸出,再在您的工作中使用這些輸出。
- 能夠有意義地評估內容正確性和適當性的人員,應審查這些輸出。
- 目前,Copilot 功能在英文中效果最佳。 其他語言可能表現不佳。
重要
檢閱 Fabric 的補充預覽條款,其中包括 Microsoft 生成式 AI 服務預覽版的使用規定。
Copilot 的運作方式
在本文中,Copilot 指的是由 Azure OpenAI 服務提供之 Fabric 中的一系列生成式 AI 特性和功能。
一般而言,這些功能的設計目的是根據下列項目來產生自然語言、程序碼或其他內容:
(a) 您提供的輸入,以及
(b) 特徵可存取的基礎資料。
例如,Power BI、Data Factory 和資料科學提供 Copilot 聊天,您可以在其中詢問問題並取得與您資料內容相關的回應。 Copilot for Power BI 也可以建立報表和其他視覺效果。 Copilot for Data Factory 可以轉換您的資料,並說明已套用的步驟。 Data science 提供 Copilot 聊天窗格以外的功能,例如筆記本中的自訂 IPython magic 命令。 Copilot 聊天可能會新增至 Fabric 中的其他體驗,以及 Azure OpenAI 在幕後提供的其他功能。
這項資訊會傳送至 Azure OpenAI 服務,並在其中進行處理及產生輸出。 因此,Azure OpenAI 所處理的資料可能包括:
基礎資料可能包含資料集結構描述、特定資料點,以及其他與使用者目前工作相關的資訊的組合。 檢閱每個體驗區段,以取得該案例中 Copilot 功能可存取哪些資料的詳細資料。
與 Copilot 的互動是每個使用者特有的。 這表示 Copilot 只能存取目前使用者有權存取的資料,而且只有該使用者才能看到其輸出,除非該使用者與其他人共用輸出,例如共用產生的 Power BI 報表或產生的程式碼。 Copilot 不會使用相同租用戶或其他租用戶中其他使用者的資料。
Copilot 會使用 Azure OpenAI,而非公開可用的 OpenAI 服務,來處理所有資料,包括使用者輸入、基礎資料和 Copilot 輸出。 Copilot 目前使用 GPT 模型的組合,包括 GPT 3.5。 Microsoft 在 Microsoft Azure 環境中裝載 OpenAI 模型,而服務不會與 OpenAI 的任何服務互動 (例如 ChatGPT 或 OpenAI API)。 您的資料不會用來訓練模型,而且無法提供給其他客戶使用。 深入了解 Azure OpenAI。
Copilot 流程
這些功能遵循相同的一般程式:
- Copilot 從使用者收到提示。 此提示的格式可能是使用者輸入聊天窗格的問題,或以動作的形式輸入,例如選取顯示「建立報表」的按鈕。
- Copilot 透過稱為「建基」的方法,預先處理提示。 視案例而定,這可能包括從使用者目前與 Copilot 的會話擷取的相關資料,例如資料集結構描述或聊天記錄。 建基可改善提示的特定性,讓使用者取得與其特定工作相關且可操作的回覆。 資料擷取的範圍取決於已驗證用戶根據其權限可存取的資料。 如需詳細資訊,請參閱本文中 Copilot 使用哪些資料及其處理方式一節。
- Copilot 會接受來自 Azure OpenAI 的回覆,並進行後處理。 根據案例的不同,該後續處理可能包括負責的 AI 檢查、使用 Azure 內容仲裁進行篩選,或其他業務特定的條件約束。
- Copilot 會以自然語言、程序碼或其他內容的形式向使用者傳回回覆。 例如,回覆的形式可能是聊天訊息或產生的程序碼,或者可能是內容相關的適當形式,例如 Power BI 報表或 Synapse 筆記本資料格。
- 使用者先檢閱回覆,再使用它。 Copilot 回覆可能包含不正確的或低品質的內容,因此在使用或共用輸出之前,請務必由主題專家先檢查輸出。
就像 Fabric 中的每個體驗都是針對特定案例和角色 (從資料工程師到資料分析師) 而建置的,Fabric 中的每個 Copilot 功能也都是考慮到獨特的案例和使用者而建置的。 有關每個特徵的功能、預定用途和限制,請檢閱您正在使用體驗的區段。
定義
提示或輸入
使用者所提交至 Copilot 的文字或動作。 這可能是使用者輸入聊天窗格的問題形式,或以動作的形式,例如選取顯示「建立報表」的按鈕。
接地
前置處理技術,其中 Copilot 可擷取與使用者提示內容相關的其他資料,然後將該資料連同使用者的提示傳送至 Azure OpenAI,以產生更相關且可操作的回覆。
回應或輸出
Copilot 傳回給使用者的內容。 例如,回覆的形式可能是聊天訊息或產生的程序碼,或者可能是內容相關的適當內容,例如 Power BI 報表或 Synapse 筆記本資料格。
Copilot 將使用哪些資料以及如何處理?
若要產生回覆,Copilot 使用:
- 使用者的提示或輸入,適當時,還包括
- 透過建基流程擷取的其他資料。
這項資訊會傳送至 Azure OpenAI 服務,並在其中進行處理及產生輸出。 因此,Azure OpenAI 所處理的資料可能包括:
- 使用者的提示或輸入。
- 基礎資料。
- AI 回覆或輸出。
基礎資料可能包含資料集結構描述、特定資料點,以及其他與使用者目前工作相關的資訊的組合。 檢閱每個體驗區段,以取得該案例中 Copilot 功能可存取哪些資料的詳細資料。
與 Copilot 的互動是每個使用者特有的。 這表示 Copilot 只能存取目前使用者有權存取的資料,而且只有該使用者才能看到其輸出,除非該使用者與其他人共用輸出,例如共用產生的 Power BI 報表或產生的程式碼。 Copilot 不會使用相同租用戶或其他租用戶中其他使用者的資料。
Copilot 會使用 Azure OpenAI,而非 OpenAI 的公開可用服務,來處理所有資料,包括使用者輸入、基礎資料和 Copilot 輸出。 Copilot 目前使用 GPT 模型的組合,包括 GPT 3.5。 Microsoft 在 Microsoft 的 Azure 環境中裝載 OpenAI 模型,而服務不會與 OpenAI 的任何服務互動 (例如 ChatGPT 或 OpenAI API)。 您的資料不會用來訓練模型,而且無法提供給其他客戶使用。 深入了解 Azure OpenAI。
資料落地和合規性
您可以保留資料處理位置的控制權。 除非明確允許在區域外部處理資料 (例如,讓您的使用者在區域無法使用 Azure OpenAI 或因為高需求而受到限制時使用 Copilot),否則 Fabric 中 Copilot 處理的資料會保留在租用戶的地理區域內。 (請參閱 Azure OpenAI 目前可用的位置。)
若要允許在其他地方處理資料,您的管理員可以開啟設定 [傳送至 Azure OpenAI 的資料可以在租用戶的地理區域、合規性界限或國家雲端執行個體之外進行處理]。 深入了解 Copilot 的管理員設定。
對於如何負責任地使用 Copilot,我應該知道哪些做法?
Microsoft 致力於確保 AI 系統在 AI 準則和負責任 AI 標準引導下運作。 這些準則包括協助客戶有效地使用這些系統,並符合其預定用途。 我們實作負責任 AI 的方法不斷演進,以主動解決新產生的問題。
Fabric 中的 Copilot 功能專為符合負責任 AI 標準而建置,這意味著由多領域團隊審查其是否有潛在危害,然後經過最佳化以納入這些危害的風險降低策略。
使用 Copilot 之前,請記住 Copilot 的限制:
- Copilot 回覆可能包含不準確的或低品質的內容,因此,請務必先審查輸出,再在您的工作中使用這些輸出。
- 能夠有意義地評估內容正確性和適當性的人員,應審查這些輸出。
- 目前,Copilot 功能在英文中效果最佳。 其他語言可能表現不佳。
Copilot for Fabric 工作負載
隱私、安全性和負責任的使用方式:
- Copilot for Data Factory (預覽版)
- Copilot適用於 資料科學 (預覽)
- Copilot for Data Warehouse (預覽版)
- Copilot適用於 SQL 資料庫 (預覽)
- Copilot for Power BI
- Copilot for Real-Time Intelligence (預覽版)