Microsoft 365 Copilot in Viva Insights 的數據、隱私權和安全性
分析師可以利用 Microsoft 365 Copilot in Viva Insights 的許多功能,包括在查詢中使用的計量、篩選和屬性建議。
例如,Copilot 可協助分析師建立查詢,方法是建議與其查詢相關的實用計量。
後端的運作方式為何?
Copilot in Viva Insights 使用大型語言模型 (LLM) 技術,可讓使用者以自然語言要求提示來執行以語言為基礎的工作。
Microsoft使用這些 LLM 來比對使用者的提示與一組計量和「劇本」。「本文」是以計量、匯總和其他變數為基礎的產品定義計算群組。
Copilot 會使用哪些數據來產生其回應?
Copilot in Viva Insights 會使用 Viva Insights 內已存在的數據,並提示客戶詢問他們何時使用此功能。 它不會收集任何新的數據。
Copilot in Viva Insights 是否會儲存或儲存它所使用的任何數據?
Copilot in Viva Insights 不會記錄任何使用者的提示。 它只會儲存每個 API 呼叫的元數據,例如每個提示的日期和時間。 中繼記錄檔只能由 Viva Insights 開發人員和受限制的使用者存取。
Copilot in Viva Insights 如何與 Microsoft Graph 和其他Microsoft 365 服務互動?
Copilot in Viva Insights 不會以任何方式與任何 Microsoft 365 Copilot、Microsoft Graph 和其他Microsoft 365 服務互動。
Copilot 如何處理數據落地、數據主體許可權和數據刪除?
Copilot in Viva 深入解析會遵循目前為 Microsoft Viva 設定的相同數據落地通訊協定。 如需詳細資訊,請參閱 Microsoft Viva 的安全策略,以及 Microsoft Viva 合規性通訊協定。
Copilot in Viva Insights 如何遵守 GDPR 和其他隱私權法規?
Copilot in Viva 深入解析遵循與 Viva Insights 相同的 GDPR 和隱私權法規。 如需詳細資訊,請參閱組織深入解析的 Viva Insights 隱私權指南。
Copilot 提供哪些保護措施來解決潛在的冒犯性問題、回應或敏感性資訊?
Copilot in Viva Insights 的設計具有健全的篩選系統,可主動封鎖冒犯性語言,並防止在敏感性內容中產生建議。 我們對持續改進的承諾可讓我們增強此篩選系統,讓偵測和移除 Copilot in Viva Insights 所產生的冒犯性內容更聰明。 這包括解決偏差、偏見或濫用的輸出。 我們鼓勵用戶在產品中直接使用 Copilot in Viva Insights 時,回報他們遇到的任何冒犯性建議。
我們的目標是要避免幾個高風險的使用和敏感性案例:
敏感性使用案例:由於 Viva Insights 提供的數據 & 深入解析落在敏感性區域中,因此很難明確評估與員工績效或工作場所行為模式相關的特定分析師查詢問題是否應由 Copilot 回答。 雖然我們預期 Copilot 能夠回答「中國的員工如何共同作業?」之類的問題,但如「中國的員工是否比美國員工更努力地工作?」之類的查詢 可能屬於「公平性」類別。 我們致力於解決這些複雜性,方法是封鎖可支援做出「判斷」的問題,同時允許可協助使用者取得「事實」的問題。
隱私權考慮:如果 AI 功能未受到充分保護,可能會對未經授權的對象公開用戶數據的風險,包括私人趨勢主題和個人資訊。 確保使用者的最高隱私權和安全性是最高優先順序。
偏差:像是 Copilot in Viva Insights 等 AI 系統的公平性和靈活性,取決於其所訓練數據的品質和偏差。 如果訓練數據包含偏差,AI 功能可能會不小心產生反映這些偏差的內容,而可能造成傷害或犯罪。 我們致力於解決 AI 系統中的偏差,並致力於提供更具包容性和包容性的輸出。
藉由主動解決這些高風險案例,並與我們的使用者社群共同合作,我們致力於透過 Copilot in Viva Insights 提供更安全、更負責任且符合道德規範的 AI 體驗。