共用方式為


智慧應用程式工作負載的負責任 AI 注意事項

智慧應用程式工作負載必須遵守負責任的 AI 原則,以確保公平、問責、透明和道德行為。

設計 AI 系統以公平對待所有使用者,讓開發人員和使用者對其性能負責,確保 AI 操作的透明度,並遵守道德標準。

At Microsoft 致力於以以人為本的原則推動 AI 的發展。 生成模型具有顯著的潛在優勢,但如果沒有仔細的設計和周到的緩解措施,此類模型可能會生成不正確甚至有害的內容。 Microsoft 進行了大量投資來説明防止濫用和意外傷害,其中包括 Incorporating Microsoft 負責任地 使用 AI 的原則、採用 行為準則、構建內容篩檢程式以支援客戶,以及提供客戶在使用生成式 AI 時應考慮的負責任的 AI 資訊和指導

Power Platform Copilot 和生成式 AI 功能跟隨一組核心安全和隱私實踐以及負責任的 Microsoft AI 標準。 Power Platform 數據受到行業領先的全面合規性、安全性和隱私控制措施的保護。

深入了解:

負責任的 AI 的核心原則

負責任的 AI 核心原則包括公平、問責、透明度和道德。 確保按照這些核心原則構建的 Power Platform 智慧應用程式工作負載涉及幾個關鍵實踐:

  • 公平性:使用多樣化且具有代表性的訓練數據來最大限度地減少偏差。 定期更新培訓數據並聘請審計師來驗證公平性和公正性。
  • 問責制:為參與 AI 專案的團隊成員定義明確的角色和職責。 建立並遵守優先考慮公平和問責制的道德標準。
  • 透明度:確保使用者知道他們正在使用使用生成式 AI 功能的工作負載。 清楚地傳達選擇 AI 解決方案的原因、設計方式以及如何監控和更新。
  • 道德規範:培養一支包容性的員工隊伍,並在開發過程的早期尋求不同社區的意見。 定期評估和測試模型是否存在道德問題和績效差異。 建立包括定期審計在內的治理框架。

將這些實踐納入您的開發和部署流程,以創建符合負責任 AI 核心原則的智慧應用程式工作負載。

數據隱私和安全

確保數據隱私至關重要,尤其是在智慧應用程式工作負載可能處理敏感數據的情況下。 在規劃智慧應用程式工作負載 Power Platform時,必須解決幾個關鍵風險並實施有效的緩解策略:

  • 平臺功能:瞭解保護數據的本機控件和平臺功能。 Microsoft Copilot 基於服務 Microsoft Azure OpenAI 構建 ,並完全在 Azure 雲中運行。 Copilot 使用 OpenAI 模型搭配所有 Microsoft Azure 安全性功能。 Copilot 集成在 Dynamics 365 等服務中 Microsoft , Power Platform 並繼承其安全、隱私和合規性策略和流程,例如多因素身份驗證和合規性邊界。
  • 數據加密:服務端技術對靜態和傳輸中的組織內容進行加密,以實現強大的安全性。 連接受到 Transport 圖層 Security (TLS) 的保護,Dynamics 365 Power Platform 和 Azure OpenAI 之間的數據傳輸通過 Microsoft 主幹網路進行,從而確保可靠性和安全性。 瞭解有關雲 中加密的更多資訊。 Microsoft
  • 訪問控制:根據當前用戶的訪問級別向 Copilot 提供數據。 使用 Microsoft Entra ID 實施基於角色的訪問控制 (RBAC),以確保只有授權使用者才能訪問數據。 應用最小許可權原則以將訪問許可權限制為僅必要的內容。
  • 監控和審計:通過定期監控 AI 系統的訪問和使用方式,檢測和回應潛在的安全事件。 維護詳細的審計日誌以跟蹤數據訪問和修改。
  • 合規性和治理:確保遵守相關的數據隱私法規,例如 GDPR (一般資料保護規定)、HIPAA (健康保險流通與責任法案) 和 CCPA (加州消費者隱私法案)。 實施合乎道德的 AI 實踐,以避免偏見並確保 AI 輸出的公平性。
  • 使用者教育和培訓:對用戶進行安全最佳實踐和數據隱私重要性的培訓。 讓用戶瞭解安全策略和程式的更新和更改。

瞭解更多: Dynamics 365 和 Copilot 數據安全和隱私常見問題解答 Power Platform

偏差意識和緩解

認識到解決系統中偏見的重要性,並確保公平性,以避免 AI 回應中出現偏見。

  • 多樣化且具有代表性的數據:確保訓練數據多樣化並代表不同的人口統計數據,以最大限度地減少固有偏見。 定期審核數據是否存在偏差和不平衡,並根據需要採取糾正措施。
  • 偏差檢測和緩解工具:使用工具和技術檢測 AI 模型中的偏差,例如統計分析和公平性指標。 實施去偏差技術,包括重採樣、重新加權或對抗性去偏差,以減少模型中的偏差。
  • 人機協同:整合人工審核和反饋迴圈,以識別和糾正 AI 可能引入的偏見。 建立道德委員會或治理委員會來監督 AI 的開發和部署,確保符合道德標準。
  • 透明度和信任:確保使用者知道他們正在使用使用生成式 AI 功能的工作負載。 清楚地傳達選擇 AI 解決方案的原因,並提供有關其設計方式以及如何監控和更新的資訊。
  • 持續監控和改進:持續監控 AI 系統是否存在偏差和性能問題,並根據需要更新模型。 通過使用更新和更多樣化的數據定期重新訓練模型,確保模型保持公平和公正。

持續監測和評估

繼續改進您的智慧應用程式工作負載。 建立持續監控和評估框架,並將用戶反饋和不斷發展的道德標準納入更新。

  • 反饋迴圈:建立反饋機制,用戶可以在其中報告不準確之處,然後可以使用這些錯誤來改進和改進模型。
  • 監控和審計:通過定期監控 AI 系統的訪問和使用方式,檢測和回應潛在的安全事件。 維護詳細的審計日誌以跟蹤數據訪問和修改。