共用方式為


智慧型應用程式工作負載的負責任 AI 注意事項

智慧型應用程式工作負載必須遵守負責任 AI 原則,以確保公平、問責、透明和道德行為。

設計 AI 系統以公平對待所有使用者,讓開發人員和使用者對其效能負責,確保 AI 運作的透明度,並遵守道德標準。

在 Microsoft ,我們致力於以人為本的原則推動 AI 的發展。 生成模型具有顯著的潛在優勢,但如果沒有精心設計和周到的緩解措施,此類模型可能會產生不正確甚至有害的內容。 Microsoft 已投入大量資金來幫助防止濫用和意外傷害,其中包括納入 Microsoft 負責任的AI 使用原則管理辦法、建構內容篩選器以支援客戶,以及提供客戶在使用生成式 AI 時應考慮的負責任 AI 資訊和指南

Power Platform 副手和生成式 AI 功能遵循一系列核心安全和隱私實踐以及 Microsoft 負責任 AI 標準。 Power Platform 資料受到全面、業界領先的合規性、安全性和隱私控制的保護。

深入了解:

負責任 AI 的核心原則

負責任 AI 核心原則包括公平、問責、透明和道德。 確保使用 Power Platform 建置的智慧型應用程式工作負載遵循這些核心原則涉及幾項關鍵做法:

  • 公平性:使用多樣化、代表性的訓練資料來最大限度地減少偏見。 定期更新訓練資料,並聘請稽核員來確認公平性和公正性。
  • 責任:為參與 AI 專案的團隊成員定義明確的角色和職責。 建立並遵守以公平和責任為優先的道德標準。
  • 透明度:確保使用者知道他們正在使用利用生成式 AI 功能的工作負載。 清楚地傳達為什麼選擇 AI 解決方案、如何設計以及如何監控和更新它。
  • 道德:培養一支具包容性的員工隊伍,並在開發過程早期尋求不同社群的意見。 定期評估和測試模型是否存在道德問題和效能差異。 建立包括定期稽核在內的治理架構。

將這些實踐納入您的開發和部署流程,以建立遵循負責任 AI 核心原則的智慧應用程式工作負載。

資料隱私和安全

確保資料隱私至關重要,特別是當智慧型應用程式工作負載可能處理敏感資料時。 在使用 Power Platform 規劃智慧型應用程式工作負載時,必須解決幾個關鍵風險並實施有效的緩解策略:

  • 平台功能:了解保護資料的本機控制和平台功能。 Microsoft Copilot 是基於 Microsoft Azure OpenAI 服務建構,完全在 Azure 雲端中執行。 Copilot 使用 OpenAI 模型搭配所有 Microsoft Azure 安全性功能。 Copilot 已整合在 Microsoft 服務中 (例如 Dynamics 365 和 Power Platform),並繼承它們的安全性、隱私權和合規性原則和程序,例如多重要素驗證和合規性邊界。
  • 資料加密:服務端技術對靜態和傳輸中的組織內容進行加密,以確保強大的安全性。 連線透過傳輸層安全性 (TLS) 進行保護,Dynamics 365、Power Platform 和 Azure OpenAI 之間的資料傳輸透過 Microsoft 主幹網路進行,確保可靠性和安全性。 深入了解 Microsoft Cloud 中的加密
  • 存取控制:根據目前使用者的存取等級向 Copilot (或自訂代理程式) 提供資料。 使用 Microsoft Entra ID 實作角色為基礎的存取控制 (RBAC),以確保只有授權使用者才能存取資料。 應用最小特權原則,僅限制對必要的存取。
  • 監控和稽核:透過定期監控 AI 系統的存取和使用情況來偵測並應對潛在的安全事件。 維護詳細的稽核記錄以追蹤資料存取和修改。
  • 合規與治理:確保遵守相關資料隱私法規,例如 GDPR (一般資料保護規定)、HIPAA (健康保險流通與責任法案) 和 CCPA (加州消費者隱私法案)。 實施道德的 AI 實踐,以避免偏見並確保 AI 輸出的公平性。
  • 使用者教育和訓練:對使用者進行安全最佳做法和資料隱私的重要性的訓練。 讓使用者了解安全原則和程序的更新和變更。

深入了解:Dynamics 365 和 Power Platform 的 Copilot 資料安全與隱私權常見問題集

偏見意識和緩解

認識到解決系統偏見的重要性並確保公平性,以避免 AI 回應出現偏見。

  • 多樣化且具代表性的資料:確保訓練資料多樣化,並代表不同的人口統計資料,以盡量減少固有偏見。 定期稽核資料是否有偏差和不平衡,並根據需要採取糾正措施。
  • 偏見偵測和緩解工具:使用工具和技術來偵測 AI 模型中的偏見,例如統計分析和公平性指標。 實施去偏技術,包括重採樣、重新加權或對抗性去偏,以減少模型中的偏差。
  • 人機迴圈:結合人工審查和意見反應迴圈來識別和糾正 AI 可能引入的偏見。 建立道德委員會或管理委員會來監督 AI 的開發和部署,確保滿足道德標準。
  • 透明度和信任:確保使用者知道他們正在使用利用生成式 AI 功能的工作負載。 清楚傳達選擇 AI 解決方案的原因,並提供有關其設計方式、監控和更新方式的資訊。
  • 持續監測和改進:持續監測 AI 系統的偏見和效能問題,並根據需要更新模型。 透過定期使用更新和更多樣化的資料重新訓練模型,確保模型保持公平和公正。

持續監測和評估

繼續提高您的智慧型應用程式工作量。 建立持續監測和評估框架,並將使用者意見反應和不斷發展的道德標準納入更新中。

  • 意見反應迴路:建立意見反應機制,使用者可以報告不準確的訊息,然後可以用來改進和完善模型。
  • 監控和稽核:透過定期監控 AI 系統的存取和使用情況來偵測並應對潛在的安全事件。 維護詳細的稽核記錄以追蹤資料存取和修改。