控管 AI – 管理 Azure 中 AI 工作負載的組織建議
本文概述治理 AI 工作負載的組織程式。 它遵循 NIST 人工智慧風險管理架構 (AI RMF) 和 NIST AI RMF 劇本。 它也與 CAF 治理中的架構一致。
本指南旨在協助您將 AI 風險管理整合到更廣泛的風險管理原則中。 此整合提供更一致的 AI、網路安全和隱私權風險處理,以統一治理方法。
評估 AI 組織風險
AI 風險評估可識別並解決 AI 技術帶來的潛在風險。 此程式會建置 AI 系統的信任,並減少非預期的結果。 解決組織風險可確保 AI 部署符合組織的價值、風險承受能力和作業目標。
瞭解 AI 工作負載。 若要降低 AI 風險,您必須瞭解 AI 工作負載。 藉由釐清每個 AI 工作負載的範圍和用途,您可以對應相關聯的風險。 此釐清應該包含與 AI 工作負載相關的任何假設和限制。
使用負責任的 AI 原則來識別風險。 這些原則提供評估 AI 風險的架構。 使用下表,透過結構化的 AI 準則評估來識別和降低風險。
負責任的 AI 原則 定義 風險評估問題 AI 隱私權和安全性 AI 工作負載應尊重隱私權且安全。 AI 工作負載如何處理敏感數據,或容易受到安全性缺口的影響? 可靠性和安全性 AI 工作負載應該能安全地執行。 在哪些情況下,AI 工作負載可能無法安全地運作或產生不可靠的結果? 公平性 AI 工作負載應該公平對待人員。 AI 工作負載如何在決策中導致不相等的處理或非預期偏差? 包容性 AI 工作負載應該是包容性且具能力。 在 AI 工作負載的設計或部署中,如何排除或劣勢特定群組? 透明 AI 工作負載應該可以理解。 用戶難以瞭解或解釋 AI 決策的哪些層面? 當責 人員應該負責 AI 工作負載。 在開發或使用 AI 時,何者可能不清楚或難以建立責任? 識別 AI 風險。 首先,評估 AI 工作負載的安全性風險,包括潛在的數據外泄、未經授權的存取或誤用。 請洽詢項目關係人,找出較不可見的風險,並評估質化和量化的影響,包括信譽風險,以判斷組織的風險承受能力。
識別外部相依性的風險。 評估與第三方數據源、軟體和整合相關的風險。 藉由建立可確保符合組織隱私權和合規性標準的原則,解決安全性弱點、偏差和智慧財產權風險等問題。
評估整合風險。 評估 AI 工作負載與現有的工作負載和程式整合。 記錄潛在風險,例如相依於其他工作負載、增加複雜度或可能影響功能的不相容。
記載 AI 治理原則
AI 治理原則為負責任 AI 使用提供結構化架構。 這些原則會將 AI 活動與道德標準、法規需求和商務目標保持一致。 記載原則可確保清楚管理 AI 模型、數據和作業的指導方針。
AI 治理原則區域 | AI 治理原則建議 |
---|---|
定義選取和上線模型的原則 | ▪ 建立選取 AI 模型的原則。 原則應概述符合組織值、功能和成本條件約束的模型選擇準則。 檢閱潛在的模型,以配合風險承受能力和預定的工作需求。 ▪ 使用結構化原則將新模型上線。 模型上線的正式程式會維護模型理由、驗證和核准的一致性。 使用沙箱環境進行初始實驗,然後驗證並檢閱生產目錄中的模型,以避免重複。 |
定義使用第三方工具和數據的原則 | ▪ 設定第三方工具的控制件。 第三方工具的審查程式可防範安全性、合規性和一致性風險。 使用外部數據集時,原則應包含數據隱私權、安全性和道德標準的指導方針。 ▪ 定義數據敏感度標準。 將敏感數據和公用數據分開是減輕 AI 風險的必要條件。 建立數據處理和區隔原則。 ▪ 定義數據質量標準。 「黃金數據集」提供可靠的 AI 模型測試和評估基準。 建立明確的數據一致性和質量原則,以確保高效能且值得信任的輸出。 |
定義維護及監視模型的原則 | ▪ 依使用案例指定重新定型頻率。 頻繁重新定型支援高風險 AI 工作負載的正確性。 定義指導方針,以考慮每個模型的使用案例和風險層級,尤其是醫療保健和金融等部門。 ▪ 監視效能降低。 一段時間的監視模型效能有助於在影響結果之前偵測問題。 檔基準檢驗,如果模型的效能下降,請起始重新定型或檢閱程式。 |
定義法規合規性的原則 | ▪ 符合區域法律要求。 了解區域法律可確保 AI 作業在各個位置保持相容。 研究每個部署區域的適用法規,例如數據隱私權法、道德標準和產業法規。 ▪ 開發區域特定原則。 針對區域考慮量身打造 AI 原則支援符合當地標準的規範。 原則可能包括語言支援、數據儲存協定,以及文化適應。 ▪ 針對區域變異性調整 AI。 AI 工作負載中的彈性允許位置特定的功能調整。 針對全域作業,記錄區域特定的調整,例如本地化的定型數據和功能限制。 |
定義使用者行為的原則 | ▪ 定義誤用的風險降低策略。 誤用預防原則有助於防止故意或無意的傷害。 概述可能的誤用案例,並納入控件,例如受限制的功能或誤用偵測功能。 ▪ 設定用戶行為指導方針。 用戶合約會釐清與 AI 工作負載互動時可接受的行為,降低誤用的風險。 起草明確的使用規定,以傳達標準和支援負責任的 AI 互動。 |
定義 AI 整合和取代的原則 | ▪ 概述整合原則。 整合指導方針可確保 AI 工作負載在工作負載介面期間維護數據完整性和安全性。 指定技術需求、數據共用通訊協議和安全性措施。 ▪ 規劃轉換和取代。 轉換原則會在以 AI 工作負載取代舊程式時提供結構。 概述逐步淘汰舊版程式、訓練人員,以及在整個變更中監視效能的步驟。 |
強制執行 AI 治理原則
強制執行 AI 治理原則可確保組織內的一致和道德 AI 做法。 自動化工具和手動干預支援跨部署的原則遵循。 適當的強制執行有助於維護合規性,並將人為錯誤降到最低。
盡可能將原則強制執行自動化,例如 Azure 原則 和 Microsoft Purview 等平臺,以在 AI 部署之間自動強制執行原則,以減少人為錯誤。 定期評估自動化可改善原則遵循的領域。
手動強制執行 AI 原則。 為員工提供 AI 風險和合規性訓練,以確保他們瞭解其在 AI 治理中的角色。 定期研討會可讓員工更新 AI 原則,定期稽核有助於監視遵守情況,並找出改善的領域。
使用工作負載特定的治理指引。 Azure 平台服務 (PaaS) 和 Azure 基礎結構 (IaaS) 上的 AI 工作負載提供詳細的安全性指引。 使用本指南來管理這些工作負載類型內的 AI 模型、資源和數據。
監視 AI 組織風險
監視 AI 風險可讓組織識別新興風險,並立即加以解決。 定期評估可確保 AI 工作負載如預期般運作。 一致的監視可協助組織適應不斷演變的條件,並防止 AI 系統的負面影響。
建立進行中風險評估的程式。 設定定期檢閱以識別新的風險,吸引項目關係人評估 AI 更廣泛的影響。 針對發生的問題制定回應計劃,以允許風險重新評估和必要的調整。
開發測量計劃。 明確的測量計劃可確保一致的數據收集和分析。 定義數據收集方法,例如作業計量的自動化記錄,以及用於定性意見反應的調查。 建立測量的頻率和範圍,專注於高風險區域,並建立意見反應迴圈,根據專案關係人輸入來精簡風險評估。
量化並限定 AI 風險。 選擇符合工作負載用途的量化計量(錯誤率、精確度)和定性指標(用戶意見反應、道德考慮)。 根據業界標準對效能進行效能評定,以追蹤 AI 的影響、可信度和效能。
文件和報告度量結果。 一般文件和報告可增強透明度和責任。 建立標準化報告,以摘要計量、結果和任何異常,以引導決策制定。 與項目關係人分享這些深入解析,使用它們來精簡風險降低策略並改善未來的部署。
建立獨立的檢閱程式。 一般獨立檢閱會使用外部或未加入的內部檢閱者,提供 AI 風險和合規性的目標評定。 使用結果來加強風險評估,並精簡治理原則。
後續步驟
AI 風險降低範例
下表列出一些常見的 AI 風險,併為每個風險提供風險降低策略和範例原則。 數據表不會列出一組完整的風險。
風險標識碼 | AI 風險 | 風險降低 | 原則 |
---|---|---|---|
R001 | 不符合數據保護法 | 使用 Microsoft Purview 合規性管理員來評估數據合規性。 | 必須實作安全性開發生命週期,以確保所有 AI 開發和部署都符合數據保護法。 |
R005 | AI 決策缺乏透明度 | 套用標準化的架構和語言,以改善 AI 流程和決策的透明度。 | 必須採用 NIST AI 風險管理架構,而且必須徹底記載所有 AI 模型,以維持所有 AI 模型的透明度。 |
R006 | 不正確的預測 | 使用 Azure API 管理 來追蹤 AI 模型計量,以確保精確度和可靠性。 | 持續效能監視和人工意見反應必須用來確保 AI 模型預測正確無誤。 |
R007 | 對抗式攻擊 | 使用 PyRIT 來測試 AI 工作負載是否有弱點並強化防禦。 | 安全性開發生命週期和 AI 紅色小組測試必須用來保護 AI 工作負載,以防止對立攻擊。 |
R008 | 測試人員威脅 | 使用Microsoft Entra標識符來強制執行嚴格的訪問控制,這些訪問控制是以角色和群組成員資格為基礎,以限制內部人員對敏感數據的存取。 | 必須使用嚴格的身分識別和存取管理和持續監視來減輕內部威脅。 |
R009 | 非預期的成本 | 使用Microsoft成本管理來追蹤 CPU、GPU、記憶體和記憶體和記憶體使用量,以確保有效率的資源使用率,並防止成本尖峰。 | 監視和優化資源使用量,以及自動偵測成本超支,必須用來管理非預期的成本。 |
R010 | AI 資源的使用量過低 | 監視 AI 服務計量,例如要求率和回應時間,以將使用量優化。 | 效能計量和自動化延展性必須用來優化 AI 資源使用率。 |