共用方式為


安全 AI – 保護 Azure 中 AI 工作負載的組織建議

本文概述保護 AI 工作負載的組織程式。 其著重於 AI 的機密性、完整性和可用性(CIA)。 有效的安全性做法可藉由保護 AI 模型和數據機密性、完整性和可用性來降低危害的風險。 安全的 AI 環境也會符合商務安全性目標,並增強 AI 導向流程的信任。

顯示 AI 採用程式的圖表:AI 策略、AI 方案、AI 就緒、治理 AI、管理 AI 和安全 AI。

評估 AI 安全性風險

評估 AI 安全性風險牽涉到識別和評估可能影響 AI 工作負載的潛在弱點。 主動解決這些風險有助於防止入侵、操作和誤用,進而強化 AI 應用程式的可靠性。 這種方法也支持組織目標,方法是保護敏感數據和維護項目關係人信任。

  • 識別常見的 AI 安全性風險。 使用 MITRE ATLASOWASP 機器學習 風險OWASP 產生 AI 風險等已辨識的資源,定期評估所有 AI 工作負載的風險。 若要進行中的安全性狀態管理,請考慮在 適用於雲端的 Microsoft Defender 中使用 AI 安全性工具,例如 AI 安全性狀態管理。 這些工具可將產生式 AI 風險的偵測和補救自動化。

  • 識別數據風險。 敏感數據遺失或暴露可能會對貴組織的利害關係人和合規性義務產生重大影響。 使用整個企業的工具,例如 Microsoft Purview 內部風險管理 來評估內部風險,並在整個業務中維護數據安全性。 在所有 AI 工作負載中,根據處理、儲存或傳輸的數據敏感度,分類並排定風險的優先順序。

  • 進行 AI 威脅模型化。 使用 STRIDE 之類的架構來評估所有 AI 工作負載的潛在攻擊媒介,以執行全公司 AI 威脅模型 化。 定期更新威脅模型,以適應新的 AI 使用案例和威脅。 卓越 AI 中心應考慮集中 AI 威脅模型化,以確保整個組織採用統一的方法,並降低與各種 AI 模型、數據源和程式相關聯的風險。

  • 測試 AI 模型。 針對產生 AI 模型和非產生模型進行紅小組測試,以評估其攻擊的弱點。 PyRIT 之類的工具可將此程式自動化以用於產生的 AI,讓您可以在各種條件下挑戰模型的輸出。 此步驟是高度技術性的,而且需要專門的專業知識才能有效地執行。

實作 AI 安全性控制件

實作 AI 安全性控制項表示建立保護 AI 資源和數據的原則、程式和工具。 這些控制件有助於確保符合法規需求,並防止未經授權的存取,支援持續作業和數據隱私權。 當您在 AI 工作負載之間套用一致的控件時,可以更有效率地管理安全性。

保護 AI 資源

保護 AI 資源包括管理和保護支援 AI 應用程式的系統、模型和基礎結構。 此步驟可降低未經授權存取的可能性,並協助標準化整個組織的安全性做法。 完整的資源清查可讓您一致地應用安全策略,並強化 AI 資產的整體控制。

  • 建立集中式 AI 資產清查。 維護 AI 工作負載資源的詳細且最新的清查,可確保您可以將安全策略統一套用至所有 AI 工作負載。 跨 Azure 編譯所有 AI 系統、模型、數據集和基礎結構的全公司清查。 利用 Azure Resource Graph Explorer 和 適用於雲端的 Microsoft Defender 之類的工具,將探索程式自動化。 適用於雲端的 Microsoft Defender 可以在預先部署的產生 AI 成品探索產生 AI 工作負載。

  • 保護 Azure AI 平臺。 針對每個 AI 資源標準化 Azure 安全性基準的應用。 遵循 Azure 服務指南的安全性建議。

  • 使用工作負載特定的治理指引。 Azure 平台服務 (PaaS) 和 Azure 基礎結構 (IaaS) 上的 AI 工作負載提供詳細的安全性指引。 使用本指南來保護這些工作負載類型內的 AI 模型、資源和數據。

保護 AI 數據

保護 AI 數據牽涉到保護 AI 模型使用和產生的數據。 有效的數據安全性做法有助於防止未經授權的存取、數據外泄和合規性缺口。 控制數據存取和維護詳細的目錄也支援明智的決策制定,並減少公開敏感性信息的風險。

  • 定義和維護數據界限。 確定 AI 工作負載使用適合其存取層級的數據。 所有員工都能存取的 AI 應用程式應該只處理適合所有員工的數據。 因特網面向 AI 應用程式必須使用適合公用取用的數據。 針對不同的 AI 應用程式使用不同的資料集或環境,以防止不小心存取數據。 請考慮使用 Microsoft Purview 的數據 安全性 工具套件來保護您的數據。

  • 實作嚴格的數據訪問控制。 確定應用程式確認終端使用者有權存取其查詢中涉及的數據。 避免使用者動作的廣泛系統許可權。 以 AI 可以存取特定資訊的原則操作,用戶應該獲得直接存取的授權。

  • 維護資料目錄。 讓 AI 系統連線和取用的所有資料保持最新目錄,包括儲存位置和存取詳細數據。 定期掃描和標記數據以追蹤敏感度層級和適用性,協助分析和風險識別。 請考慮使用 Microsoft Purview 資料目錄 來對應及控管您的數據。

  • 建立數據敏感度變更管理計劃。 追蹤數據敏感度層級,因為它們可能會隨著時間而變更。 使用您的數據目錄來監視 AI 工作負載中使用的資訊。 實作從 AI 工作負載尋找和移除敏感數據的程式。

  • 保護 AI 成品。 將 AI 模型和數據集辨識為有價值的智慧財產權,並實作可據以保護它們的措施。 將 AI 模型和數據集儲存在私人端點後方,以及在安全的環境中,例如 Azure Blob 儲存體 和專用工作區。 套用嚴格的存取原則和加密,以防止未經授權的存取或竊取 AI 成品,以防止數據中毒。

  • 保護敏感數據。 當原始數據源不適合直接使用時,請使用只包含必要資訊的重複專案、本機複本或子集。 處理受控制環境中具有網路隔離和嚴格訪問控制的敏感數據,以防止未經授權的存取或數據外泄。 此外,實作完整的防護措施,例如加密、持續監視和入侵檢測系統,以防範處理期間的數據外洩。

維護 AI 安全性控制件

維護 AI 安全性控制包括持續監視、測試及更新安全性措施,以解決不斷演變的威脅。 定期檢閱安全性控制可確保 AI 工作負載受到保護,且組織可以適應新的風險。 主動式維護有助於防止入侵,並持續維護 AI 系統的信任。

  • 在 AI 系統中實作數據外泄和強制測試。 進行嚴格的測試,以判斷敏感數據是否可透過 AI 系統洩漏或強制執行。 執行數據外洩防護 (DLP) 測試和模擬 AI 特定攻擊案例。 模擬模型反轉或對立攻擊,以評估數據保護措施的復原能力。 確保 AI 模型和數據處理程式安全,以防止未經授權的存取和操作,對於維護 AI 應用程式的數據完整性和信任至關重要。

  • 提供以 AI 為中心的員工訓練和認知。 為所有參與 AI 專案的員工提供訓練計劃。 強調 AI 開發和部署專屬的數據安全性和最佳做法的重要性。 教育人員如何處理用於定型的敏感數據,並辨識模型反轉或數據中毒攻擊等威脅。 定期訓練可確保小組成員瞭解最新的 AI 安全性通訊協定,並瞭解其在維護 AI 工作負載完整性方面所扮演的角色。

  • 開發和維護 AI 安全性事件的事件回應計畫。 建立專為 AI 系統量身打造的事件回應策略,以解決潛在的數據外泄或安全性事件。 此計劃應概述偵測、報告及緩和可能會影響 AI 模型、數據或基礎結構的安全性事件清除程式。 定期進行著重於 AI 特定案例的演練和模擬,以確保回應小組已準備好有效率地處理真實世界的 AI 安全性事件。

  • 進行定期風險評估。 透過風險評估和影響分析,定期評估 AI 特有的新興威脅和弱點。 這些評估有助於識別與 AI 模型、數據處理程式和部署環境相關聯的新風險。 評估也會評估安全性缺口對 AI 系統的潛在影響。

下一步

治理 AI、管理 AI 和安全 AI 是您必須定期逐一查看的連續程式。 視需要重新流覽每個 AI 策略、AI 方案和 AI 就緒。 使用 AI 採用檢查清單來判斷下一個步驟應該是什麼。