共用方式為


安全 AI – 確保 AI 的安全程序

本文概述保護 AI 工作負載的組織程式。 其著重於 AI 的機密性、完整性和可用性(CIA)。 有效的安全性做法可藉由保護 AI 模型和數據機密性、完整性和可用性來降低危害的風險。 安全的 AI 環境也會符合商務安全性目標,並增強 AI 導向流程的信任。

顯示 AI 採用程式的圖表:AI 策略、AI 方案、AI 就緒、治理 AI、管理 AI 和安全 AI。

評估 AI 安全性風險

評估 AI 安全性風險牽涉到識別和評估可能影響 AI 工作負載的潛在弱點。 主動解決這些風險有助於防止入侵、操作和誤用,進而強化 AI 應用程式的可靠性。 這種方法也支持組織目標,方法是保護敏感數據和維護項目關係人信任。

  • 識別常見的 AI 安全性風險。 使用 MITRE ATLASOWASP 產生式 AI 風險 等已辨識的資源,定期評估所有 AI 工作負載的風險。

  • 管理您的 AI 安全性狀態。 若要進行中的安全性狀態管理,請考慮在 適用於雲端的 Microsoft Defender 中使用 AI 安全性工具,例如 AI 安全性狀態管理。 這些工具可將產生式 AI 風險的偵測和補救自動化。

  • 識別數據風險。 使用整個企業的工具,例如 Microsoft Purview 內部風險管理 來評估內部風險,並在整個業務中維護數據安全性。 在所有 AI 工作負載中,根據處理、儲存或傳輸的數據敏感度,分類並排定風險的優先順序。

  • 紅隊 AI 模型。 針對 產生式 AI 模型進行紅色小組測試, 和非產生模型評估其攻擊弱點。 請遵循下列建議進行 AI 紅隊測試:

    • 評估系統功能和應用程式內容。 識別 AI 系統可以執行的動作,以及其有效應用於真實世界弱點的地方。 從潛在影響向後工作,以設計有意義的攻擊策略。

    • 請先使用簡單的攻擊技術。 在嘗試複雜的對抗式攻擊之前,先利用基本的提示工程和系統弱點。 許多真實世界入侵依賴低資源技術。

    • 區分紅隊演練與基準測試。 AI 紅色小組發現未知的風險。 效能評定會評估已知的弱點。 專注於在真實世界的案例中測試 AI,而不是只依賴預先定義的評估計量。

    • 自動化以擴充風險涵蓋範圍。 使用 PyRIT 之類的工具,大規模測試 AI 系統,但會維持人為監督。

    • 優先考量 AI 紅隊中的人為判斷。 自動化可協助測試,但人類提供必要的內容來評估細微風險,例如偏差、情感反應和文化影響。

    • 開發可靠的方法來測量負責任 AI 的運作失誤。 當 AI 系統違反負責任 AI 的原則時,就會發生負責任的 AI 失敗。 與安全性弱點不同,這些失敗因主觀、社會和道德影響而難以定義和衡量。 使用結構化指導方針和案例型評定來評估和減輕有害輸出。

    • 保護傳統和 AI 特定威脅。 解決傳統安全性弱點以及 AI 風險,例如提示插入和數據外洩。 加強系統層級和模型特定的防禦。

如需詳細資訊,請參閱 紅隊測試 100 個生成式 AI 產品的課程

實作 AI 安全性控制件

實作 AI 安全性控制項表示建立保護 AI 資源和數據的原則、程式和工具。 這些控制件有助於確保符合法規需求,並防止未經授權的存取,支援持續作業和數據隱私權。 當您在 AI 工作負載之間套用一致的控件時,可以更有效率地管理安全性。

保護 AI 資源

保護 AI 資源包括管理和保護支援 AI 應用程式的系統、模型和基礎結構。 此步驟可降低未經授權存取的可能性,並協助標準化整個組織的安全性做法。 完整的資源清查可讓您一致地應用安全策略,並強化 AI 資產的整體控制。

  • 建立集中式 AI 資產清查。 維護 AI 工作負載資源的詳細且最新的清查,可確保您可以將安全策略統一套用至所有 AI 工作負載。 跨 Azure 編譯所有 AI 系統、模型、數據集和基礎結構的全公司清查。 利用 Azure Resource Graph Explorer 和 適用於雲端的 Microsoft Defender 之類的工具,將探索程式自動化。 適用於雲端的 Microsoft Defender 可以在預先部署的產生 AI 成品探索產生 AI 工作負載。

  • 保護 Azure AI 平臺。 針對每個 AI 資源標準化 Azure 安全性基準的應用。 遵循 Azure 服務指南的安全性建議。

  • 使用工作負載特定的治理指引。 Azure 平台服務 (PaaS) 和 Azure 基礎結構 (IaaS) 上的 AI 工作負載提供詳細的安全性指引。 使用本指南來保護這些工作負載類型內的 AI 模型、資源和數據。

保護 AI 數據

保護 AI 數據牽涉到保護 AI 模型使用和產生的數據。 有效的數據安全性做法有助於防止未經授權的存取、數據外泄和合規性缺口。 控制數據存取和維護詳細的目錄也支援明智的決策制定,並減少公開敏感性信息的風險。

  • 定義和維護數據界限。 確定 AI 工作負載使用適合其存取層級的數據。 所有員工都能存取的 AI 應用程式應該只處理適合所有員工的數據。 因特網面向 AI 應用程式必須使用適合公用取用的數據。 針對不同的 AI 應用程式使用不同的資料集或環境,以防止不小心存取數據。 請考慮使用 Microsoft Purview 的數據 安全性 工具套件來保護您的數據。

  • 實作嚴格的數據訪問控制。 確定應用程式確認終端使用者有權存取其查詢中涉及的數據。 避免使用者動作的廣泛系統許可權。 以 AI 可以存取特定資訊的原則操作,用戶應該獲得直接存取的授權。

  • 維護資料目錄。 讓 AI 系統連線和取用的所有資料保持最新目錄,包括儲存位置和存取詳細數據。 定期掃描和標記數據以追蹤敏感度層級和適用性,協助分析和風險識別。 請考慮使用 Microsoft Purview 資料目錄 來對應及控管您的數據。

  • 建立數據敏感度變更管理計劃。 追蹤數據敏感度層級,因為它們可能會隨著時間而變更。 使用您的數據目錄來監視 AI 工作負載中使用的資訊。 實作從 AI 工作負載尋找和移除敏感數據的程式。

  • 保護 AI 成品。 將 AI 模型和數據集辨識為有價值的智慧財產權,並實作可據以保護它們的措施。 將 AI 模型和數據集儲存在私人端點後方,以及在安全的環境中,例如 Azure Blob 儲存體 和專用工作區。 套用嚴格的存取原則和加密,以防止未經授權的存取或竊取 AI 成品,以防止數據中毒。

  • 保護敏感數據。 當原始數據源不適合直接使用時,請使用只包含必要資訊的重複專案、本機複本或子集。 處理受控制環境中具有網路隔離和嚴格訪問控制的敏感數據,以防止未經授權的存取或數據外泄。 此外,實作完整的防護措施,例如加密、持續監視和入侵檢測系統,以防範處理期間的數據外洩。

維護 AI 安全性控制件

維護 AI 安全性控制包括持續監視、測試及更新安全性措施,以解決不斷演變的威脅。 定期檢閱安全性控制可確保 AI 工作負載受到保護,且組織可以適應新的風險。 主動式維護有助於防止入侵,並持續維護 AI 系統的信任。

  • 在 AI 系統中實作數據外泄和強制測試。 進行嚴格的測試,以判斷敏感數據是否可透過 AI 系統洩漏或強制執行。 執行數據外洩防護 (DLP) 測試和模擬 AI 特定攻擊案例。 模擬模型反轉或對立攻擊,以評估數據保護措施的復原能力。 確保 AI 模型和數據處理程式安全,以防止未經授權的存取和操作,對於維護 AI 應用程式的數據完整性和信任至關重要。

  • 提供以 AI 為中心的員工訓練和認知。 為所有參與 AI 專案的員工提供訓練計劃。 強調 AI 開發和部署專屬的數據安全性和最佳做法的重要性。 教育人員如何處理用於定型的敏感數據,並辨識模型反轉或數據中毒攻擊等威脅。 定期訓練可確保小組成員瞭解最新的 AI 安全性通訊協定,並瞭解其在維護 AI 工作負載完整性方面所扮演的角色。

  • 開發和維護 AI 安全性事件的事件回應計畫。 建立專為 AI 系統量身打造的事件回應策略,以解決潛在的數據外泄或安全性事件。 此計劃應概述偵測、報告及緩和可能會影響 AI 模型、數據或基礎結構的安全性事件清除程式。 定期進行著重於 AI 特定案例的演練和模擬,以確保回應小組已準備好有效率地處理真實世界的 AI 安全性事件。

  • 進行定期風險評估。 透過風險評估和影響分析,定期評估 AI 特有的新興威脅和弱點。 這些評估有助於識別與 AI 模型、數據處理程式和部署環境相關聯的新風險。 評估也會評估安全性缺口對 AI 系統的潛在影響。

下一步

治理 AI、管理 AI 和安全 AI 是您必須定期逐一查看的連續程式。 視需要重新流覽每個 AI 策略、AI 方案和 AI 就緒。 使用 AI 採用檢查清單來判斷下一個步驟應該是什麼。