セキュリティで保護された AI – AI をセキュリティで保護するプロセス
この記事では、AI ワークロードをセキュリティで保護するための組織のプロセスについて説明します。 AI の機密性、整合性、可用性 (CIA) に重点を置いています。 効果的なセキュリティ プラクティスでは、AI モデルとデータの機密性、整合性、可用性を保護することで、侵害のリスクを軽減します。 また、セキュリティで保護された AI 環境は、ビジネス セキュリティの目標にも合致し、AI 主導のプロセスに対する信頼を高めます。
AI のセキュリティ リスクを評価する
AI のセキュリティ リスクを評価するには、AI ワークロードに影響を与える可能性のある潜在的な脆弱性を特定して評価する必要があります。 これらのリスクに積極的に対処することで、侵害、操作、誤用を防止し、AI アプリケーションの信頼性を強化することができます。 また、このアプローチは、機密データを保護し、利害関係者の信頼を維持することで、組織の目標をサポートします。
一般的な AI セキュリティ リスクを特定します。 MITRE ATLAS や OWASP 生成 AI リスクなどの認識されたリソースを使用して、すべての AI ワークロードのリスクを定期的に評価します。
AI セキュリティ体制を管理します。 継続的なセキュリティ体制管理については、Microsoft Defender for Cloud の AI セキュリティ体制管理のような AI セキュリティ ツールの使用を検討してください。 これらのツールを使用すると、生成 AI リスクの検出と修復を自動化できます。
データ リスクを特定します。 Microsoft Purview インサイダー リスク管理などのエンタープライズ全体のツールを使用してインサイダー リスクを評価し、ビジネス全体でデータ セキュリティを維持してください。 すべての AI ワークロードで、処理、格納、または送信するデータの機密性に基づいてリスクを分類し、優先順位を付けます。
レッドチームAIモデル。 生成 AI モデル および非変性モデルに対してレッド チーム テストを実施し、攻撃に対する脆弱性を評価します。 レッド チーミング AI に関する次の推奨事項に従います。
システム機能とアプリケーション コンテキストを評価します。 AI システムでできることと、それが実際の脆弱性を効果的にターゲットに適用する場所を特定します。 潜在的な影響から逆に作業して、意味のある攻撃戦略を設計します。
最初に単純な攻撃手法を使用します。 複雑な敵対攻撃を試みる前に、基本的なプロンプト エンジニアリングとシステムの弱点を悪用します。 実際の侵害の多くは、リソースの少ない手法に依存しています。
レッド チーミングとベンチマークを区別します。 AI レッド チーミングは、未知のリスクを明らかにします。 ベンチマークは既知の脆弱性を評価します。 定義済みの評価メトリックのみに依存するのではなく、実際のシナリオで AI をテストすることに重点を置く。
自動化してリスクの範囲を拡大します。 pyRIT などのツールを使用して、大規模な AI システムをテストしますが、人間の監視は維持します。
AI レッド チーミングで人間の判断に優先順位を付ける。 自動化はテストを支援しますが、人間は偏り、感情的な反応、文化的な影響などの微妙なリスクを評価するために必要なコンテキストを提供します。
責任ある AI 障害を測定するための信頼性の高い方法を開発します。 責任ある AI 障害は、AI システムが責任ある AI の原則に違反した場合に発生します。 セキュリティの脆弱性とは異なり、これらの障害は、主観的、社会的、倫理的な影響により、定義と測定が困難になります。 構造化されたガイドラインとシナリオベースの評価を使用して、有害な出力を評価して軽減します。
従来の脅威と AI 固有の脅威の両方をセキュリティで保護します。 迅速な挿入やデータ流出などの AI リスクと共に、従来のセキュリティの脆弱性に対処します。 システム レベルとモデル固有の防御の両方を強化します。
詳細については、「レッド チーミングから得た 100 の生成 AI 製品の教訓」を参照してください。
AI のセキュリティ制御を実装する
AI セキュリティ制御を実装することは、AI リソースとデータを保護するポリシー、手順、ツールを確立することを意味します。 これらの制御は、規制要件への準拠を保証し、不正アクセスから保護し、継続的な運用とデータ プライバシーをサポートします。 AI ワークロード間で一貫した制御を適用すると、セキュリティをより効果的に管理できます。
AI リソースの保護
AI リソースのセキュリティ保護には、AI アプリケーションをサポートするシステム、モデル、インフラストラクチャの管理と保護が含まれます。 この手順は、不正アクセスの可能性を減らし、組織全体のセキュリティ プラクティスを標準化するのに役立ちます。 包括的なリソース インベントリにより、セキュリティ ポリシーの一貫した適用が可能になり、AI 資産の全体的な制御が強化されます。
一元化された AI 資産インベントリを確立します。 AI ワークロード リソースの詳細かつ最新のインベントリを維持することで、セキュリティ ポリシーをすべての AI ワークロードに一律に適用できます。 Azure 全体のすべての AI システム、モデル、データセット、インフラストラクチャの全社的なインベントリを作成します。 Azure Resource Graph Explorer や Microsoft Defender for Cloud などのツールを利用して、検出プロセスを自動化します。 Microsoft Defender for Cloud では、生成 AI ワークロードの検出や、事前にデプロイされた生成 AI のアーティファクトの検出が可能です。
Azure AI プラットフォームをセキュリティで保護します。 すべての AI リソースに対する Azure セキュリティ ベースラインのアプリケーションを標準化します。 Azure サービス ガイドのセキュリティに関する推奨事項に従ってください。
ワークロード固有のガバナンス ガイダンスを使用します。 詳細なセキュリティ ガイダンスは、Azure プラットフォーム サービス (PaaS) と Azure インフラストラクチャ (IaaS) 上の AI ワークロードで使用できます。 このガイダンスを使用して、これらのワークロード タイプの AI モデル、リソース、データをセキュリティで保護します。
AI データをセキュリティで保護する
AI データをセキュリティで保護するには、AI モデルが使用し、生成するデータを保護する必要があります。 効果的なデータ セキュリティ プラクティスは、不正アクセス、データ漏洩、コンプライアンス違反を防ぐのに役立ちます。 データ アクセスの制御と詳細なカタログの維持も、情報に基づいた意思決定をサポートし、機密情報が漏洩するリスクを軽減します。
データ境界を定義して維持します。 AI ワークロードがアクセス レベルに適したデータを使用していることを確認します。 全従業員がアクセスできる AI アプリケーションは、全従業員に適したデータのみを処理すべきです。 インターネットに接続する AI アプリケーションは、一般使用に適したデータを使用しなければなりません。 不注意によるデータ アクセスを防ぐため、AI アプリケーションごとにデータセットや環境を分けて使用します。 Microsoft Purview の一連のデータ セキュリティツールを使用して、貴社のデータをセキュリティで保護することを検討してください。
厳密なデータ アクセス制御を実装します。 アプリケーションで、エンド ユーザーがクエリに関連するデータにアクセスする権限を有していることを確認します。 ユーザー アクションに対する広範なシステム アクセス許可を回避します。 AI が特定の情報にアクセスできる場合はユーザーに直接アクセスする権限を与えるという原則に従って操作します。
データ カタログを管理します。 ストレージの場所やアクセスの詳細など、AI システムに接続され、使用されるすべてのデータの最新のカタログを保持します。 定期的にデータをスキャンしてラベル付けし、機密レベルと適合性を追跡することで、分析とリスクの識別を支援します。 Microsoft Purview データ カタログを使用してデータをマップおよび管理することを検討してください。
データの機密度変更管理計画を作成します。 データの機密度レベルは、時間の経過とともに変化する可能性があるため追跡します。 データ カタログを使用して、AI ワークロードで使用される情報を監視します。 AI ワークロードから機密データを見つけて削除するプロセスを実装します。
AI アーティファクトをセキュリティで保護します。 AI モデルとデータセットを貴重な知的財産として認識し、それに応じて保護するための対策を実装します。 AI モデルやデータセットをプライベート エンドポイントの背後や、Azure Blob Storage、専用ワークスペースなどのセキュリティで保護された環境に格納します。 厳密なアクセス ポリシーと暗号化を適用して、不正アクセスや盗難から AI アーティファクトを保護し、データ ポイズニングを防ぎます。
機密データを保護します。 元のデータ ソースを直接使用できない場合は、必要な情報のみを含む複製、ローカル コピー、またはサブセットを使用します。 不正アクセスやデータ漏洩を防止するために、ネットワークの分離と厳格なアクセス制御を特徴とする制御された環境内で機密データを処理します。 さらに、暗号化、継続的監視、侵入検出システムなどの包括的な安全策を実装して、処理中のデータを侵害から保護します。
AI のセキュリティ制御を維持する
AI セキュリティ制御の維持には、進化する脅威に対処するための、継続的なセキュリティ対策の監視、テスト、更新が含まれます。 セキュリティ制御を定期的に見直すことで、AI ワークロードの保護の効果が継続し、組織が新しいリスクに適応できるようになります。 プロアクティブ メンテナンスは、侵害を防ぎ、長期にわたって AI システムの信頼を維持するのに役立ちます。
AI システムにおけるデータ漏えいと強制性のテストを実施します。 AI システムを通じて機密データが漏洩または強要される可能性があるかどうかを判断する厳格なテストを実施します。 データ損失防止 (DLP) テストを実行し、AI 固有の攻撃シナリオをシミュレートします。 モデルの反転攻撃または敵対的攻撃をシミュレートして、データ保護対策の回復性を評価します。 AI モデルとデータ処理プロセスが不正アクセスや不正操作に対してセキュリティで保護されていると保証することは、データの完全性と AI アプリケーションの信頼性を維持するために極めて重要です。
AI に重点を置いた従業員のトレーニングを提供し、意識向上を図ります。 AI プロジェクトに関与するすべての従業員にトレーニング プログラムを提供します。 AI の開発とデプロイに固有のデータ セキュリティとベスト プラクティスの重要性を強調します。 トレーニングで使用される機密データを処理し、モデルの反転やデータ ポイズニング攻撃などの脅威を認識する方法についてスタッフに教育します。 定期的なトレーニングにより、チーム メンバーは最新の AI セキュリティ プロトコルに関する知識を身につけ、AI ワークロードの整合性を維持する上での役割を理解します。
AI セキュリティ インシデントのインシデント対応計画を作成し、維持します。 潜在的なデータ侵害やセキュリティ インシデントに対処するために、AI システムに合わせてカスタマイズしたインシデント対応戦略を作成します。 この計画では、AI モデル、データ、またはインフラストラクチャに影響を与える可能性があるセキュリティ インシデントを検出、報告、軽減するための明確な手順を概説する必要があります。 AI 固有のシナリオに焦点を当てた定期的な訓練とシミュレーションを実施して、対応チームが実際の AI セキュリティ インシデントを効率的に処理できる態勢を整えます。
定期的なリスク アセスメントを実施します。 リスク アセスメントと影響分析を通じて、AI に固有の新たな脅威と脆弱性を定期的に評価します。 これらの評価は、AI モデル、データ処理プロセス、デプロイ環境に関連する新しいリスクを特定するのに役立ちます。 評価では、AI システムに対するセキュリティ侵害の潜在的な影響も評価されます。
次のステップ
AI のガバナンス、AI の管理、セキュリティで保護された AI は、定期的な反復処理を必要とする継続的なプロセスです。 必要に応じて、各 AI 戦略、AI 計画、AI-Ready を見直します。 AI 導入チェックリストを使用して、次のステップを決定します。