次の方法で共有


AI をセキュリティで保護する – Azure で AI ワークロードをセキュリティで保護する組織向けの推奨事項

この記事では、AI ワークロードをセキュリティで保護するための組織のプロセスについて説明します。 AI の機密性、整合性、可用性 (CIA) に重点を置いています。 効果的なセキュリティ プラクティスでは、AI モデルとデータの機密性、整合性、可用性を保護することで、侵害のリスクを軽減します。 また、セキュリティで保護された AI 環境は、ビジネス セキュリティの目標にも合致し、AI 主導のプロセスに対する信頼を高めます。

AI 導入プロセスを示す図: AI 戦略、AI 計画、AI-Ready、AI のガバナンス、AI の管理、セキュリティで保護された AI。

AI のセキュリティ リスクを評価する

AI のセキュリティ リスクを評価するには、AI ワークロードに影響を与える可能性のある潜在的な脆弱性を特定して評価する必要があります。 これらのリスクに積極的に対処することで、侵害、操作、誤用を防止し、AI アプリケーションの信頼性を強化することができます。 また、このアプローチは、機密データを保護し、利害関係者の信頼を維持することで、組織の目標をサポートします。

  • 一般的な AI セキュリティ リスクを特定します。 MITRE ATLASOWASP Machine Learning リスクOWASP 生成 AI リスクのような認知度の高いリソースを使用して、すべての AI ワークロードのリスクを定期的に評価します。 継続的なセキュリティ体制管理については、Microsoft Defender for Cloud の AI セキュリティ体制管理のような AI セキュリティ ツールの使用を検討してください。 これらのツールを使用すると、生成 AI リスクの検出と修復を自動化できます。

  • データ リスクを特定します。 機密データの損失や漏洩は、貴社の利害関係者やコンプライアンスの義務に大きな影響を与える可能性があります。 Microsoft Purview インサイダー リスク管理などのエンタープライズ全体のツールを使用してインサイダー リスクを評価し、ビジネス全体でデータ セキュリティを維持してください。 すべての AI ワークロードで、処理、格納、または送信するデータの機密性に基づいてリスクを分類し、優先順位を付けます。

  • AI の脅威モデリングを実施します。 STRIDE などのフレームワークを使用して会社全体の AI 脅威モデリングを実行し、すべての AI ワークロードの潜在的な攻撃ベクトルを評価します。 脅威モデルを定期的に更新し、AI の新しいユース ケースや脅威に対応します。 AI センター オブ エクセレンスでは、組織全体で統一されたアプローチを確保し、さまざまな AI モデル、データ ソース、プロセスに関連するリスクを軽減するために、AI 脅威モデリングの一元化を検討する必要があります。

  • AI モデルをテストします。 生成 AI モデルと非生成モデルに対してレッド チーム テストを実施し、攻撃に対する脆弱性を評価します。 PyRIT などのツールを使用すると、生成 AI のこのプロセスを自動化できるため、さまざまな条件下でモデルの出力に挑戦することができます。 この手順は非常に技術的なものであり、効果的に実行するには専用の専門知識が必要です。

AI のセキュリティ制御を実装する

AI セキュリティ制御を実装することは、AI リソースとデータを保護するポリシー、手順、ツールを確立することを意味します。 これらの制御は、規制要件への準拠を保証し、不正アクセスから保護し、継続的な運用とデータ プライバシーをサポートします。 AI ワークロード間で一貫した制御を適用すると、セキュリティをより効果的に管理できます。

AI リソースの保護

AI リソースのセキュリティ保護には、AI アプリケーションをサポートするシステム、モデル、インフラストラクチャの管理と保護が含まれます。 この手順は、不正アクセスの可能性を減らし、組織全体のセキュリティ プラクティスを標準化するのに役立ちます。 包括的なリソース インベントリにより、セキュリティ ポリシーの一貫した適用が可能になり、AI 資産の全体的な制御が強化されます。

  • 一元化された AI 資産インベントリを確立します。 AI ワークロード リソースの詳細かつ最新のインベントリを維持することで、セキュリティ ポリシーをすべての AI ワークロードに一律に適用できます。 Azure 全体のすべての AI システム、モデル、データセット、インフラストラクチャの全社的なインベントリを作成します。 Azure Resource Graph Explorer や Microsoft Defender for Cloud などのツールを利用して、検出プロセスを自動化します。 Microsoft Defender for Cloud では、生成 AI ワークロードの検出や、事前にデプロイされた生成 AI のアーティファクトの検出が可能です。

  • Azure AI プラットフォームをセキュリティで保護します。 すべての AI リソースに対する Azure セキュリティ ベースラインのアプリケーションを標準化します。 Azure サービス ガイドのセキュリティに関する推奨事項に従ってください。

  • ワークロード固有のガバナンス ガイダンスを使用します。 詳細なセキュリティ ガイダンスは、Azure プラットフォーム サービス (PaaS) と Azure インフラストラクチャ (IaaS) 上の AI ワークロードで使用できます。 このガイダンスを使用して、これらのワークロード タイプの AI モデル、リソース、データをセキュリティで保護します。

AI データをセキュリティで保護する

AI データをセキュリティで保護するには、AI モデルが使用し、生成するデータを保護する必要があります。 効果的なデータ セキュリティ プラクティスは、不正アクセス、データ漏洩、コンプライアンス違反を防ぐのに役立ちます。 データ アクセスの制御と詳細なカタログの維持も、情報に基づいた意思決定をサポートし、機密情報が漏洩するリスクを軽減します。

  • データ境界を定義して維持します。 AI ワークロードがアクセス レベルに適したデータを使用していることを確認します。 全従業員がアクセスできる AI アプリケーションは、全従業員に適したデータのみを処理すべきです。 インターネットに接続する AI アプリケーションは、一般使用に適したデータを使用しなければなりません。 不注意によるデータ アクセスを防ぐため、AI アプリケーションごとにデータセットや環境を分けて使用します。 Microsoft Purview の一連のデータ セキュリティツールを使用して、貴社のデータをセキュリティで保護することを検討してください。

  • 厳密なデータ アクセス制御を実装します。 アプリケーションで、エンド ユーザーがクエリに関連するデータにアクセスする権限を有していることを確認します。 ユーザー アクションに対する広範なシステム アクセス許可を回避します。 AI が特定の情報にアクセスできる場合はユーザーに直接アクセスする権限を与えるという原則に従って操作します。

  • データ カタログを管理します。 ストレージの場所やアクセスの詳細など、AI システムに接続され、使用されるすべてのデータの最新のカタログを保持します。 定期的にデータをスキャンしてラベル付けし、機密レベルと適合性を追跡することで、分析とリスクの識別を支援します。 Microsoft Purview データ カタログを使用してデータをマップおよび管理することを検討してください。

  • データの機密度変更管理計画を作成します。 データの機密度レベルは、時間の経過とともに変化する可能性があるため追跡します。 データ カタログを使用して、AI ワークロードで使用される情報を監視します。 AI ワークロードから機密データを見つけて削除するプロセスを実装します。

  • AI アーティファクトをセキュリティで保護します。 AI モデルとデータセットを貴重な知的財産として認識し、それに応じて保護するための対策を実装します。 AI モデルやデータセットをプライベート エンドポイントの背後や、Azure Blob Storage、専用ワークスペースなどのセキュリティで保護された環境に格納します。 厳密なアクセス ポリシーと暗号化を適用して、不正アクセスや盗難から AI アーティファクトを保護し、データ ポイズニングを防ぎます。

  • 機密データを保護します。 元のデータ ソースを直接使用できない場合は、必要な情報のみを含む複製、ローカル コピー、またはサブセットを使用します。 不正アクセスやデータ漏洩を防止するために、ネットワークの分離と厳格なアクセス制御を特徴とする制御された環境内で機密データを処理します。 さらに、暗号化、継続的監視、侵入検出システムなどの包括的な安全策を実装して、処理中のデータを侵害から保護します。

AI のセキュリティ制御を維持する

AI セキュリティ制御の維持には、進化する脅威に対処するための、継続的なセキュリティ対策の監視、テスト、更新が含まれます。 セキュリティ制御を定期的に見直すことで、AI ワークロードの保護の効果が継続し、組織が新しいリスクに適応できるようになります。 プロアクティブ メンテナンスは、侵害を防ぎ、長期にわたって AI システムの信頼を維持するのに役立ちます。

  • AI システムにおけるデータ漏えいと強制性のテストを実施します。 AI システムを通じて機密データが漏洩または強要される可能性があるかどうかを判断する厳格なテストを実施します。 データ損失防止 (DLP) テストを実行し、AI 固有の攻撃シナリオをシミュレートします。 モデルの反転攻撃または敵対的攻撃をシミュレートして、データ保護対策の回復性を評価します。 AI モデルとデータ処理プロセスが不正アクセスや不正操作に対してセキュリティで保護されていると保証することは、データの完全性と AI アプリケーションの信頼性を維持するために極めて重要です。

  • AI に重点を置いた従業員のトレーニングを提供し、意識向上を図ります。 AI プロジェクトに関与するすべての従業員にトレーニング プログラムを提供します。 AI の開発とデプロイに固有のデータ セキュリティとベスト プラクティスの重要性を強調します。 トレーニングで使用される機密データを処理し、モデルの反転やデータ ポイズニング攻撃などの脅威を認識する方法についてスタッフに教育します。 定期的なトレーニングにより、チーム メンバーは最新の AI セキュリティ プロトコルに関する知識を身につけ、AI ワークロードの整合性を維持する上での役割を理解します。

  • AI セキュリティ インシデントのインシデント対応計画を作成し、維持します。 潜在的なデータ侵害やセキュリティ インシデントに対処するために、AI システムに合わせてカスタマイズしたインシデント対応戦略を作成します。 この計画では、AI モデル、データ、またはインフラストラクチャに影響を与える可能性があるセキュリティ インシデントを検出、報告、軽減するための明確な手順を概説する必要があります。 AI 固有のシナリオに焦点を当てた定期的な訓練とシミュレーションを実施して、対応チームが実際の AI セキュリティ インシデントを効率的に処理できる態勢を整えます。

  • 定期的なリスク アセスメントを実施します。 リスク アセスメントと影響分析を通じて、AI に固有の新たな脅威と脆弱性を定期的に評価します。 これらの評価は、AI モデル、データ処理プロセス、デプロイ環境に関連する新しいリスクを特定するのに役立ちます。 評価では、AI システムに対するセキュリティ侵害の潜在的な影響も評価されます。

次のステップ

AI のガバナンス、AI の管理、セキュリティで保護された AI は、定期的な反復処理を必要とする継続的なプロセスです。 必要に応じて、各 AI 戦略、AI 計画、AI-Ready を見直します。 AI 導入チェックリストを使用して、次のステップを決定します。