次の方法で共有


Microsoft 365 Copilotの AI セキュリティ

AI は多くのセクターに革命を起こしたので、これまでにない機能と効率性が提供されています。 たとえば、AI を活用した生産性ツールであるMicrosoft 365 Copilotは、大規模な言語モデル (LLM)、Microsoft Graphs のコンテンツ、および microsoft 365 生産性アプリ (Word、Excel、PowerPoint、Outlook、Teams、SharePoint など) を調整します。 この統合はリアルタイムのインテリジェント アシスタンスを提供し、ユーザーが創造性、生産性、スキルを強化できるようにします。

顧客はこれらの機会を探求することに熱心であり、それらに付属するセキュリティの重要な側面を慎重に検討しています。 AI 変革の過程にあるお客様との対話に基づいて、データ セキュリティ、プライバシー、モデルの堅牢性、サイバー攻撃などのトピックが最優先事項であることを理解しています。

Microsoft では、これらの考慮事項がいかに重要であるかを理解しているため、セキュリティ リスクからMicrosoft 365 Copilotなどの生産性ツールを保護するために、堅牢な多層防御戦略を採用しています。 この多層アプローチには、高度な脅威インテリジェンス、厳格なセキュリティ プラクティス、プロアクティブなセーフガードの組み合わせが含まれます。 たとえば、Microsoft 365 Copilotをテストするための独自の赤いチーミング演習に加えて、Microsoft 365 製品スイート全体で 9 つの Copilot 実装をテストするために Casaba Security を使用しました。 テスト の結果に迅速に対処し、解決しました。この結果は、Open Worldwide Application Security Project (OWASP) for LLM のトップ 10 と、アプリケーション インフラストラクチャをサポートする従来のセキュリティの脆弱性を特定することに重点を置いています。

Microsoft では、Microsoft 365 Copilotが既存のプライバシー、セキュリティ、コンプライアンスに関するコミットメントに準拠していることを確認するための広範な手順を実行します。 また、AI テクノロジとユース ケースが進化し続けるにつれて、Microsoft の作業は決して行われず、Microsoft は Copilot の保護を継続的に強化し、システムの独自の監視とテストから学び、顧客、パートナー、および広範なセキュリティ業界と協力することに取り組んでいます。

この記事では、AI に対する Microsoft の全体的なセキュリティ体制の概要と、さまざまな Microsoft セキュリティ ソリューションが連携して、Microsoft 365 Copilotやその他の AI アプリケーションでデータと相互作用をセキュリティで保護する方法について説明します。 この記事は、新たなリスクとソリューションのイノベーションに関する新しい情報で更新されます。

Microsoft 365 Copilotのセキュリティ保護

Microsoft では、セキュリティは単なる優先順位ではありません。それは私たちが行うすべての基盤です。 このコミットメントは AI にまで及びます。責任ある AI の Microsoft Office が AI 体験の安全性とセキュリティをガイドするだけでなく、最近拡張された Secure Future Initiative は、すべてのユーザーに安全なデジタル環境を作成するための取り組みをさらに反映しています。

AI の包括的なセキュリティ体制には、次の柱があります。

  • 責任ある AI 開発: 責任 ある AI 原則を Microsoft が推進します。 これらの原則は、AI ライフサイクル全体を通じて、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任を重視します。
  • セキュリティのベスト プラクティス: Microsoft AI 製品を使用する開発者、エンジニア、セキュリティ プロフェッショナル向けに、カスタマイズされたリソースとベスト プラクティスを提供します。 これらのリソースは、組織がデプロイ中にセキュリティ対策を理解して実装するのに役立ちます。
  • セキュリティ開発ライフサイクル (SDL): 厳格な SDL では、AI 開発プロセス全体にわたってセキュリティに関する考慮事項が統合されています。 このプロアクティブなアプローチにより、最初から脆弱性が特定され、軽減されます。
  • 脅威の調査、検出、軽減策: AI モデルに対する脅威を検出して軽減するための戦略に積極的に投資します。 これには、潜在的な攻撃に対する継続的な脆弱性の監視と対策の開発が含まれます。 Microsoft Threat Intelligence は、グローバルな研究者ネットワークであり、AI アプリケーションを利用する可能性のある脅威アクターやサイバー攻撃の 脅威状況 も監視します。

Microsoft は、ユーザー入力ステージからシステム出力ステージまで、Microsoft 365 Copilotの AI 機能のプライバシー、セキュリティ、信頼性を保護します。 Microsoft 365 Copilotは、一般データ保護規則 (GDPR) や欧州連合 (EU) データ境界など、既存のプライバシー、セキュリティ、コンプライアンスに関するコミットメントに準拠しています。 これらのコミットメントに従って、Microsoft は Copilot を使用して入力されたプロンプトで情報を処理し、取得されたデータと生成された応答は顧客データとしてセキュリティ保護され、契約上のデータ処理要件の対象となります。

次のセクションでは、Microsoft がMicrosoft 365 Copilotを採用するための重要な顧客の考慮事項であるプライバシー、セキュリティ、コンプライアンスのさまざまな側面に対処する方法について説明します。

アクセス制御とアクセス許可の管理

Microsoft 365 Copilotは、ユーザーの代わりにリソースにアクセスするため、ユーザーが既にアクセス許可を持っているリソースにのみアクセスできます。 たとえば、ユーザーがドキュメントにアクセスできない場合は、ユーザーの代わりに作業Microsoft 365 Copilotもアクセスできません。

応答の生成に使用されるデータは、転送中の暗号化、プライバシーの保護、データ漏洩の防止に役立つなど、契約上のデータ処理要件に従って Microsoft によって処理されます。 さらに、Microsoft Graph と SharePoint からのデータを含む Microsoft 365 データは、アクセス制御と監査メカニズムに準拠しています。

Microsoft 365 Copilotは、情報バリア、条件付きアクセス、秘密度ラベルなど、ユーザーのアクセスとアクセス許可をさらに制限する Microsoft 365、Microsoft Entra、および Microsoft Purview ポリシーを尊重します。

Microsoft 365 Copilotは、Copilot によって生成された応答のデータ流出を防ぐために、データ損失防止 (DLP) ポリシーを継承します。 さらに、これらの応答に秘密度ラベルを適用することで、データセキュリティを強化します。

モデルトレーニング中のデータの保護

Microsoft 365 Copilotは、Microsoft がホストする事前トレーニング済みの LLM モデルを使用します。顧客データを使用してこれらのモデルをトレーニングすることはありません。 さらに、プロンプトと接地データは AI モデルのトレーニングに使用されることはなく、OpenAI やその他のサード パーティと共有されることはありません。

データ所在地の要件を満たす

Microsoft は、Microsoft 製品使用条件およびデータ保護補遺に記載されているデータ所在地のコミットメントを尊重します。 Microsoft Advanced Data Residency (ADR) および Multi-Geo Capabilities オファリングには、2024 年 3 月 1 日時点の Microsoft 365 Copilot のお客様に対するデータ所在地コミットメントが含まれます。 欧州連合 (EU) ユーザーの場合、Microsoft は EU データ境界に準拠するための追加のセーフガードを備えています。 EU トラフィックは EU データ境界内にとどまり、世界中のトラフィックは LLM 処理のために EU およびその他の国または地域に送信できます。

AI 処理のために送信されるすべてのデータは、転送中と保存時の両方で暗号化されます。 Microsoft 365 では、処理ライフサイクル全体を通じてデータのセキュリティを確保するために、保存中および転送中の顧客コンテンツ (BitLocker、ファイルごとの暗号化、トランスポート層セキュリティ (TLS) 1.2、インターネット プロトコル セキュリティ (IPsec) など) を暗号化する FIPS 140-2 準拠のサービス側テクノロジを使用します。

迅速な注入に対する強化

Microsoft では、複数のレイヤーでのコンテンツ フィルター処理、厳格なセキュリティ プロトコル、継続的な監視に高度な機械学習の組み合わせを使用しています。 間接またはクロスプロンプトインジェクション分類子は、複数のレイヤーでプロンプトインジェクションを検出してブロックします。 一方、次のような防御は、クロスプロンプトインジェクション攻撃 (XPIA) のセキュリティへの影響を最小限に抑えるのにも役立ちます。

  • XPIA 分類子は、XPIA のインスタンスを検出および削減するために使用されます

  • 電子メール メッセージの送信など、コンテンツを変更または送信する可能性がある特権アクションとアクションに対する人間のループ内 (ユーザーが開始または承認したアクション) の要件

  • データ流出を防ぐために不要なデータエグレス メカニズムが削除される

さらに、迅速なインジェクション攻撃のコンテキストでは、攻撃者はユーザーがアクセスできる範囲でのみデータにアクセスできます。 つまり、攻撃者は、ユーザーがシステム内で持っているアクセス許可とデータに制限されます。 この制限は、ユーザーのアクセス許可のスコープに対する迅速なインジェクション攻撃の潜在的な損害を含めるのに役立ちます。

責任ある AI 原則への準拠

Microsoft 責任ある AI 原則は、Microsoft 365 Copilotの開発と使用に関するガイドです。 たとえば、Microsoft 365 Copilotでは、Azure AI Content Safetyで使用できる分類子やメタプロンプティングを実装して、有害、攻撃的、または暴力的なコンテンツのリスクを軽減します。 Microsoft 365 Copilotでは、AI ベースの分類子とコンテンツ フィルターを使用して、ユーザー プロンプトまたは生成された応答で、さまざまな種類の有害な可能性のあるコンテンツにフラグを設定します。 一方、メタプロンプティングでは、システムが Microsoft の AI 原則とユーザーの期待に従って動作することを確認するなど、モデルの動作をガイドします。

Microsoft では、ランサムウェアやその他のマルウェアベースの攻撃に対するMicrosoft 365 Copilotの使用を防ぐために、迅速な検査テクノロジとコンテンツ フィルターも適用します。 さらに、セキュリティ開発ライフサイクル (SDL) は、リモート コード実行に対してMicrosoft 365 Copilotをセキュリティで保護するのに役立ちます。 これを行う方法の 1 つは、Copilot が制約のないコードと未設定のコードを実行できないようにすることです。

固定されていないコンテンツを防ぐために、Microsoft 365 Copilotでは、Microsoft 365 テナントのお客様のコンテンツに関する情報を提供できる専用のセマンティック データベースを使用して、取得拡張世代 (RAG) を実装します。 Microsoft は、応答の基礎レベルの変更を継続的かつ慎重に確認します。 Microsoft 365 Copilotに加えた変更 (プロンプト、モデル、オーケストレーションなど) については、ユーザーに悪影響を与える可能性のある回帰をキャッチします。

Azure AI には、AI アプリ開発者がより安全な AI アプリケーションを構築できるようにすることで、これらのセーフガードをさらに強化するのに役立つ 新しいツール があります。

Microsoft は、保護されたコンテンツの生成に対する保護を組み込んでいます。これには、著作権侵害訴訟が発生した場合に、お客様を保護し、有害な判断を補償するための業界初の 顧客著作権コミットメント プログラムが含まれています。

規制要件を満たす

Microsoft 365 Copilotは、電子情報開示、監査ログ記録、および保持に関する規制要件をいくつかのメカニズムで満たしています。

  • アイテム保持ポリシー: Microsoft 365 Copilotからのメッセージは、Teams チャットと Copilot 操作という名前のアイテム保持ポリシーの場所に自動的に含まれます。 つまり、コンプライアンス上の理由から、ユーザー プロンプトと Copilot 応答を保持および削除できます。 Copilot メッセージのデータは、コンプライアンス管理者が電子情報開示ツールを使用して検索できる Copilot を実行するユーザーのメールボックスの非表示フォルダーに格納されます。

  • 監査ログ: Microsoft 365 Copilotによって生成された監査ログは、監査 (Standard) のお客様には最大 180 日間、監査 (Premium) ライセンス所有者には最大 1 年間保持でき、最大 10 年まで延長できます。

  • Microsoft Purview のコンプライアンス: Microsoft Purview は、Copilot のような生成型 AI アプリのデータ セキュリティとコンプライアンス保護を提供します。 現在プレビュー段階の Microsoft Purview Data Security Posture Management では、使いやすいグラフィカル ツールとレポートが提供され、organization内での AI の使用に関する分析情報をすばやく得ることができます。 ワンクリック ポリシーは、データを 保護し、規制要件に準拠するのに役立ちます。

  • 管理コントロール: 管理者は Microsoft Purview を使用して、保存されたデータの表示と管理、保持ポリシーの設定、電子情報開示検索の実行を行うことができます。 管理者とユーザーが開始する削除オプションは、Purview 経由で使用できます。

よく寄せられる質問

Microsoft 365 Copilotの結果は信頼できますか?

Microsoft のセーフガードは、誤った情報や侵害に対する強力な脅威軽減策を提供しますが、AI アプリケーションと同様に、Microsoft 365 Copilotの応答が常に正確であるとは限りません。 これらの応答をチェックするには、引き続き人間の判断を適用する必要があります。

Microsoft は自分のプロンプトと応答をどのように扱いますか?

Microsoft は、電子メール、ドキュメント、チャットなどの他の従来の形式のコンテンツを扱う場合に、プロンプトと応答を扱い、契約上のコミットメントは同じです。

データMicrosoft 365 Copilot使用して AI モデルをトレーニングしますか?

プロンプト、応答、Microsoft Graph を介してアクセスされた顧客データは、Microsoft 365 Copilotで使用されるものも含め、基盤の LLM のトレーニングには使用されません。 製品の改善は、顧客から報告されたインシデントや合成プロンプト生成などの手法によって推進されます。

予期しないコンテンツや不快なコンテンツが表示された場合はどうすればよいですか?

プロンプト応答の横にあるダウン投票 (サムダウン) ボタンを選択して、不穏なコンテンツや疑わしいコンテンツを直ちに報告します。

Microsoft 365 Copilot脆弱性評価レポートにアクセスするにはどうすればよいですか?

Microsoft 365 Copilotのサードパーティの脆弱性評価は、Service Trust Portal からダウンロードできます。

Microsoft は、AI アプリケーションのリスクを見つけるのに役立ちますか?

Microsoft は、セキュリティの専門家と機械学習エンジニアが独自の生成型 AI システムでリスクを事前に検出できるようにするオープン アクセス自動化フレームワークである、ジェネレーティブ AI (PyRIT) 用の Python リスク識別ツールキットをリリースしました。

Microsoft 365 Copilotは、コンテンツを固定するときに持っていないデータにアクセスできますか?

Microsoft 365 Copilotは、ユーザーの代わりにリソースにアクセスするため、既にアクセス許可を持っているリソースにのみアクセスできます。

接地は ID のコンテキスト内で行われ、セマンティック インデックスとグラフ クエリは、基になるコンテンツに対するアクセス許可に基づいて "セキュリティ トリミング" されます。 このプロセスにより、承認されたコンテンツのみが接地プロセスに含まれます。

使用できるデータMicrosoft 365 Copilot制限するにはどうすればよいですか?

次の手順は、管理者がユーザー アクセスを制御し、使用できるデータMicrosoft 365 Copilot制限するのに役立ちます。

Microsoft セキュリティ ソリューションを使用してデータと AI アプリケーションの相互作用を保護するにはどうすればよいですか?

Microsoft では常に、エンタープライズ向けの強力なセキュリティ基盤を構築することをお勧めします。 ゼロ トラストセキュリティ戦略は、各接続とリソース要求を、制御されていないネットワークと脅威アクターから発生したかのように扱うため、このような基盤のガイダンスを提供します。 要求の発信元やアクセスするリソースに関係なく、ゼロ トラスト原則を使用します。

Microsoft Defender、Entra、Purview、Intuneを含む包括的なセキュリティ ソリューションが連携して、Microsoft 365 Copilotやその他の AI アプリケーションでデータと対話をセキュリティで保護します。 これらの製品には、あなたとチームが次の機能を利用できるようにする機能があります。

  • 機密性の高いデータ リークや、リスクの高いアプリケーションへの不正アクセスなど、AI の使用に関連する潜在的なリスクを特定する

  • プロンプトや応答など、AI アプリケーションと、処理または生成される機密データをセキュリティで保護する

  • 相互作用の保持とログ記録、ポリシー違反の検出、インシデントの調査によって、AI の使用を責任を持って管理する

たとえば、最近では、ジェネレーティブ AI アプリケーションとそのデータの堅牢なセキュリティとガバナンスのための専用ツールを提供する新しいMicrosoft Defenderおよび Purview 機能を導入しました。 さらに、製品間のMicrosoft Security Copilotのシームレスな統合により、セキュリティ アナリストのプロセスとエクスペリエンス全体が合理化されます。 セキュリティを優先し、これらの高度な機能を提供することで、組織は AI アプリケーションが提供する利点と機会を自信を持って適用できるようになります。

Microsoft 365 Copilotやその他の AI アプリケーションの脆弱性を報告する必要がある場所

AI プラットフォームで新しい脆弱性が検出された場合は、プラットフォーム所有者に対する責任ある開示プラクティスに従うことをお勧めします。 Microsoft 独自の手順 (Copilot の場合) については、 Microsoft AI 報奨金プログラムに関するページを参照してください。