次の方法で共有


Microsoft Copilot for Security のプライバシーとデータ セキュリティ

Microsoft Copilot for Security を使用すると、顧客データとシステム生成ログがサービスの一部として格納および処理されます。

データ共有は既定で有効になっています。 グローバル管理者とセキュリティ管理者には、Copilot for Security で Copilot 所有者の役割が割り当てられます。 Copilot の所有者は、初回実行エクスペリエンス中で、また、その後いつでも、顧客データのデータ共有設定を変更できます。 役割の詳細については、「Copilot for Security の役割」をご覧ください。

重要

Microsoft では、アクセス許可が可能な限りで少ないロールを使用することをお勧めします。 アクセス許可の低いアカウントを使用すると、組織のセキュリティが向上します。 グローバル管理者は高い特権を持つロールであり、既存のロールを使用できない場合の緊急時に限定する必要があります。

この記事では、Copilot for Security の顧客データとシステム生成ログを比較し、データ共有オプションについて説明し、データが保護される方法を要約します。

顧客データとシステム生成ログ

Microsoft 製品使用条件で定義されているとおり、顧客データ とは、顧客またはその代理人から Microsoft に提供されるすべてのデータをいい、これにはすべてのテキスト、サウンド、ビデオ、イメージ ファイルおよびソフトウェアが含まれます。 顧客データには、Professional Services データまたはオンライン サービスでリソースを構成するために使用される情報 (技術設定やリソース名など) は含まれません。

Microsoft オンライン サービスは、サービスの通常の運営の一環として、"システム生成ログ" を作成します。 システム生成ログは、システムが期待通りに動作しているかどうかを Microsoft が監視できるように、長期にわたりシステム アクティビティを継続的に記録します。 "ログ" (ログのストレージと処理) は、運用上の問題、ポリシー違反、不正行為を特定、検出、対応、防止するために不可欠です。 ログは、システム、ネットワーク、アプリケーションのパフォーマンスを最適化するため、また、セキュリティ調査と回復性アクティビティを支援し、法令に遵守するためにも不可欠です。

次の表では、Copilot for Security の顧客データとシステム生成ログを比較しています。

顧客データ システム生成ログ
- ユーザーが Copilot for Security に提供するプロンプト。
- 応答を生成するために取得される情報。
- 応答。
- ピン留めされた項目の内容。
- ファイルのアップロード。
- アカウント情報 (テナント ID、アカウント ID、ライセンスなど)。
- 利用状況データ。
- パフォーマンス情報。
- 内部システム動作情報。

顧客データの共有設定

データ共有は既定で有効になっています。 Copilot の所有者は、初回実行エクスペリエンス中で、また、その後いつでも、顧客データのデータ共有設定を変更できます。

次の表で説明するこれらの顧客データ共有設定を有効または無効にすることは、Microsoft 製品/サービス データ保護追加契約に基づく Microsoft の権利または責任には影響を与えません。

次のデータ共有オプションを利用できます:

設定 説明
Copilot for Security からデータをキャプチャし、人間によるレビューを使用して製品のパフォーマンスを検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- Copilot for Security が、ユーザーの要求に対する応答を正常に提供し、ユーザーのプロンプトに基づいて対処する必要がある機能ギャップを把握する機能。

- 顧客が Copilot for Security を使用しているタスクの種類を把握します。

- 応答の使いやすさと品質に関するメトリクスを作成します。

- 顧客が購入および統合した他の Microsoft 製品に関与する Copilot for Security 機能を検証します。

- 他の Microsoft 製品にアクセスするプラグインからの応答を改善します。

詳細については、「プロンプト評価の場所を設定し、データ共有にオプトイン (またはオプトアウト) する」をご覧ください。
Copilot for Security からデータをキャプチャして人間によるレビューを行い、Microsoft のセキュリティ AI モデルを構築して検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- キャプチャされたデータは、Azure OpenAI 基盤モデルの上に構築されるセキュリティ固有のモデルを開発するために使用され、これにより、Copilot for Security と統合先のその他の Microsoft 製品でよりインテリジェントでパーソナライズされた機能が実現します。

注: データは OpenAI と共有されず、Azure OpenAI 基盤モデルのトレーニングに使用されることもありません。

Microsoft 365 サービスからのデータへのアクセス

Copilot for Security は、組織がライセンスを取得した複数の Microsoft 365 および Microsoft Security サービスとシームレスに統合されます。 スタンドアロン エクスペリエンスと埋め込みエクスペリエンスの両方で、ユーザーがこれらの製品を使用してそれらのサービスから直接情報を照会できるようにするオプションがあります。

注:

現在、Copilot for Security は、Microsoft Purview によって処理される Microsoft 365 サービス データと、Microsoft Purview によって生成された顧客データ (DLP アラートなど) にのみアクセスします。

Microsoft Purview では、データ損失防止 (DLP)、インサイダー リスク管理 (IRM)、コミュニケーション コンプライアンスなどのサービスは、Microsoft 365 サービス データ (またはその他のデータの種類) で実行するように管理者によって構成されます。

Copilot for Security がアクセスできるデータ型は、管理者が Microsoft Purview 用に構成した内容によって決まります。

次の表は、Copilot for Security によってアクセスされる Microsoft 365 サービス データをまとめたものです。

Microsoft Purview 製品またはサービス Copilot for Security によってアクセスされる内容
データ損失防止 DLP の一致に関連付けられている DLP アラート データ
Microsoft Information Protection ラベル付けアクティビティに関連付けられているアクティビティ ログ
電子情報開示 電子情報開示検索のレビュー セット内でキャプチャされたデータ
インサイダー リスクの管理 IRM ポリシー アラートに関連付けられている IRM アラート データ
通信コンプライアンス コミュニケーション コンプライアンス ポリシーのポリシー一致内でキャプチャされたデータ

Microsoft Purview によって生成された顧客データを含む、Copilot for Security によってアクセスされた Microsoft 365 サービス データは、ここに記載されているデータ処理アクティビティに従って処理および格納されます。 つまり、Copilot for Security によってアクセスされた Microsoft 365 データは、Copilot for Security がデータにアクセスする前に、EU データ境界サービスおよび本製品条項の「コア オンライン サービス用の顧客保存データ」セクションのデータ所在地に関するコミットメントに関係なく、に従ってデータが処理または格納された場所に関係なく、本書に記載されている場所に処理および格納されます。 また、Copilot for Security によってアクセスされた Microsoft 365 データは、Copilot for Security によって Microsoft 365 データにアクセスされる前に、製品条項の「コア オンライン サービスのセキュリティ プラクティスとポリシー」セクションのデータに適用されるセキュリティ プラクティスとポリシーに関係なく、Copilot for Security に適用されるセキュリティ プラクティスおよびポリシーに従って処理されます。

Microsoft Purview によってキャプチャ、記録、および保持される情報の詳細については、「Microsoft Purview の監査ソリューションに関する詳細」を参照してください。 Microsoft 365 で監査されるアクティビティの詳細については、「監査ログ アクティビティ」を参照してください。

設定 説明
Microsoft 365 サービスのデータにアクセスすることを Copilot for Security に許可する また、オンにすると:

- Copilot for Security では、Copilot for Security と Microsoft 365 サービスの両方の顧客であり、Microsoft 365 サービスへの Copilot for Security アクセスを許可している場合、Microsoft 365 サービスから代わりにデータを取得することができます。 Copilot for Security によってアクセスされる Microsoft 365 サービス データの詳細については、前のセクションの注を参照してください。

- Copilot for Security のクエリに応答するために返される Microsoft 365 データを含むすべてのデータは、Copilot for Security のデータ保持ポリシーに従って保持されます。 詳細については、「顧客データの保存場所」をご覧ください。

Microsoft 365 サービス データ アクセスの構成

次の手順を使用して、Microsoft 365 サービスへの Copilot for Security のアクセスをオンまたはオフにします。

  1. Copilot for Security で、[設定]>[所有者の設定] に移動します。

  2. データ共有の選択を更新します。

警告

Microsoft 365 のデータ アクセスをオフにしても、それらの Microsoft 365 サービスから取得されたデータがその時点で削除されるわけではありません。 その時点までアクセスされた Microsoft 365 データは、Copilot for Security のデータ保持ポリシーに従って削除されます。 詳細については、「データの保持と削除」を参照してください。

顧客データの保存場所

顧客がデータ共有にオプトインしていない場合、顧客データは保存時にテナントのホーム "地域" に格納されます。 たとえば、ホームがドイツにある顧客テナントの場合、顧客データはドイツの指定地域である "ヨーロッパ" に格納されます。

データ共有にオプトインすると、プロンプトや応答などの顧客データは、製品のパフォーマンスの強化、精度の改善、応答の遅延への対応などを行えるよう、Microsoft と共有されます。 この場合、顧客データ (アップロードされたファイルを除く) はテナント地域の外に格納されることがあります。 アップロードされたファイルはテナント地域の外には格納されません。ただし、アップロードされたファイルの内容が、セッション中に応答を生成するために取得された情報の一部である場合、その取得された内容はテナント地域の外に格納されることがあります。

詳細については、「Azure でのデータ所在地」をご覧ください。

ファイル アップロードの格納と処理

アップロードされたファイルは、常にテナントのホーム地域に格納されます。 アップロードされたファイルは、テナントの境界内ではなく、Copilot for Security サービスに格納されます。 アップロードされたファイルは、アップロードしたユーザー アカウントのみが使用でき、テナント内とテナント外の他のユーザーは使用できません。

データ共有にオプトインされている場合、Microsoft は、アップロードされたファイルの内容が応答を生成するために取得された情報の一部である場合にのみ、その内容をキャプチャして人間によるレビューを行うことがあります。

Security Copilotの Microsoft Purview の監査ログ

microsoft Purview for Security Copilotの監査ログ機能では、次の種類のデータがキャプチャされます。

  • 管理 イベント - テナント レベルの設定の変更や管理上の変更 (データ共有、プラグイン、プロンプトブックの構成など) などの特権アクション。

  • アクティビティ メタデータ - Security Copilot プラットフォーム内のユーザー操作のログ (たとえば、ユーザーがアクティビティの種類に関する情報を含むプロンプトを特定の時点で要求した場合など)。

    注:

    これには、実際のプロンプトや応答などの顧客コンテンツは含まれません。

詳細については、「 監査ログにアクセスする」を参照してください。

Microsoft Purview は、Microsoft 365 データが格納されているリージョンに顧客データを格納します。 詳細については、「Microsoft Purview のData Residencyサポート」を参照してください。 監査ログの既定の保持期間は 180 日ですが、監査ログ保持ポリシーを使用して延長できます。 詳細については、「監査ログ保持ポリシーを管理する」を参照してください。

データの保持と削除

お客様が Copilot for Security への有効なサブスクリプションを持っている限り、Copilot for Security は、製品内機能に必要な顧客データ (セッション データ (例: プロンプトや応答) など) を保存します。

顧客データは、次のシナリオで削除される可能性があります。

  • プロビジョニングされたすべての容量を削除する場合
    顧客データは、プロビジョニングされたすべての容量を削除してから 180 日以内に削除されます。 詳細については、「容量の 削除」を参照してください。

  • 顧客データの削除を要求する場合
    ポータル (https://securitycopilot.microsoft.com) を通じて、またはカスタマー サポートを通じて削除を要求することで、Copilot for Security に顧客データの削除を要求することもできます。 この顧客データは、その要求から 30 日以内に削除されます。

顧客データを Copilot for Security と共有することを選択した場合、この顧客データは、その顧客データを評価するチームによって削除される前に、Copilot for Security によって 90 日間のみ保持されます。

データ共有をオプトアウトすると、Copilot for Security は共有されたすべての顧客データを 30 日以内に削除します。 お客様が Copilot for Security の有効なサブスクリプションをお持ちである限り、かつ、顧客データの削除を要求しない限り、顧客データはお客様によってお客様のテナントに保持されます。

プロンプト評価の場所

Microsoft Copilot 製品では、プロンプトとは、Copilot for Security に応答を生成するよう指示する、プロンプト バーに入力するテキストベースの自然言語入力のことを指します。 プロンプトは、Copilot がセキュリティ関連のタスクに役立つ回答を生成するために必要な、最も重要な入力です。 プロンプトは、Azure のセキュリティとプライバシーの管理策で保護された Azure データセンターの GPU リソースを使用して評価されます。

プロンプトを評価する場所は、次のいずれかの場所から選択できます:

  • オーストラリア (ANZ)
  • ヨーロッパ (EU)
  • 英国 (UK)
  • 米国 (US)

世界中のどの場所でもプロンプトの評価を受けることを選択でき、メインの場所で高アクティビティが発生している場合でも、中断が発生する可能性を軽減することができます。 

Microsoft では、プロンプトの評価を、使用可能な GPU 容量があるあらゆる場所で受けることをお勧めします。これにより、Copilot システムは、負荷、遅延、応答性に基づいて最適な場所を判断できるようになります。 

注:

顧客データの共有にオプトインしない限り、データ (セッション) は常にテナントのホーム地域に格納されます。 詳細については、「顧客データの保存場所」をご覧ください。

プロンプト評価の場所を設定し、データ共有にオプトイン (またはオプトアウト) する

初期セットアップ中、Copilot 所有者は、データ共有とプロンプト評価のオプションを設定するよう求められます。 詳細については、「Copilot for Security の使用を開始する」をご覧ください。 Copilot の所有者は、初回実行エクスペリエンス中、またはその後いつでも、これらの設定を変更できます。

権限のある役割
データ共有オプションを変更するには、Copilot 所有者である必要があります。 役割の詳細については、「認証について」をご覧ください。

データ共有を設定する

初期セットアップ中、Copilot 所有者には次のデータ共有オプションが提示されます:

設定 説明
Copilot for Security からデータをキャプチャし、人間によるレビューを使用して製品のパフォーマンスを検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- Copilot for Security が、ユーザーの要求に対する応答を正常に提供し、ユーザーのプロンプトに基づいて対処する必要がある機能ギャップを把握する機能。

- 顧客が Copilot for Security を使用しているタスクの種類を把握します。

- 応答の使いやすさと品質に関するメトリクスを作成します。

- 顧客が購入して統合した他の Microsoft 製品に関連する Copilot for Security 機能を検証します。

- 他の Microsoft 製品にアクセスするプラグインからの応答を改善します。
Copilot for Security からデータをキャプチャして人間によるレビューを行い、Microsoft のセキュリティ AI モデルを構築して検証することを Microsoft に許可する このような検証には、次のものが含まれますが、これらに限定されません。

- キャプチャされたデータは、Azure OpenAI 基盤モデルの上に構築されるセキュリティ固有のモデルを開発するために使用され、これにより、Copilot for Security と統合先のその他の Microsoft 製品でよりインテリジェントでパーソナライズされた機能が実現します。

注: データは OpenAI と共有されず、Azure OpenAI 基盤モデルのトレーニングに使用されることもありません。
  • データ共有にオプトインすると、その時点以降、顧客データは Microsoft と共有されます。
  • データ共有をオプトアウトすると、それ以降の顧客データは共有されません。 以前に共有された顧客データは、180 日を上限として保持されます。

データ共有の更新

  1. Copilot for Security で、[設定]>[所有者の設定] に移動します。

  2. データ共有の選択を更新します。

Microsoft がデータを保護する方法

Microsoft は、包括的な管理策を使用してデータを保護しています。 すべての Copilot for Security データは、プライバシー、セキュリティ、コンプライアンス、責任ある AI 慣行への Microsoft の取り組みに沿った方法で処理されます。 データが格納されているシステムへのアクセスは、Microsoft の認定プロセスによって管理されます。

Copilot for Security はユーザーとしてクエリを実行するため、ユーザーが持つ特権を超える昇格された特権を持つことはありません。

顧客データの共有にオプトインした場合、データは:

  • OpenAI と共有されません
  • 営業目的で使用されません
  • サード パーティと共有されません
  • Azure OpenAI 基盤モデルのトレーニングに使用されません

Copilot for Security は、Azure 運用環境のすべてのデータ コンプライアンス基準を満たしています。

Azure に格納されているすべてのデータは保存時に自動的に暗号化され、AES-256 暗号化が使用されます。 詳細については、「データ暗号化」と「保存時の暗号化」を参照してください。

Microsoft Security 製品によるデータ処理

お客様が購入した Microsoft Security 製品は、製品ドキュメントに記載されているとおり、顧客データを含むデータを共有することがあります。 Copilot for Security と共有される顧客データは、製品使用条件、データ保護追加契約、および Copilot for Security に適用されるドキュメントによって管理されます。 Microsoft 365 サービスの場合、管理者は「Microsoft 365 サービスからのデータへのアクセス」で詳しく説明している共有設定オプションで Copilot for Security を有効にする必要があり、ユーザーはそれらの Microsoft 365 サービスのプラグインを有効にする必要があります。 その他の Microsoft サービスの場合、このようなプラグインはユーザーに対して既定で有効になっています。 ユーザーはいつでもプラグインをオフにできます。 詳細については、「プラグインを管理する」をご覧ください。

Copilot for Security ユーザーからのフィードバック

Microsoft は、Microsoft Copilot for Security によって生成された応答に関するフィードバックを本製品のユーザーから収集しています。 Copilot 所有者は、サポート チケットを通じて Microsoft サポートに連絡することで、テナントのフィードバック収集をオフにすることができます。 詳細については、「サポートに問い合わせる」をご覧ください。

関連項目

Azure OpenAI Service のデータ、プライバシー、セキュリティ

Microsoft の責任ある AI 原則