Fabric におけるプライバシー、セキュリティ、Copilot の責任ある使用
Fabric で Copilot の使用を開始する前に、そのしくみ、会社データをセキュリティで保護し、プライバシー要件に準拠する方法、および責任を持って生成 AI を使用する方法について疑問が生じる場合があります。
この記事では、組織が Fabric 内で Copilot を使い始める際のに役立つ、会社データのセキュリティとプライバシーに関連してよく寄せられる質問に対する回答をご紹介します。 Power BI 内 Copilot のプライバシー、セキュリティ、責任ある使用 (プレビュー) 記事では、Power BI 内 Copilot の概要について説明します。 Fabric 用 Copilot の詳細については、以下をお読みください。
Note
- Copilot の使用を開始する前に、管理者がテナントスイッチを有効にする必要があります。 詳細については、Copilot テナント設定に関する記事を参照してください。
- お使いの F64 または P1 の容量が、Fabric を利用可能なリージョンに関する記事に記載されているいずれかのリージョンにある必要があります。
- お使いのテナントまたは容量が米国またはフランスの外部にある場合、Fabric テナント管理者が Fabric 管理ポータルで Azure OpenAI に送信されたデータを、テナントの地理的リージョン、コンプライアンス境界、または国内クラウド インスタンスの外部で処理できるというテナント設定を有効にしない限り、Copilot はデフォルトで無効になっています。
- Copilot in Microsoft Fabric は、試用版 SKU ではサポートされていません。 有料 SKU (F64 以上、または P1 以上) のみがサポートされます。
- Fabric の Copilot は現在、パブリック プレビュー段階でロールアウトされており、2024 年 3 月末までにすべての顧客が利用できるようになる予定です。
- 詳細については、Fabric と Power BI の Copilot の概要に関する記事を参照してください。
ビジネス データのセキュリティを確保
- Copilot 機能では、マイクロソフトが全てを管理している Azure OpenAI Service を使用しています。 お客様のデータはモデルのトレーニングには使用されず、他の顧客が使用することはできません。
- ご自身でデータが処理される場所を制御できます。 Fabric 内 Copilot によって処理されるデータは、ご利用のテナントの地理的リージョン内にとどまります。ただし、たとえば、ご利用のリージョンで Azure OpenAI を利用できない場合や、需要が高いために可用性が制限されている場合に、ユーザーが Copilot を使用できるようにするために、ご利用のリージョン外でのデータの処理を明示的に許可した場合などは除きます。 Copilot の管理者設定に関する詳細をご覧ください。
- Copilot は、不正使用の監視のためにデータを格納しません。 プライバシーと信頼を高めるために、不正使用の監視に対するアプローチを更新しました。以前は、不正使用や誤用を調べるため、プロンプトの入力と出力を含む Copilot in Fabric からのデータを、最大 30 日間保持していました。 お客様からのフィードバックに従い、この 30 日間のデータ保持はなくなりました。 現在、プロンプト関連のデータは保存されなくなったため、お客様のプライバシーとセキュリティに対する揺るぎない取り組みを行動で示しています。
Copilot 出力を使用する前のチェック
- Copilot の応答には不正確または低品質な内容が含まれている可能性があるため、作業で使用する前に出力を必ず確認してください。
- コンテンツの正確性と妥当性を有意義に評価できる人が出力のレビューを行う必要があります。
- 現在、Copilot の機能は英語で最適に機能します。 他の言語ではパフォーマンスが低下する可能性があります。
重要
Fabric のプレビューに関する補足の使用条件を確認します。これには、Microsoft 生成 AI サービス プレビューの使用条件が含まれます。
Copilot の動作のしくみ
この記事で Copilot は、Azure OpenAI Service を利用した Fabric のさまざまな生成 AI の機能と能力を指します。
一般に、これらの機能は、次に基づいて自然言語、コード、またはその他のコンテンツを生成するように設計されています。
(a) ユーザーが提供する入力、および
(b) その機能がアクセスできるグラウンディング データ。
たとえば、Power BI、Data Factory、データ サイエンスには、Copilot チャットが用意されており、そこで質問をしたり、データのコンテキストに応じた回答を得ることができます。 Power BI 用 Copilot では、レポートやその他の視覚化を作成することもできます。 データ ファクトリ用 Copilot はデータを変換し、適用された手順を説明することができます。 Data Science では、Notebookのカスタム IPython マジック コマンドなど、チャット ウィンドウの外部でも Copilot 機能を提供します。 Copilot チャットは、内部で Azure OpenAI を利用するその他の機能と共に、Fabric の他のエクスペリエンスに追加することができます。
この情報は Azure OpenAI Service に送信され、そこで処理されて出力が生成されます。 そのため、Azure OpenAI によって処理されるデータには、次のものが含まれる場合があります。
- ユーザーのプロンプトまたは入力。
- グラウンディング データ。
- AI 応答または出力。
グラウンディング データには、データセット スキーマ、特定のデータ ポイント、そのユーザーの現在のタスクに関連するその他の情報の組み合わせが含まれる場合があります。 このシナリオで Copilot 機能にアクセスできるデータの詳細については、各エクスペリエンスのセクションを確認してください。
Copilot との対話は、各ユーザーに固有です。 つまり、Copilot がアクセスできるのは、現在のユーザーがアクセス許可を持っているデータのみで、その出力は、そのユーザーにのみ表示されます。ただし、そのユーザーが出力を他のユーザーと共有する (生成された Power BI レポートや生成されたコードの共有など) 場合は除きます。 Copilot では、同じテナントまたは他のテナント内の他のユーザーからのデータは使用されません。
Copilot では、一般公開されている OpenAI Service ではなく、Azure OpenAI を使用して、ユーザーによる入力、グラウンディング データ、Copilot 出力を含むすべてのデータを処理します。 Copilot では現在、GPT 3.5 を含む GPT モデルの組み合わせを使用しています。 Microsoft は、Microsoft Azure 環境で OpenAI モデルをホストしています。このサービスは、ChatGPT や OpenAI API などの OpenAI によるどのサービスとも対話しません。 お客様のデータはモデルのトレーニングには使用されず、他の顧客が使用することはできません。 Azure OpenAI の詳細をご覧ください。
Copilot のプロセス
これらの機能は、次の同じ一般的なプロセスに従います。
- Copilot がユーザーからプロンプトを受け取ります。 このプロンプトは、ユーザーがチャット ペインに入力する質問の形式である場合もあれば、"レポートの作成" というボタンを選択するなどのアクションの形式である場合もあります。
- Copilot は、グラウンディングと呼ばれるアプローチを通じてプロンプトを前処理します。 シナリオによっては、これには、ユーザーの現在の Copilot とのセッションからのデータセット スキーマやチャット履歴などの関連データを取得することが含まれる場合があります。 グラウンディングによりプロンプトの特異性が向上するため、ユーザーは特定のタスクに関連する実用的な応答を得ることができます。 データ取得の範囲は、認証されたユーザーのアクセス許可に基づいてアクセスできるデータにスコープが設定されます。 詳細については、この記事の「Copilot で使用されるデータとその処理方法」セクションを参照してください。
- Copilot が Azure OpenAI から応答を受け取り、それを後処理します。 シナリオによっては、この後処理には、責任ある AI チェック、Azure コンテンツ モデレーションによるフィルター処理、または追加のビジネス固有の制約が含まれる場合があります。
- Copilot からユーザーへの応答は、自然言語、コード、またはその他の内容の形式で返されます。 たとえば、応答はチャット メッセージや生成されたコードの形式である場合もあれば、Power BI レポートや Synapse Notebook セルなどのコンテキストに適した形式である場合もあります。
- ユーザーは応答をレビューしてからそれを使用します。 Copilot の応答には不正確な内容や低品質の内容が含まれる可能性があるため、それを使用または共有する前に、領域の専門家がそれらを確認することが重要です。
Fabric の各エクスペリエンスが、特定のシナリオや (データ エンジニアからデータ アナリストにいたるまでの) ペルソナ向けに構築されているのと同様に、Fabric の各 Copilot 機能も、独自のシナリオやユーザーを念頭に置いて構築されています。 各機能の能力、用途、制限事項については、作業しているエクスペリエンスのセクションを確認してください。
定義
プロンプトまたは入力
ユーザーが Copilot に送信したテキストまたはアクション。 これは、ユーザーがチャット ペインに入力する質問の形式である場合もあれば、"レポートの作成" というボタンを選択するなどのアクションの形式である場合もあります。
グラウンディング
Copilot によってユーザーのプロンプトに応じたコンテキストの追加データが取得され、より関連性が高く実用的な応答を生成するために、そのデータがユーザーのプロンプトとともに Azure OpenAI に送信される前処理手法。
応答または出力
Copilot によってユーザーに返される内容。 たとえば、応答はチャット メッセージや生成されたコードの形式である場合もあれば、Power BI レポートや Synapse Notebook セルなどのコンテキストに適したコンテンツである場合もあります。
Copilot で使用されるデータとその処理方法
応答を生成するにあたり、Copilot は以下を使用します。
- ユーザーのプロンプトまたは入力。および必要に応じて、
- グラウンディング プロセスを通じて取得される追加のデータ。
この情報は Azure OpenAI Service に送信され、そこで処理されて出力が生成されます。 そのため、Azure OpenAI によって処理されるデータには、次のものが含まれる場合があります。
- ユーザーのプロンプトまたは入力。
- グラウンディング データ。
- AI 応答または出力。
グラウンディング データには、データセット スキーマ、特定のデータ ポイント、そのユーザーの現在のタスクに関連するその他の情報の組み合わせが含まれる場合があります。 このシナリオで Copilot 機能にアクセスできるデータの詳細については、各エクスペリエンスのセクションを確認してください。
Copilot との対話は、各ユーザーに固有です。 つまり、Copilot がアクセスできるのは、現在のユーザーがアクセス許可を持っているデータのみで、その出力は、そのユーザーにのみ表示されます。ただし、そのユーザーが出力を他のユーザーと共有する (生成された Power BI レポートや生成されたコードの共有など) 場合は除きます。 Copilot では、同じテナントまたは他のテナント内の他のユーザーからのデータは使用されません。
Copilot では、OpenAI の一般公開されているサービスではなく、Azure OpenAI を使用して、ユーザーによる入力、グラウンディング データ、Copilot 出力を含むすべてのデータを処理します。 Copilot では現在、GPT 3.5 を含む GPT モデルの組み合わせを使用しています。 Microsoft は、Microsoft の Azure 環境で OpenAI モデルをホストしています。このサービスは、OpenAI によるサービス (ChatGPT や OpenAI API など) とは対話しません。 お客様のデータはモデルのトレーニングには使用されず、他の顧客が使用することはできません。 Azure OpenAI の詳細をご覧ください。
データ所在地とコンプライアンス
ご自身でデータが処理される場所を制御できます。 Fabric 内 Copilot によって処理されるデータは、ご利用のテナントの地理的リージョン内にとどまります。ただし、たとえば、ご利用のリージョンで Azure OpenAI を利用できない場合や、需要が高いために可用性が制限されている場合に、ユーザーが Copilot を使用できるようにするために、ご利用のリージョン外でのデータの処理を明示的に許可した場合などは除きます。 (Azure OpenAI が現在使用可能な場所を参照してください。)
データを別の場所で処理できるようにするため、管理者は [Azure OpenAI に送信されたデータはテナントの地理的リージョン、コンプライアンス境界、または国内クラウド インスタンスの外部で処理できる] 設定をオンにすることができます。 Copilot の管理者設定に関する詳細をご覧ください。
Copilot を責任を持って使用するために知っておくべきこと
Microsoft は、Microsoft の AI システムが AI の原則と責任ある AI の標準に確実に従うよう取り組んでいます。 これらの原則の中には、お客様がこれらのシステムを効果的に、意図した用途に使用できるよう支援することも含まれています。 Microsoft の責任ある AI に対する取り組みは、新しい問題に積極的に対処するために進化し続けています。
Fabric の Copilot 機能は、責任ある AI 標準を満たすように構築されています。これは、潜在的な危害がないか複数の分野にわたるチームによってレビューされており、それらの危害に対する軽減策を含めるように調整されていることを意味します。
Copilot を使用する前に、Copilot の制限事項に注意してください。
- Copilot の応答には不正確な内容または低品質な内容が含まれている可能性があるため、出力を作業で使用する前には必ず確認してください。
- コンテンツの正確性と妥当性を有意義に評価できる人が出力のレビューを行う必要があります。
- 現在、Copilot の機能は英語で最適に機能します。 他の言語ではパフォーマンスが低下する可能性があります。
Fabric 用 Copilot のワークロード
次に対するプライバシー、セキュリティ、責任ある使用:
- データ ファクトリ用 Copilot (プレビュー)
- Data Science 用 Copilot (プレビュー)
- Data Warehouse 用 Copilot (プレビュー)
- SQL データベース用 Copilot (プレビュー)
- Power BI 用の Copilot
- Real-Time Intelligence 用の Copilot (プレビュー)