次の方法で共有


責任ある AI に関する FAQ

Microsoft Copilot for Security とは 

Copilot for Security は、自然言語であり、生成 AI を利用したセキュリティ ソリューションです。これはDefender の効率性と機能性を高め、マシンの速度と規模におけるセキュリティの成果を向上させるのに役立ちます。 プラグインとデータからコンテキストを引き出して、プロンプトに応答することで、セキュリティ担当者や IT 管理者が組織のセキュリティを維持できるようにします。

Copilot for Security でできること 

Copilot for Security は、自然言語で質問に応答するため、一般的なセキュリティと IT タスクに対する実用的な応答を数秒で受け取ることができます。

Microsoft Copilot for Security は、次のシナリオで役立ちます:

  • セキュリティ運用

    脆弱性と新たな脅威を管理し、ガイド付きの調査を使ってインシデント対応を加速し、スクリプト分析やクエリ支援などの高度な機能を活用します。

  • デバイスの管理

    ポリシーを生成して結果をシミュレーションし、フォレンジックスのためのデバイス情報を収集し、似たような展開からのベスト プラクティスを使用してデバイスを構成します。 

  • ID 管理

    過剰な特権を持つアクセスを検出し、インシデントのアクセス レビューを生成し、アクセス ポリシーを生成して記述し、ソリューション全体でライセンスを評価します。 

  • データ保護

    セキュリティ インシデントの影響を受けたデータを特定し、データ セキュリティとコンプライアンス リスクの包括的な概要を生成し、規制コンプライアンス義務に違反する可能性があるリスクを表面化します。

  • クラウド セキュリティ

    ワークロードに影響を与える攻撃パスを検出し、クラウド CVEs を要約して、脅威を事前に防止し、クラウド セキュリティ体制をより効率的に管理します。

Copilot for Security の使用目的は何ですか? 

Copilot for Security は、セキュリティ アナリストがインシデントの調査と解決、セキュリティ イベントの要約と説明、利害関係者との調査結果の共有を支援することを目的としています。  

Copilot for Security はどのように評価されましたか? パフォーマンスを測定するために使用されるメトリックとは 

Copilot for Security は、リリース前に大幅なテストを実施しました。 テストには、製品を厳密にテストして、Copilot for Security が意図した用途以外で行ったり言ったり、Microsoft AI の原則 をサポートしていないエラー モードやシナリオを特定したりする方法が含まれます。

リリースされた今、Microsoft がシステムを改善するうえで、ユーザーフィードバックが不可欠です。 Copilot for Security から出力を受け取るたびにフィードバックを提供するオプションがあります。 "オフターゲット"を使用して応答が不正確、不完全、または不明確な場合、"レポート"ボタンを使用して、任意の問題のある出力にフラグを設定します。 また、[確認] ボタンを使用して、応答が有用で正確なタイミングを確認することもできます。 これらのボタンはすべての Copilot for Security の応答の下部に表示され、フィードバックは Microsoft に直接送信され、プラットフォームのパフォーマンス向上に役立ちます。

Copilot for Security の制限事項は何ですか? ユーザーがシステムを使用する際に、Copilot for Security の制限による影響を最小限に抑えるには 

  • 早期アクセス プログラムは、お客様が Copilot for Security にいち早くアクセスし、プラットフォームに関するフィードバックを提供できるように設計されています。 プレビュー機能は運用環境での使用を目的としていないため、機能が制限されている可能性があります。 

  • AI を利用したテクノロジと同様に、Copilot for Security ではすべてが正しいとは限りません。 ただし、プラットフォームに組み込まれているフィードバック ツールを使用して観察結果を提供することで、応答を向上させることができます。  

  • ユーザー入力またはプラグインを介して最新のデータが与えられていない場合、システムは古い応答を生成する可能性があります。 最適な結果を得るには、適切なプラグインが有効になっていることを確認します。

  • システムは、インシデント調査や脅威インテリジェンスなど、セキュリティ ドメインに関連するプロンプトに応答するように設計されています。 セキュリティの範囲外でプロンプトを表示すると、正確さと包括的性に欠ける応答が発生する可能性があります。

  • Copilot for Security は、コードを生成したり、応答にコードを含めたりすることがあります。注意深く使用しないと、機密情報や脆弱性が公開される可能性があります。 応答は有効に見えますが、実際には意味的または構文的に正しくないか、開発者の意図を正確に反映していない可能性があります。 ユーザーは常に、ユーザーが独自に作成していない素材を使用するコードと同じ予防措置を講じる必要があります。これには、適合性を確保するための予防措置も含まれます。 これには、厳格なテスト、IP スキャン、セキュリティの脆弱性のチェックが含まれます。

  • パブリック コードとの一致: Copilot for Security は、確率的な方法で行う新しいコードを生成できます。 トレーニング セット内のコードと一致するコードが生成される可能性は低くなりますが、Copilot for Security の提案には、トレーニング セット内のコードに一致するいくつかのコード スニペットが含まれている場合があります。 ユーザーは常に、素材開発者が独自に作成していないコードを記述する場合と同じ予防措置を講じる必要があります。これには、適合性を確保するための予防措置も含まれます。 これには、厳格なテスト、IP スキャン、セキュリティの脆弱性のチェックが含まれます。

  • システムは、数十万文字などの長いプロンプトを処理できない可能性があります。

  • プラットフォームの使用には、使用制限または容量調整が適用される場合があります。 プロンプトが短い場合でも、プラグインを選択し、API 呼び出しを行い、応答を生成し、ユーザーに表示する前に確認すると、時間 (最大数分) かかる場合があり、高い GPU 容量が必要になります。 

  • エラーを最小限に抑えるために、ユーザーは プロンプトのガイダンス に従うことをお勧めします。 

Copilot for Security の効果的かつ責任ある利用を可能にする、運用上の要因と設定とは 

  • 日常的な単語を使用して、Copilot for Security の実行内容を説明できます。 以下に例を示します。

    • "最新のインシデントについてお知らせください"または"このインシデントの要約"。
  • システムが応答を生成すると、プロセス ログでシステムが実行している手順が表示され始め、プロセスとソースを再確認する機会が提供されます。  

  • プロンプトの作成中はいつでも、プロンプトの取り消し、編集、再実行、または削除を行うことができます。 

  • Microsoft に受け入れられないものを報告するなど、応答の品質に関するフィードバックを提供できます。 

  • 応答はピン留め、共有、エクスポートできるため、セキュリティ担当者が共同作業を行い、観察結果を共有するのに役立ちます。 

  • 管理者は、Copilot for Security に接続するプラグインを制御できます。   

  • Copilot for Security で動作するプラグインを選択、カスタマイズ、管理できます。

  • Copilot for Security によって作成されたプロンプトブック。これは、特定のワークフローを完了するために順番に実行されるプロンプトのグループです。

Microsoft は Copilot for Security の責任ある AI にどのようにアプローチしていますか?

当社は責任ある AI へのコミットメントを真剣に受け止めています。 Copilot for Security は、AI の原則 に従って開発されています。 OpenAI と協力して、責任ある使用を促進するエクスペリエンスを提供しています。 たとえば、OpenAI と基本的なモデル作業に関する共同作業を継続します。 Copilot for Security のユーザー エクスペリエンスは、人間を中心に維持するように設計されています。 Microsoft は、障害を軽減し、有害なコンテンツの注釈、運用の監視、その他のセーフガードなどの誤用を防止するように設計された安全管理システムを開発しました。 招待専用の早期アクセス プログラムは、責任ある AI へのアプローチの一部でもあります。 Microsoft では、Copilot for Security にいち早くアクセスしてツールを改善したユーザーからのフィードバックを受け取り、広く利用できるようにしています。

責任ある AI は取り組みであり、その過程でシステムを継続的に改善していきます。 マイクロソフトは、AI の信頼性と信頼性の向上に取り組んでいます。皆様からのフィードバックをお待ちしております。

EU AI 法に準拠していますか?

マイクロソフトは、EU AI 法への準拠に取り組んでいます。責任ある AI 標準と内部ガバナンスを定義、進化、実装するための複数年の取り組みにより、準備性が強化されました。

Microsoft では、AI テクノロジにおける信頼と信頼性の基盤として、規制コンプライアンスの重要性を認識しています。 Microsoft は、責任ある AI をデザインによって作成することに取り組んでいます。 私たちの目標は、社会に有益な影響を与え、社会から信頼を得る AI を開発してデプロイすることです。

この作業は、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任という一連の核となる原則によって導かれています。 Microsoft の責任ある AI 標準では、これらの 6 つの原則を取り入れ、それらを、利用可能な AI の目標と要件に分割します。

責任ある AI 標準では、EU AI 法の最初の提案を含む規制提案とその進化を考慮しています。Microsoft は、責任ある AI 標準に合わせて、Microsoft Copilot や Microsoft Azure OpenAI Service などの AI 空間で最新の製品とサービスを開発しました。 EU AI 法の下で最終的な要件がより詳細に定義されるため、ポリシーメーカーと協力して、ルールの実現可能な実装と適用を確保し、コンプライアンスを実証し、お客様や他の利害関係者と連携してエコシステム全体のコンプライアンスをサポートすることを楽しみにしています。