責任ある AI に関する FAQ
Microsoft Security Copilot とは
Security Copilotは自然言語であり、マシンの速度と規模でセキュリティの成果を向上させるために、防御者の効率と機能を向上させるのに役立つ生成的な AI を利用したセキュリティ ソリューションです。 プラグインとデータからコンテキストを引き出してプロンプトに応答し、セキュリティプロフェッショナルと IT 管理者が組織のセキュリティを維持できるようにします。
Security Copilot何ができますか?
Security Copilotは、一般的なセキュリティと IT タスクに対する実用的な応答を数秒で受け取ることができるように、自然言語で質問に答えるのに役立ちます。
Microsoft Security Copilotは、次のシナリオで役立ちます。
セキュリティの調査と修復
インシデントのコンテキストを取得して、複雑なセキュリティ アラートをすばやく実用的な概要にトリアージし、ステップ バイ ステップの対応ガイダンスを使用して迅速に修復します。スクリプト分析と KQL クエリの作成
すべてのチーム メンバーが技術的なタスクを実行できるように、クエリ言語スクリプトを手動で記述したり、自然言語翻訳を使用してマルウェア スクリプトをリバース エンジニアリングしたりする必要がなくなります。リスク探索とセキュリティ体制管理
優先順位付けされたリスクを使用して環境の全体像を把握し、姿勢をより簡単に改善する機会を明らかにします。IT の問題のトラブルシューティングの高速化
関連情報を迅速に合成し、実用的な分析情報を受け取り、IT の問題をすばやく特定して解決します。セキュリティ ポリシーの作成と管理
新しいポリシーを定義し、競合のために他のポリシーと相互参照し、既存のポリシーを要約して、複雑な組織コンテキストを迅速かつ簡単に管理します。ライフサイクル ワークフローの構成
セキュリティの脆弱性を防ぐためのシームレスな構成を確保するために、ステップ バイ ステップ ガイダンスを使用してグループを構築し、アクセス パラメーターを設定します。利害関係者レポート
コンテキストと環境、オープンな問題、レポートの対象ユーザーのトーンと言語に対して準備された保護措置をまとめた明確で簡潔なレポートを取得します。
Security Copilotの使用目的は何ですか?
Security Copilotは、インシデント対応、脅威ハンティング、インテリジェンス収集、ポスチャ管理などのエンドツーエンドのシナリオでセキュリティ プロフェッショナルをサポートするのに役立ちます。 詳細については、「 ユース ケースとロール」を参照してください。
Security Copilotはどのように評価されましたか? パフォーマンスを測定するために使用されるメトリックとは
Security Copilotリリース前にかなりのテストを受けました。 テストには赤いチーミングが含まれていました。これは、製品を厳格にテストして、Security Copilotが意図した用途の外で実行したり、言ったりする可能性があるエラー モードやシナリオを特定する方法です。これは、Microsoft AI 原則をサポートしていません。
リリースされた今、Microsoft がシステムを改善するうえで、ユーザーフィードバックが不可欠です。 Security Copilotから出力を受け取るたびにフィードバックを提供することもできます。 "オフターゲット"を使用して応答が不正確、不完全、または不明確な場合、"レポート"ボタンを使用して、任意の問題のある出力にフラグを設定します。 また、[確認] ボタンを使用して、応答が有用で正確なタイミングを確認することもできます。 これらのボタンは、すべてのSecurity Copilot応答の下部に表示され、お客様のフィードバックは Microsoft に直接送信され、プラットフォームのパフォーマンスの向上に役立ちます。
Security Copilotの制限事項は何ですか? システムを使用する場合、ユーザーがSecurity Copilotの制限の影響を最小限に抑えるにはどうすればよいですか?
早期アクセス プログラムは、お客様がSecurity Copilotへの早期アクセスを取得し、プラットフォームに関するフィードバックを提供する機会を提供するように設計されています。 プレビュー機能は運用環境での使用を目的としていないため、機能が制限されている可能性があります。
AI を利用するテクノロジと同様に、Security Copilotすべてが正しいとは限りません。 ただし、プラットフォームに組み込まれているフィードバック ツールを使用して観察結果を提供することで、応答を向上させることができます。
ユーザー入力またはプラグインを介して最新のデータが与えられていない場合、システムは古い応答を生成する可能性があります。 最適な結果を得るには、適切なプラグインが有効になっていることを確認します。
システムは、インシデント調査や脅威インテリジェンスなど、セキュリティ ドメインに関連するプロンプトに応答するように設計されています。 セキュリティの範囲外でプロンプトを表示すると、正確さと包括的性に欠ける応答が発生する可能性があります。
Security Copilotは、コードを生成したり、応答にコードを含めたりする可能性があり、慎重に使用しないと機密情報や脆弱性が公開される可能性があります。 応答は有効に見えますが、実際には意味的または構文的に正しくないか、開発者の意図を正確に反映していない可能性があります。 ユーザーは常に、ユーザーが独自に作成していない素材を使用するコードと同じ予防措置を講じる必要があります。これには、適合性を確保するための予防措置も含まれます。 これには、厳格なテスト、IP スキャン、セキュリティの脆弱性のチェックが含まれます。
パブリック コードとの一致: Security Copilotは、確率的な方法で行う新しいコードを生成できます。 トレーニング セット内のコードと一致するコードが生成される可能性は低くなりますが、Security Copilot提案には、トレーニング セット内のコードに一致するいくつかのコード スニペットが含まれている場合があります。 ユーザーは常に、素材開発者が独自に作成していないコードを記述する場合と同じ予防措置を講じる必要があります。これには、適合性を確保するための予防措置も含まれます。 これには、厳格なテスト、IP スキャン、セキュリティの脆弱性のチェックが含まれます。
システムは、数十万文字などの長いプロンプトを処理できない可能性があります。
プラットフォームの使用には、使用制限または容量調整が適用される場合があります。 プロンプトが短い場合でも、プラグインを選択し、API 呼び出しを行い、応答を生成し、ユーザーに表示する前に確認すると、時間 (最大数分) かかる場合があり、高い GPU 容量が必要になります。
エラーを最小限に抑えるために、ユーザーは プロンプトのガイダンス に従うことをお勧めします。
Security Copilotの効果的かつ責任ある使用を可能にする運用要因と設定は何ですか?
日常の単語を使用して、Security Copilot実行する内容を記述できます。 以下に例を示します。
- "最新のインシデントについてお知らせください"または"このインシデントの要約"。
システムが応答を生成すると、プロセス ログでシステムが実行している手順が表示され始め、プロセスとソースを再確認する機会が提供されます。
プロンプトの作成中はいつでも、プロンプトの取り消し、編集、再実行、または削除を行うことができます。
Microsoft に受け入れられないものを報告するなど、応答の品質に関するフィードバックを提供できます。
応答はピン留め、共有、エクスポートできるため、セキュリティ担当者が共同作業を行い、観察結果を共有するのに役立ちます。
管理者は、Security Copilotに接続するプラグインを制御できます。
Security Copilotで動作するプラグインを選択、カスタマイズ、管理できます。
Security Copilot作成されたプロンプトブック。これは、特定のワークフローを完了するために順番に実行されるプロンプトのグループです。
Microsoft は、Security Copilotに対して責任ある AI にどのようにアプローチしていますか?
当社は責任ある AI へのコミットメントを真剣に受け止めています。 Security Copilotは、AI の原則に従って開発されています。 OpenAI と協力して、責任ある使用を促進するエクスペリエンスを提供しています。 たとえば、OpenAI と基本的なモデル作業に関する共同作業を継続します。 私たちは、人間を中心に保つためにSecurity Copilotユーザーエクスペリエンスを設計しました。 Microsoft は、障害を軽減し、有害なコンテンツの注釈、運用の監視、その他のセーフガードなどの誤用を防止するように設計された安全管理システムを開発しました。 招待専用の早期アクセス プログラムは、責任ある AI へのアプローチの一部でもあります。 ツールを広く利用できるようにする前に、Security Copilotへの早期アクセスを持つユーザーからのフィードバックを受け取り、ツールを改善しています。
責任ある AI は取り組みであり、その過程でシステムを継続的に改善していきます。 マイクロソフトは、AI の信頼性と信頼性の向上に取り組んでいます。皆様からのフィードバックをお待ちしております。
EU AI 法に準拠していますか?
マイクロソフトは、EU AI 法への準拠に取り組んでいます。責任ある AI 標準と内部ガバナンスを定義、進化、実装するための複数年の取り組みにより、準備性が強化されました。
Microsoft では、AI テクノロジにおける信頼と信頼性の基盤として、規制コンプライアンスの重要性を認識しています。 Microsoft は、責任ある AI をデザインによって作成することに取り組んでいます。 私たちの目標は、社会に有益な影響を与え、社会から信頼を得る AI を開発してデプロイすることです。
この作業は、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任という一連の核となる原則によって導かれています。 Microsoft の責任ある AI 標準では、これらの 6 つの原則を取り入れ、それらを、利用可能な AI の目標と要件に分割します。
責任ある AI 標準では、EU AI 法の最初の提案を含む規制提案とその進化を考慮しています。Microsoft は、責任ある AI 標準に合わせて、Microsoft Copilot や Microsoft Azure OpenAI Service などの AI 空間で最新の製品とサービスを開発しました。 EU AI 法の下で最終的な要件がより詳細に定義されるため、ポリシーメーカーと協力して、ルールの実現可能な実装と適用を確保し、コンプライアンスを実証し、お客様や他の利害関係者と連携してエコシステム全体のコンプライアンスをサポートすることを楽しみにしています。