Azure AI モデル推論の既定のコンテンツ安全性ポリシー
Azure AI モデル推論には、(Azure OpenAI Whisper を除く) すべてのモデルに適用される既定の安全性が含まれています。 これらの構成では、既定で責任あるエクスペリエンスが提供されます。
既定の安全性は、憎悪、公平性、性的、暴力、自傷行為、保護されたマテリアル コンテンツ、ユーザー プロンプト インジェクション攻撃などのリスクを軽減することを目的としています。 コンテンツ フィルタリングの詳細については、カテゴリと重大度レベルを説明しているドキュメントをお読みください。
このドキュメントでは、既定の構成について説明します。
ヒント
既定では、すべてのモデル デプロイに既定の構成が使用されます。 ただし、「コンテンツ フィルタリングの構成」で説明されているように、モデル デプロイごとにコンテンツ フィルタリングを構成できます。
テキスト モデル
Azure AI モデル推論でのテキスト モデルは、テキストとコードの両方を取り込んで生成できます。 これらのモデルは、Azure のテキスト コンテンツ フィルタリング モデルを適用して、有害なコンテンツを検出して防止します。 このシステムは、プロンプトと入力候補の両方に対して動作します。
リスク カテゴリ | プロンプト/完了 | 重大度しきい値 |
---|---|---|
ヘイトと公平性 | プロンプトと入力候補 | Medium |
暴力 | プロンプトと入力候補 | Medium |
性的 | プロンプトと入力候補 | Medium |
自傷行為 | プロンプトと入力候補 | Medium |
ユーザー プロンプト インジェクション攻撃 (脱獄) | プロンプト | 該当なし |
保護されたマテリアル – テキスト | 入力候補 | 該当なし |
保護されたマテリアル – コード | 入力候補 | 該当なし |
ビジョン モデルを使用したビジョンとチャット
ビジョン モデルでは、テキストと画像の両方を入力の一部として同時に取得できます。 既定のコンテンツ フィルタリング機能は、モデルとプロバイダーごとに異なります。
Azure OpenAI: GPT-4o と GPT-4 Turbo
リスク カテゴリ | プロンプト/完了 | 重大度しきい値 |
---|---|---|
ヘイトと公平性 | プロンプトと入力候補 | Medium |
暴力 | プロンプトと入力候補 | Medium |
性的 | プロンプトと入力候補 | Medium |
自傷行為 | プロンプトと入力候補 | Medium |
個人の識別と機密属性の推論 | プロンプト | 該当なし |
ユーザー プロンプト インジェクション攻撃 (脱獄) | プロンプト | 該当なし |
Azure OpenAI: DALL-E 3 と DALL-E 2
リスク カテゴリ | プロンプト/完了 | 重大度しきい値 |
---|---|---|
ヘイトと公平性 | プロンプトと入力候補 | 低 |
暴力 | プロンプトと入力候補 | 低 |
性的 | プロンプトと入力候補 | 低 |
自傷行為 | プロンプトと入力候補 | 低 |
コンテンツ資格情報 | 入力候補 | 該当なし |
政治的候補者に対する欺瞞的な生成 | プロンプト | 該当なし |
有名人の描写 | プロンプト | 該当なし |
ユーザー プロンプト インジェクション攻撃 (脱獄) | プロンプト | 該当なし |
保護されたマテリアル – アートおよびスタジオ キャラクター | プロンプト | 該当なし |
不適切な表現 | プロンプト | 該当なし |
上記の安全性構成に加えて、Azure OpenAI DALL-E には既定でプロンプト変換も用意されています。 この変換は、特に多様性、政治的候補者に対する欺瞞的な生成、有名人の描写、保護されたマテリアルなどのリスク カテゴリにおいて、元のプロンプトの安全性を高めるために、すべてのプロンプトに対して発生します。
Meta: Llama-3.2-11B-Vision-Instruct と Llama-3.2-90B-Vision-Instruct
コンテンツ フィルターは、テキスト プロンプトと入力候補にのみ適用されます。 画像は、コンテンツ モデレーションの対象になりません。
Microsoft: Phi-3.5-vision-instruct
コンテンツ フィルターは、テキスト プロンプトと入力候補にのみ適用されます。 画像は、コンテンツ モデレーションの対象になりません。