責任ある生成 AI ソリューションを運用する
潜在的な危害を特定し、その有無を測定する方法を開発し、ソリューションにそれらの軽減策を実装したら、ソリューションをリリースする準備を整えることができます。 その前に、リリースとその後の運用を確実に成功させるために役立つ考慮事項がいくつかあります。
リリース前レビューを完了する
生成 AI ソリューションをリリースする前に、組織と業界のさまざまなコンプライアンス要件を特定し、適切なチームがシステムとそのドキュメントをレビューする機会を確保します。 一般的なコンプライアンス レビューには、次のものが含まれます。
- 法的情報
- プライバシー
- Security
- ユーザー補助
ソリューションをリリースして運用する
リリースを成功させるには、何らかの計画と準備が必要です。 次のガイドラインを考慮してください。
- 最初に、制限されたユーザー グループにソリューションをリリースできるようにする "段階的な配信計画" を考案します。 このアプローチを使用すると、より広範囲の対象ユーザーにリリースする前に、フィードバックを収集し、問題を特定できます。
- 予期しないインシデントへの対応にかかる推定時間を含む "インシデント対応計画" を作成します。
- インシデントが発生した場合にソリューションを以前の状態に戻す手順を定義する "ロールバック計画" を作成します。
- 有害なシステム応答が検出された場合にそれを即座にブロックする機能を実装します。
- システムの誤用が発生した場合に特定のユーザー、アプリケーション、またはクライアント IP アドレスをブロックする機能を実装します。
- ユーザーがフィードバックを提供したり、問題を報告したりするための方法を実装します。 特に、生成されたコンテンツを "不正確"、"不完全"、"有害"、"不快"、またはその他の問題として報告できるようにします。
- テレメトリ データを追跡します。これにより、ユーザーの満足度を判断し、機能上のギャップや使いやすさの課題を特定できます。 収集されるテレメトリは、プライバシーに関する法律と、ユーザーのプライバシーに対する組織独自のポリシーおよびコミットメントに準拠している必要があります。
Azure AI Content Safety を利用する
一部の Azure AI リソースには、言語、ビジョン、Azure OpenAI など、コンテンツ フィルターを使用して操作するコンテンツの組み込みの分析機能が用意されています。
Azure AI Content Safety には、AI とコパイロットをリスクから守ることに重点を置いた機能がより多くあります。 これらの機能には、入力または生成両方による不適切または攻撃的な言語を検出することや、危険または不適切な入力を検出することが含まれます。
Azure AI Content Safety には次のような機能があります。
機能 | 機能 |
---|---|
プロンプト シールド | 言語モデルに対するユーザー入力攻撃のリスクをスキャンします |
グラウンデッドネスの検出 | テキスト応答がユーザーのソース コンテンツに基づいているかどうかを検出します |
保護されたマテリアルの検出 | 既知の著作権で保護されたコンテンツをスキャンします |
カスタム カテゴリ | 新規または新出のパターンのカスタム カテゴリを定義します |
Azure AI Content Safety の使用方法の詳細とクイックスタートについては、サービスのドキュメント ページを参照してください。