Azure 上の AI ワークロードのガバナンスに関する推奨事項
この記事では、Azure で AI ワークロードを実行している組織に向けた、ガバナンスに関する推奨事項を紹介します。 Azure AI Studio、Azure OpenAI、Azure Machine Learning、Azure AI サービスなどの「Azure AI サービスとしてのプラットフォーム (PaaS)」ソリューションに焦点を当てています。 生成型と非生成型両方の AI ワークロードが対象です。
効果的なガバナンスは、AI の責任ある使用をサポートします。 これにより、企業は AI 投資を最適化しながら、セキュリティ、コスト、規制コンプライアンスに関連するリスクを軽減できます。
AI モデルのガバナンス
AI モデルのガバナンスとは、信頼できる安全で倫理的な出力を確実に生成するために AI モデルを管理するためのプロセスを指します。 モデルの入力と出力を制御することで、リスクを軽減できます。 これらのリスクには、有害なコンテンツや意図しない AI の使用が含まれます。 どちらもユーザーや組織に影響を与える可能性があります。 これらのプロセスは責任ある AI デプロイをサポートし、潜在的な法的および倫理的な課題から保護します。
AI リスクを検出するプロセスを確立します。 Defender for Cloud などのツールを使用して、生成 AI ワークロードを検出し、生成 AI アーティファクトを事前デプロイするリスクを調査します。 定期的に生成 AI モデルに対するレッド チーム活動を実施するポリシーを設定します。 特定されたリスクを文書化し、AI ガバナンス ポリシーを継続的に更新して、新たな問題を軽減します。
生成 AI モデルのベースライン コンテンツ フィルターを定義します。 Azure AI Content Safety を使用して、承認済みの AI モデルのベースライン コンテンツ フィルターを定義します。 この安全システムは、分類モデルのグループを通して、モデルのプロンプトと完了の両方を実行します。 これらの分類モデルは、さまざまなカテゴリにわたる有害なコンテンツの出力の検出と防止に役立ちます。 Content Safety には、プロンプト シールド、グラウンディング (実際のデータや現実世界の知識に基づいているか) の検出、保護されたマテリアル テキスト検出などの機能が用意されています。 画像とテキストをスキャンします。 アプリケーション チームがさまざまなガバナンス ニーズを伝えるためのプロセスを作成します。
生成 AI モデルをグラウンディングします。 システム メッセージと取得拡張生成 (RAG) パターンを使用して、生成 AI モデルの出力を管理します。 プロンプト フローやオープンソースのレッド チーム フレームワーク PyRIT などのツールを使用して、グラウンディングの有効性をテストします。
AI コストのガバナンス
AI コストのガバナンスには、効率を最大化し、不要な支出を削減するために、AI ワークロードに関連する経費を管理することが含まれます。 効果的なコスト管理により、AI 投資がビジネス目標に合致したものとなり、過剰なプロビジョニングや活用不足による不測のコストの発生を防ぐことができます。 これらのプラクティスにより、組織は AI 操作を財務的に最適化できます。
適正な課金モデルを使用します。 予測可能なワークロードがある場合は、Azure AI サービスの AI コミットメント レベルを使用します。 Azure OpenAI モデルでは、プロビジョニングされたスループット ユニット (PTU) を使用します。これは従量課金制 (使用量に基づく) の価格よりも低コストになる可能性があります。 PTU エンドポイントと従量課金ベースのエンドポイントを組み合わせてコストを最適化するのが一般的です。 AI モデルのプライマリ エンドポイントを使用し、スピルオーバーには、従量課金ベースのセカンダリ AI エンドポイントを使用します。 詳細については、「複数の Azure OpenAI インスタンス にゲートウェイを導入する」を参照してください。
ユース ケースに適したモデルを選択します。 過剰なコストを発生させることなく、ニーズを満たす AI モデルを選択します。 ユース ケースでコストの高いモデルが必要な場合を除き、コストの低いモデルを使用します。 微調整を行う場合は、各請求期間内の時間使用量を最大にすることで、追加料金を回避します。 詳細については、「Azure OpenAI モデル」と「価格設定」を参照してください。 また、「Azure AI Studio モデルカタログ」と「モデル デプロイの課金情報」も参照してください。
プロビジョニングの制限を設定します。 不要なコストを防ぐために、予想されるワークロードに基づいて各モデルにプロビジョニング クォータを割り当てます。 動的クォータを継続的に監視して実際の需要と一致することを確認し、それに応じて調整することで、過剰な支出なしに最適なスループットを維持します。
適切なデプロイ タイプを使用します。 Azure OpenAI モデルを使用すると、さまざまなデプロイ タイプを使用できます。 グローバル デプロイでは、OpenAI の特定のモデルで、トークンあたりのコストを低く設定しています。
ホスティング オプションを評価します。 ソリューションのニーズに応じて、適切なホスティング インフラストラクチャを選択します。 たとえば、生成 AI のワークロードには、マネージド オンライン エンドポイント、Azure Kubernetes Service (AKS)、Azure App Service などのオプションがあり、それぞれに独自の課金モデルがあります。 貴社の要件に照らして、パフォーマンスとコストの最適なバランスを提供するオプションを選択してください。
従量課金ベースのサービスにおけるクライアントの動作を制御します。 ネットワーク制御、キー、ロールベースのアクセス制御 (RBAC) などのセキュリティ プロトコルを実施することで、AI サービスへのクライアント アクセスを制限します。 クライアントが最大トークン数や最大完了数などの API 制約を使用していることを確認します。 可能であれば、リクエストをバッチ処理して効率を最適化します。 プロンプトは簡潔に保ちつつ、トークンの使用量を減らすために必要なコンテキストを提供します。
生成 AI ゲートウェイの使用を検討してください。 生成 AI ゲートウェイを使用すると、トークンの使用状況の追跡、トークンの使用状況の調整、サーキット ブレーカーの適用、さまざまな AI エンドポイントへのルーティングが可能になるため、コストを制御することができます。
コンピューティング インスタンスをシャットダウンするポリシーを作成します。 Azure AI Studio と Azure Machine Learning の仮想マシンとコンピューティング インスタンスで、AI リソースが自動シャットダウン機能を使用しなければならないというポリシーを定義し、適用します。 自動シャットダウンは、非運用環境と、一定期間オフラインにできる運用環境のワークロードに適用されます。
コスト管理のガイダンスの詳細については、Azure OpenAI ベースライン アーキテクチャにおける「AI コストの管理」と「コストの最適化」を参照してください。
AI プラットフォームのガバナンス
AI プラットフォーム のガバナンスには、Azure AI Studio や Azure Machine Learning など、Azure 上のさまざまな AI サービスにポリシー制御を適用することが含まれます。 プラットフォーム レベルのガバナンスを使用すると、AI エコシステム全体で一貫したセキュリティ、コンプライアンス、操作に関するポリシーが適用されます。 この連携により、効果的な監視がサポートされ、AI の全体的な管理と信頼性が強化されます。
組み込みのガバナンス ポリシーを使用します。 Azure Policy を使用して、貴社が使用している各 AI プラットフォームに組み込みのポリシー定義を適用します。 これには、Azure AI Studio、Azure Machine Learning、Azure AI サービス、Azure AI 検索 などが含まれます。
Azure ランディング ゾーン AI ポリシーを有効にします。 Azure ランディング ゾーン ユーザーの場合、デプロイ には、Azure AI プラットフォーム サービスのための推奨組み込みポリシーの厳選されたセットが含まれています。 Azure ランディング ゾーンのデプロイ時にワークロード固有のコンプライアンス カテゴリで使用するポリシー イニシアチブを選択します。 ポリシー セットには、Azure OpenAI、Azure Machine Learning、Azure AI 検索、Azure ボット サービスが含まれます。
AI セキュリティのガバナンス
AI セキュリティのガバナンスは、データ、モデル、またはインフラストラクチャを侵害する可能性のある脅威から AI ワークロードを保護する必要性に対処します。 堅牢なセキュリティ プラクティスにより、これらのシステムが不正アクセスやデータ侵害から保護されます。 この保護により、ユーザーの信頼と規制遵守を維持するために不可欠な AI ソリューションの整合性と信頼性が保証されます。
すべてのサブスクリプションで Defender for Cloud を有効にします。 Defender for Cloud には、セキュリティで保護されていないデプロイ済みリソースの構成を検出するためのコスト効率の高いアプローチが用意されています。 AI への脅威に対する保護も有効にする必要があります。
アクセス制御を構成する。 一元化された AI リソースへの最小特権ユーザー アクセス権を付与します。 たとえば、閲覧者の Azure ロールから開始し、制限されたアクセス許可によってアプリケーションの開発が遅くなる場合は、共同作成者 Azure ロールに昇格します。
マネージド ID を使用する。 サポートされているすべての Azure サービスでマネージド ID を使用します。 AI モデル エンドポイントにアクセスする必要があるアプリケーション リソースに最小特権アクセス権を付与します。
Just-In-Time アクセスを使用します。 Just-In-Time アクセスにはPrivileged Identity Management (PIM) を使用します。
AI 操作のガバナンス
AI 操作のガバナンスは、安定した AI サービスの管理と維持に重点を置いています。 これらの操作は、長期的な信頼性とパフォーマンスをサポートします。 一元的な監視と継続性の計画は、組織がダウンタイムを回避するのに役立ち、AI の一貫したビジネス価値を保証します。 これらの取り組みは、効率的な AI デプロイと持続的な運用効果に貢献しています。
AI モデルを確認して管理します。 モデルのバージョン管理のポリシーを開発します。特に、モデルがアップグレードまたは廃止される場合に行います。 既存のシステムとの互換性を維持し、モデル バージョン間の円滑な移行を確保する必要があります。
ビジネス継続性とディザスター リカバリー計画を定義します。 AI エンドポイントと AI データのビジネス継続性とディザスター リカバリーのポリシーを確立します。 AI モデルのエンドポイントをホストするリソースのベースライン ディザスター リカバリーを構成します。 これらのリソースには、Azure AI Studio、Azure Machine Learning、Azure OpenAI、Azure AI サービスなどが含まれます。 Azure Blob Storage、Azure Cosmos DB、Azure SQL Database など、すべての Azure データ ストアは、信頼性とディザスター リカバリーのガイダンスを提供しているので、それらに従ってください。
AI リソースのベースライン メトリックを定義します。 ワークロードの正常性の低下を示す逸脱の通知を受け取れるように、推奨されるアラート ルールを有効にします。 例については、Azure AI 検索、Azure Machine Learning、Azure AI Studio プロンプト フローのデプロイ、および個々の Azure AI サービスに関するガイダンスを参照してください。
AI 規制遵守のガバナンス
AI における規制遵守では、組織が業界標準と法的義務に従う必要があります。これにより、負債に関連するリスクが軽減され、信頼が構築されます。 コンプライアンス対策は、組織が罰則を回避し、顧客や規制当局からの信頼性を向上させるのに役立ちます。 これらの基準を遵守することで、責任ある、コンプライアンスに則った AI 利用のための強固な基盤が確立されます。
コンプライアンスを自動化します。 Microsoft Purview コンプライアンス マネージャーを使用して、クラウド環境全体のコンプライアンスを評価および管理します。 Azure Policy で、貴社の業種に該当する規制遵守イニシアチブを使用します。 Azure AI Studio や Azure Machine Learning など、使用する AI サービスに基づいて他のポリシーを適用します。
業界固有のコンプライアンス チェックリストを作成します。 規制と基準は、業界と場所によって異なります。 貴社の規制要件を把握し、貴社の業界に関連する規制要件を反映したチェックリストを作成する必要があります。 ISO/IEC 23053:2022 (Machine Learning を使用した人工知能システムのフレームワーク) などの標準を使用して、AI ワークロードに適用されるポリシーを監査します。
AI データのガバナンス
AI データのガバナンスには、AI モデルへのデータフィードが適切で、コンプライアンスに準拠しており、安全であることを保証するためのポリシーが含まれます。 データ ガバナンスはプライバシーと知的財産を保護し、それによって AI 出力の信頼性と品質を向上させます。 これらの対策は、データの誤用に関連するリスクを軽減し、規制および倫理的基準に準拠するものです。
データをカタログ化するプロセスを確立します。 Microsoft Purview などのツールを使用して、組織全体に統合されたデータ カタログと分類システムを導入します。 これらのポリシーを AI 開発用の CI/CD パイプラインに統合します。
データ セキュリティの境界を維持します。 データのカタログ化は、機密データを公開されている AI エンドポイントにフィードしないようにするのに役立ちます。 特定のデータ ソースからインデックスを作成すると、インデックス作成プロセスでデータに関するセキュリティ境界を削除できます。 AI モデルに取り込まれたデータが、一元化された標準に従って分類および審査されていることを確認します。
著作権侵害を防止します。 Azure AI Content Safety の保護されたマテリアルの検出などの コンテンツ フィルタリング システムを使用して、著作権で保護されたマテリアルを除外します。 AI モデルをグラウンディング、トレーニング、または微調整する場合は、合法的に入手し、適切にライセンスされたデータを使用することを確認し、モデルが著作権を侵害しないようにセーフガードを導入してください。 知的財産権遵守のため、アウトプットを定期的にレビューします。
グラウンディング データのバージョン管理を実施します。 例えば RAG のような、グラウンディング データに対するバージョン管理プロセスを確立してください。 バージョン管理により、基になるデータまたはその構造に対する変更を追跡できます。 必要に応じて変更を元に戻し、デプロイ間の一貫性を維持できます。