AI を管理する – AI を管理するプロセス
この記事では、AI を管理するための組織プロセスについて説明します。 このプロセスは、「NIST 人工知能リスク管理フレームワーク (AI RMF)」と「NIST AI RMF プレイブック」に従っています。 また、「CAF のガバナンス」のフレームワークに合わせて調整されます。
このガイダンスは、AI リスク管理をより広範なリスク管理戦略に統合することを目的としています。 この統合により、統合されたガバナンス アプローチに対して、AI、サイバーセキュリティ、プライバシー リスクのより一貫性のある処理が提供されます。
AI 組織のリスクを評価する
AI リスク アセスメントは、AI テクノロジによって導入される潜在的なリスクを識別し、それに対処します。 このプロセスにより、AI システムに対する信頼が構築され、意図しない結果が軽減されます。 組織のリスクに対処することで、AI デプロイが組織の価値観、リスク許容度、業務目標と一致することが保証されます。
AI ワークロードを理解する AI リスクを軽減するには、AI ワークロードを理解する必要があります。 各 AI ワークロードの範囲と目的を明確にすることで、関連するリスクをマップできます。 この明確化には、AI ワークロードに関連する前提条件と制限事項を含める必要があります。
責任ある AI の原則を使用してリスクを特定します。 これらの原則は、AI リスクを評価するためのフレームワークを提供します。 次の表を使用して、AI 原則を構造的に評価することにより、リスクを特定し、軽減します。
責任ある AI の原則 Definition リスク アセスメントに関する質問 AI のプライバシーとセキュリティ AI ワークロードは、プライバシーを尊重し、安全でなければなりません。 AI ワークロードはどのように機密データを処理し、また、セキュリティ侵害の危険にさらされる可能性があるのでしょうか? 信頼性と安全性 AI ワークロードは、安全かつ確実に実行されなければなりません。 AI ワークロードが安全に動作しなかったり、信頼性の低い結果が生じる可能性があるのはどのような状況でしょうか? 公平性 AI ワークロードでは、人を公平に扱う必要があります。 AI ワークロードが、意思決定において不平等な扱いや意図しないバイアスにつながる可能性があるのはどのような場合でしょうか? 包括性 AI ワークロードは、包括的かつ力を与えるものである必要があります。 AI ワークロードの設計またはデプロイにおいて、特定のグループが排除されたり不利益になったりする可能性があるのはどのような場合でしょうか? Transparency AI ワークロードは理解可能でなければなりません。 ユーザーにとって理解や説明が難しいのは、AI の意思決定のどのような側面でしょうか? アカウンタビリティ 人々は AI ワークロードに対して説明責任があります。 AI の開発や使用において、説明責任が不明確であったり、確立が困難であったりする可能性があるのはどこでしょうか? AI リスクを特定します。 まず、潜在的なデータ侵害、不正アクセス、悪用など、AI ワークロードのセキュリティ リスクを評価します。 利害関係者に相談して、目に見えにくいリスクを明らかにし、評判リスクを含む定性的・定量的影響の両方を評価して、組織のリスク許容度を判断します。
外部の依存関係から生じるリスクを特定します。 サードパーティのデータ ソース、ソフトウェア、統合に関連するリスクを評価します。 組織のプライバシーおよびコンプライアンス標準との整合性を確保するポリシーを確立することにより、セキュリティの脆弱性、偏り、知的財産リスクなどの問題に対処します。
統合リスクを評価します。 AI ワークロードを評価し、既存のワークロードおよびプロセスと統合します。 他のワークロードへの依存、複雑さの増加、機能に影響を与える可能性のある非互換性など、潜在的なリスクを文書化します。
AI ガバナンス ポリシーを文書化する
AI ガバナンス ポリシーは、責任ある AI の使用のための構造化されたフレームワークを提供します。 これらのポリシーは、AI アクティビティを倫理基準、規制要件、ビジネス目標に合わせて調整します。 ポリシーを文書化することで、AI モデル、データ、操作を管理するための明確なガイドラインが確保されます。
AI ガバナンス ポリシー領域 | AI ガバナンス ポリシーの推奨事項 |
---|---|
モデルを選択してオンボードするためのポリシーを定義する | ▪ AI モデルを選択するためのポリシーを確立します。 ポリシーでは、組織の価値観、機能、およびコストの制約を満たすモデルを選択するための条件を概説する必要があります。 リスク許容度と目的のタスク要件に合わせて、潜在的なモデルを確認します。 ▪ 構造化されたポリシーで新しいモデルをオンボードします。 モデル オンボーディングの正式なプロセスは、モデルの妥当性、検証、承認における一貫性を維持します。 最初の実験にはサンドボックス環境を使用し、重複を回避するために、運用環境カタログでモデルの検証と確認を行います。 |
サードパーティ製のツールとデータを使用するためのポリシーを定義する | ▪ サードパーティ製ツールのコントロールを設定します。 サードパーティ製ツールの審査プロセスにより、セキュリティ、コンプライアンス、アラインメントのリスクから保護します。 ポリシーには、外部データセットを使用する際のデータプライバシー、セキュリティ、倫理標準に関するガイドラインを含める必要があります。 ▪ データの機密度標準を定義します。 AI リスクを軽減するためには、機密データとパブリック データを分離することが不可欠です。 データの処理と分離に関するポリシーを作成します。 ▪ データ品質標準を定義します。 "ゴールデン データセット" は、AI モデルのテストと評価に信頼性の高いベンチマークを提供します。 ハイ パフォーマンスと信頼できる出力を確保するために、データの一貫性と品質に関する明確なポリシーを確立します。 |
モデルを維持および監視するためのポリシーを定義する | ▪ ユース ケース別に再トレーニング頻度を指定します。 頻繁な再トレーニングは、リスクの高い AI ワークロードの精度をサポートします。 各モデルのユース ケースとリスク レベルを考慮するガイドラインを定義します。特に、医療や金融などのセクターに対して行います。 ▪ パフォーマンスの低下を監視します。 時間の経過に伴うモデルのパフォーマンスの監視は、結果に影響を与える前に問題を検出するのに役立ちます。 ベンチマークを文書化し、モデルのパフォーマンスが低下した場合は、再トレーニングまたはレビュー プロセスを開始します。 |
規制コンプライアンスのポリシーを定義する | ▪ 地域の法的要件に準拠します。 各地域の法律を理解することで、AI オペレーションが各地域でコンプライアンスを維持できるようになります。 データ プライバシーに関する法律、倫理基準、業界の規制など、デプロイ領域ごとに適用される規制を調査します。 ▪ リージョン固有のポリシーを開発します。 リージョンの考慮事項に合わせて AI ポリシーを調整すると、ローカル標準への準拠がサポートされます。 ポリシーには、言語サポート、データ ストレージ プロトコル、カルチャの適応が含まれる場合があります。 ▪ 地域の変動に合わせて AI を適応させます。 AI ワークロードの柔軟性により、場所固有の機能調整が可能になります。 グローバルなオペレーションでは、ローカライズされたトレーニング データや機能制限など、リージョン固有の適応を文書化します。 |
ユーザーの行動のポリシーを定義する | ▪ 誤用リスクの軽減戦略を定義します。 誤用防止ポリシーは、意図的または意図しない損害からの保護に役立ちます。 考えられる誤用シナリオの概要を説明し、機能制限や誤用検出機能などのコントロールを組み込みます。 ▪ ユーザー行動ガイドラインを設定します。 ユーザー契約は、AI ワークロードと対話する際に許容される行動を明確化し、誤用のリスクを低減します。 標準を伝え、責任ある AI 対話をサポートするために、明確な利用規約をのドラフトを作成します。 |
AI の統合と置換のポリシーを定義する | ▪ 統合ポリシーの概要を説明します。 統合ガイドラインは、AI ワークロードがワークロードのインターフェイス中にデータの整合性とセキュリティを確実に維持できるようにします。 技術的な要件、データ共有プロトコル、セキュリティ対策を指定します。 ▪ 移行と交換を計画します。 移行ポリシーは、古いプロセスを AI ワークロードに置き換えるときの構造を提供します。 従来のプロセス、トレーニング スタッフ、および変更全体のパフォーマンスの監視を段階的に行う手順の概要を説明します。 |
AI ガバナンス ポリシーを適用する
AI ガバナンス ポリシーを適用することで、組織内で一貫した倫理的な AI プラクティスが保証されます。 自動化されたツールと手動介入により、デプロイ全体におけるポリシーの遵守をサポートします。 適切な適用は、コンプライアンスを維持し、人的エラーを最小限に抑えるのに役立ちます。
可能であれば、ポリシーの適用を自動化します。 Azure Policy や Microsoft Purview などのプラットフォームを使用して、AI デプロイ全体でポリシーを自動的に適用し、人為的エラーを減らします。 自動化によってポリシーの遵守が改善できる分野を定期的に評価します。
AI ポリシーを手動で適用します。 従業員が AI ガバナンスにおける自分の役割を確実に理解できるように、AI のリスクとコンプライアンスのトレーニングを提供します。 定期的なワークショップにより、スタッフは AI ポリシーについて常に最新の情報を得ることができます。また、定期的な監査は準拠状況の監視と改善すべき分野の特定に役立ちます。
ワークロード固有のガバナンス ガイダンスを使用します。 詳細なセキュリティ ガイダンスは、Azure プラットフォーム サービス (PaaS) と Azure インフラストラクチャ (IaaS) 上の AI ワークロードで使用できます。 このガイダンスを使用して、これらのワークロード タイプの AI モデル、リソース、データを管理します。
AI 組織のリスクを監視する
AI リスクを監視することで、組織は新たなリスクを特定し、迅速に対処できます。 定期的な評価により、AI ワークロードが意図したとおりに動作することが保証されます。 一貫性のある監視は、組織が進化する状況に適応し、AI システムからの悪影響を防ぐのに役立ちます。
継続的なリスク評価の手順を確立します。 定期的なレビューを設定して新しいリスクを特定し、利害関係者が AI の広範な影響を評価できるようにします。 リスクの再評価と必要な調整を可能にするため、問題が発生した場合の対応計画を策定します。
測定計画を作成します。 明確な測定計画により、一貫性のあるデータ収集と分析が保証されます。 運用指標の自動ログ記録や定性フィードバックのアンケートなど、データ コレクションの方法を定義します。 リスクの高い分野を中心に測定の頻度と範囲を確立し、利害関係者の意見に基づいてリスク評価を改善するためのフィードバック ループを作成します。
AI リスクを定量化および定性化します。 ワークロードの目的に合った定量的指標 (エラー率、精度) と定性的インジケーター (ユーザー フィードバック、倫理的懸念) を選択します。 業界標準に照らしてパフォーマンスをベンチマークし、AI の影響、信頼性、パフォーマンスを追跡します。
測定結果を文書化して報告します。 定期的な文書化とレポートにより、透明性と説明責任が強化されます。 意思決定を導くために、測定基準、所見、異常を要約した標準化されたレポートを作成します。 これらの分析情報を利害関係者と共有し、リスク軽減戦略の精緻化や、今後のデプロイの改善に役立てます。
独立したレビュー プロセスを確立します。 定期的な独立したレビューにより、外部または関与していない内部レビュー担当者を用いて、AI のリスクとコンプライアンスを客観的に評価します。 調査結果を使用して、リスク アセスメントを強化し、ガバナンス ポリシーを調整します。
次のステップ
AI リスク軽減策の例
次の表は、一般的な AI リスクと、それぞれの軽減戦略およびポリシー例を示しています。 この表は、すべてのリスクを網羅しているわけではありません。
リスク ID | AI リスク | 対応策 | ポリシー |
---|---|---|---|
R001 | データ保護法に準拠していない | Microsoft Purview Compliance Manager を使用して、データ コンプライアンスを評価します。 | すべての AI の開発とデプロイがデータ保護法を遵守するように、セキュリティ開発ライフサイクルを実施する必要があります。 |
R005 | AI の意思決定における透明性の欠如 | 標準化されたフレームワークと言語を適用して、AI プロセスと意思決定の透明性を向上させます。 | すべての AI モデルの透明性を維持するには、NIST AI リスク管理フレームワークを採用し、すべての AI モデルを徹底的に文書化する必要があります。 |
R006 | 不正確な予測 | Azure API Management を使用して AI モデルの指標を追跡し、精度と信頼性を確保します。 | 継続的なパフォーマンス監視と人間のフィードバックによって、AI モデルの予測が正確であることを確認する必要があります。 |
R007 | 敵対的攻撃 | PyRIT を使用して、AI ワークロードの脆弱性をテストし、防御を強化します。 | AI ワークロードを敵対的な攻撃から保護するには、セキュリティ開発ライフサイクルと AI レッド チーム テストを使用しなければなりません。 |
R008 | インサイダーによる脅威 | Microsoft Entra ID を使用して、ロールとグループ メンバーシップに基づく厳密なアクセス制御を実施し、機密データへのインサイダーのアクセスを制限します。 | インサイダーの脅威を軽減するには、厳密な ID およびアクセス管理と継続的な監視を実施する必要があります。 |
R009 | 予想外のコスト | Microsoft Cost Management を使用して CPU、GPU、メモリ、ストレージの使用状況を追跡し、効率的なリソース使用率を確保し、コストの急増を防ぎます。 | リソース使用量の監視と最適化、コスト超過の自動検出を使用することにより、予想外のコストを管理する必要があります。 |
R010 | AI リソースの活用不足 | 要求率や応答時間などの AI サービス指標を監視して、使用状況を最適化します。 | AI リソースの使用率を最適化するには、パフォーマンス指標と自動化されたスケーラビリティを使用する必要があります。 |