インテリジェント アプリケーション ワークロードの責任ある AI に関する考慮事項
インテリジェント アプリケーションのワークロードは、公平性、説明責任、透明性、倫理的な行動を確保するために、責任ある AI の原則に準拠する必要があります。
すべてのユーザーを公平に扱い、開発者とユーザーにそのパフォーマンスに対する責任を負わせ、AI 運用の透明性を確保し、倫理基準を遵守するように AI システムを設計します。
Microsoft では、人間を第一に考える原則に基づいて、AI の進歩に取り組んでいます。 生成モデルには大きな潜在的メリットがありますが、慎重な設計と慎重な軽減策がなければ、このようなモデルは不適切なコンテンツや有害なコンテンツを生成する可能性があります。 マイクロソフトは、悪用や予期せぬ被害を防ぐために多大な投資を行ってきました。これには、マイクロソフトの AI の責任ある利用に関する原則の組み込み、行動規範の採用、顧客をサポートするためのコンテンツ フィルターの構築、生成 AI を使用する際に顧客が考慮すべき責任ある AI の情報とガイダンスの提供などが含まれます。
Power Platform コパイロット と生成 AI 機能は、一連のコアセキュリティおよびプライバシー慣行と Microsoft の責任ある AI の標準 osoft の責任ある? AIの原則に従っています。 Power Platform データは、業界をリードする包括的なコンプライアンスとセキュリティ、プライバシー管理によって保護されます。
詳細情報:
- Microsoft AI の原則
- Microsoft の責任ある AI のリソース
- 責任ある AI に関する Microsoft Azure 学習コース
- Copilot Studio の責任ある AI に関する FAQ
- Azure OpenAI モデルにおける責任ある AI 実践の概要
責任ある AI の基本原則
責任ある AI の基本原則には、公平性、説明責任、透明性、倫理が含まれます。 Power Platform で構築されたインテリジェントなアプリケーションのワークロードがこれらの基本原則に従うようにするには、いくつかの重要な実践が必要です。
- 公平性: 多様で代表的なトレーニング データを使用して、バイアスを最小限に抑えます。 トレーニング データを定期的に更新し、監査人と協力して公平性と均等性を検証します。
- 説明責任: AI プロジェクトに関与するチーム メンバーの役割と責任を明確に定義します。 公平性と説明責任を優先する倫理基準を確立し、遵守します。
- 透明性: 生成 AI 機能を使用するワークロードを使用していることをユーザーに知らせます。 AI ソリューションが選択された理由、設計方法、監視と更新の方法を明確に伝えます。
- 倫理: インクルーシブな労働力を育成し、開発プロセスの早い段階で多様なコミュニティからの意見を求めます。 倫理的な懸念やパフォーマンスの格差について、モデルを定期的に評価およびテストします。 定期的な監査を含むガバナンスの枠組みを確立します。
これらのプラクティスを開発、展開プロセスに組み込み、責任ある AI の基本原則に準拠したインテリジェントなアプリケーション ワークロードを作成します。
データ プライバシーとセキュリティ
データのプライバシーを確保することは、特にインテリジェントなアプリケーションのワークロードが機密データを処理する可能性があるため、非常に重要です。 Power Platform を使用してインテリジェントなアプリケーション ワークロードを計画する場合は、いくつかの主要なリスクに対処し、効果的な軽減戦略を実装することが不可欠です。
- プラットフォーム機能: データを保護するネイティブ コントロールとプラットフォーム機能を理解します。 Microsoft Copilot は Microsoft Azure OpenAI サービス上に構築されており、Azure クラウド内で完全に動作します。 Copilot は Microsoft Azure のセキュリティ機能をすべて備えた OpenAI モデルを使用します。 Copilot は Dynamics 365 や Power Platform などの Microsoft サービスに統合されており、多要素認証やコンプライアンス境界など、セキュリティ、プライバシー、コンプライアンスのポリシーとプロセスを継承します。
- データの暗号化: サービス側のテクノロジにより、保存や転送に際して組織コンテンツを暗号化し、堅牢なセキュリティを実現します。 接続はトランスポート層セキュリティ (TLS) で保護され、Dynamics 365、Power Platform、Azure OpenAI 間のデータ転送は Microsoft バックボーン ネットワーク経由で行われるため、信頼性と安全性が両方とも保証されます。 詳細については、Microsoft Cloud の暗号化をご参照ください。
- アクセスの制御: データは、現在のユーザーのアクセス レベルに基づいて、Copilot (またはカスタムエージェント) に提供されます。 Microsoft Entra ID を使用してロールベースのアクセス制御 (RBAC) を実装し、承認されたユーザーのみがデータにアクセスできるようにします。 最小特権の原則を適用して、必要なものだけにアクセスを制限します。
- 監視と監査: AI システムのアクセスと使用状況を定期的に監視することで、潜在的なセキュリティ インシデントを検出して対応します。 詳細な監査ログを保持して、データへのアクセスと変更を追跡します。
- コンプライアンスとガバナンス: GDPR (一般データ保護規則)、HIPAA (医療保険の相互運用性と説明責任に関する法律)、CCPA (カリフォルニア州消費者プライバシー法) などの関連するデータ プライバシー規制へのコンプライアンスを確保します。 倫理的な AI プラクティスを実装して、バイアスを回避し、AI 出力の公平性を確保します。
- ユーザー教育とトレーニング: セキュリティのベストプラクティスとデータプライバシーの重要性についてユーザーにトレーニングします。 セキュリティ ポリシーと手順の更新と変更について、ユーザーに通知します。
詳細情報: Dynamics 365 や Power Platform 向け Copilot のデータ セキュリティとプライバシー
バイアスの認識と軽減
システム内のバイアスに対処することの重要性を認識し、公平性を確保して AI 応答のバイアスを回避します。
- 多様で代表的なデータ: 固有のバイアスを最小限に抑えるために、トレーニング データが多様でさまざまな人口統計を代表するものであることを確認します。 データの偏りや不均衡を定期的に監査し、必要に応じて是正措置を講じます。
- バイアスの検出と軽減のツール: ツールと手法を使用して、統計分析や公平性メトリックなど、AI モデルのバイアスを検出します。 リサンプリング、再重み付け、敵対的バイアス除去などのバイアス除去の手法を実装して、モデルのバイアスを低減します。
- ヒューマン イン ザ ループ: 人間によるレビューとフィードバックのループを組み込んで、AI がもたらす可能性のあるバイアスを特定して修正します。 倫理委員会またはガバナンス委員会を設立して AI の開発と展開を監督し、倫理基準が満たされていることを確認します。
- 透明性と信頼: 生成 AI 機能を使用するワークロードを使用していることをユーザーに知らせます。 AI ソリューションが選ばれた理由を明確に伝え、その設計方法と監視と更新方法に関する情報を提供します。
- 継続的な監視と改善: AI システムのバイアスとパフォーマンスの問題を継続的に監視し、必要に応じてモデルを更新します。 より多様なデータを更新してモデルを定期的に再トレーニングすることで、モデルの公平性と偏りがないようにします。
継続的な監視と評価
インテリジェントなアプリケーション ワークロードを継続的に改善し続けてください。 継続的なモニタリングと評価の枠組みを確立し、ユーザーからのフィードバックと進化する倫理基準をアップデートに組み込んでください。
- フィードバック ループ: ユーザーが不正確さを報告できるフィードバック メカニズムを確立してください、そしてそれを使用してモデルを改良および改善してください。
- 監視と監査: AI システムのアクセスと使用状況を定期的に監視することで、潜在的なセキュリティ インシデントを検出して対応します。 詳細な監査ログを保持して、データへのアクセスと変更を追跡します。