責任ある AI の基本原則を確認する
前回のユニットでは、AI の社会的な影響についていくつか説明しました。 AI テクノロジの意図しない結果を予測し、軽減しなければならないという、ビジネス、政府、NGO、学術研究者の責任について言及しました。 組織がこれらの責任を検討するので、AI の取り組みを指導する内部ポリシーとプラクティスを作成するものは増えています。
Microsoft では、AI の開発と使用の指針にする必要があると考えている 6 つの原則、つまり、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、および説明責任を認識しています。 Microsoft にとって、特に、毎日使用する製品やサービスでインテリジェント テクノロジがさらに普及していくにつれ、これらの原則は、AI への責任あるかつ信頼できるアプローチの基礎となります。
公平性
AI システムは、すべての人を公平に扱い、同じ状況に置かれた人たちのグループが異なる方法で影響を受けることを回避する必要があります。 たとえば、AI システムが治療、ローンの申し込み、または雇用に関するガイダンスを提供する場合は、同様の症状、財務状況、または専門的な資格を持つすべての人に対して同じ推奨事項を作成する必要があります。
AI システムの公平性を確保するには、次のことを行う必要があります。
- AI システムの範囲、精神、および潜在的な使用を理解します。それには、次のような質問をします。このシステムは、どのように動作することを目的にしていますか。 このシステムは、だれのために動作するように設計されていますか。 このシステムは、すべての人に対して均等に動作しますか。 それは、他人にどのような害を与える場合がありますか。
- さまざまな才能を引きつけます。 さまざまなバックグラウンド、経験、教育、観点を持つチーム メンバーを含めることによって、設計チームに現実の世界が反映されるようにします。
- データがどこから来たかを評価し、それがどのように構成されたかを理解し、それが表現されていることをテストすることによって、データセット内のバイアスを識別します。 バイアスは、収集からモデル化、さらに運用までの、作成のすべての段階で導入される可能性があります。 責任ある AI ダッシュボード ([リソース] セクションで利用できます) には、このタスクに役立つ機能が含まれています。
- モデルの透明性と明瞭度を向上させるツールや技法を適用することによって、機械学習アルゴリズム内のバイアスを識別します。 ユーザーは、機械学習アルゴリズムの偏見を積極的に特定して取り除く必要があります。
- 目視レビューや特定分野の専門知識を活用します。 特に、AI が人びとに関する重大な決定を通知するために使用されている場合は、AI の結果の意味や影響を理解するように従業員をトレーニングします。 AI を使用する決定は、常に人間によるレビューと組み合わせて行う必要があります。 設計プロセスとデプロイの決定に、関連する対象分野の専門家を含めます。 たとえば、信用スコアリング AI システムに関して、消費者信用に関する分野の専門家を含めます。 AI は、副操縦士として、つまり、自分の仕事をより良く、高速に実行するのに役立つが、ある程度の監督が必要な支援ツールとして使う必要があります。
- AI システム内のバイアスの検出、防止、および対処に役立つように、他の機関や企業のベスト プラクティス、分析手法、およびツールを調査して採用します。
信頼性と安全性
信頼を構築するには、AI システムが、正常な状況と予期しない状態のもとで確実かつ安全に、一貫して動作することが重要です。 これらのシステムは、当初の設計どおりに動作し、予期しない状態に安全に対応し、さらに有害な操作を排除できる必要があります。 また、これらのシステムが、実際の運用条件のもとで意図したとおりに動作しているかを確認できることも重要です。 これらのシステムがどのように動作するか、また確実かつ安全に処理できる条件の多様性には、開発者が設計およびテスト中に予測している状況や状態の範囲が大きく反映されます。
AI システムの信頼性と安全性を確保するには、次のことを行う必要があります。
- データやモデルの品質と適合性を評価し、継続的なパフォーマンスを監視し、さらにシステムが確立されたパフォーマンス測定値に基づいて意図したとおりに動作していることを確認するために、AI システムを監査するためのプロセスを開発します。
- 設計仕様、トレーニング データに関する情報、発生したトレーニング エラーやトレーニング データが不十分である可能性、生成された推測や重大な予測などの、システム運用の詳細な説明を提供します。
- 偶発的なシステム操作、悪意のあるデータの導入、サイバー攻撃などの意図しない状況に対して設計します。
- 特に、人びとに関する重大な決定を行うために AI を使う場合は、設計および実装プロセスに特定分野の専門家を関与させます。
- システムが予期しない状況に安全に対応でき、予期しないパフォーマンス エラーを発生させず、さらに予期しない方法で進化しないことを確認するために、AI システムの開発およびデプロイ中に厳格なテストを実行します。 人間の安全や膨大な人数に影響を与える、いちかばちかのシナリオに関連する AI システムは、ラボ内と実環境のシナリオの両方でテストする必要があります。
- 影響が大きい決定に関して、または重大な状況で、AI システムがいつ、どのように人間の入力を求めるべきかを評価します。 AI システムは、意味のある、わかりやすい方法で、どのように人間に制御を移すべきかを検討します。 非常に影響が大きい決定では人間が必要なレベルの入力を行うことが保証されるように AI システムを設計します。
- 問題をすばやく解決できるように、ユーザーがパフォーマンスの問題を報告するための強力なフィードバック メカニズムを開発します。
プライバシーとセキュリティ
AI がさらに普及していくにつれ、プライバシーの保護や重要な個人およびビジネス情報のセキュリティ保護はますます重要かつ複雑になっています。 AI では、AI システムが人びとに関する正確で、かつ情報に基づいた予測や決定を行うにはデータへのアクセスが不可欠であるため、プライバシーやデータ セキュリティの問題には特に細心の注意が必要です。
AI システムのプライバシーとセキュリティを確保するには、次のことを行う必要があります。
- コンプライアンス テクノロジおよびプロセスの開発にリソースを投資するか、または AI システムの開発中に技術リーダーと協力することによって、関連するデータ保護、プライバシー、および透明性に関する法律に従います。 AI システムがこれらの法律のすべての側面を満たしていることを継続的に確認するプロセスを開発します。
- 個人データが、必要とされているとき、かつ顧客と共有されている定義済みの目的にのみ使用されるように、個人データの整合性を維持するように AI システムを設計します。 誤って収集された個人データや、定義済みの目的に関連しなくなったデータを削除します。
- セキュリティで保護された開発と運用の基礎に従って AI システムを設計し、ロールベースのアクセスを使用し、さらにサードパーティに転送される個人および機密データを保護することによって、悪意のあるアクターから AI システムを保護します。 異常な動作を識別し、不正操作や悪意のある攻撃を防止するように AI システムを設計します。
- 顧客が自身のデータの収集および使用の方法と理由に関する選択を行うことができるように、適切な制御を使用して AI システムを設計します。
- システムが個人の識別をデータから削除する方法を考慮することによって、AI システムで匿名性が維持されるされるようにします。
- すべての AI システムについて、プライバシーとセキュリティのレビューを実行します。
- 顧客データに関する関連情報を追跡し、そのデータをアクセスおよび使用して、アクセスと使用を監査するための業界のベスト プラクティスを調査して実装します。
包括性
Microsoft では、知能技術の利点がすべての人にもたらされることを固く信じています。つまり、この技術は幅広い人間のニーズや経験を組み込み、それらに対処する必要があります。 世界中の 10 億人の身体に障碍のある方にとって、AI テクノロジは大変革をもたらす技術になります。 AI は、教育、行政サービス、雇用、情報、および広範囲にわたるその他の機会へのアクセスを改善できます。 リアルタイムの音声テキスト変換、画像認識サービス、予測テキスト機能などのインテリジェント ソリューションは既に、聴覚、視覚、その他の障碍のある方々の力となっています。
Microsoft インクルーシブ デザインの原則:
- エクスクルージョンを認識する
- 1 人のために解決し、多くの人々に拡大適用する
- 多様性から学ぶ
AI システムの包括性を確保するには、次のことを行う必要があります。
- ユーザー補助テクノロジの調達を義務付ける、ユーザー補助と包括性に関連した法律に従います。
- システム開発者が、ユーザーを誤って排除する可能性のある製品環境内の潜在的な障害を把握し、それに対処するのに役立つように、このモジュールのリソースのセクションで入手できる、インクルーシブ 101 のガイド ブックを使用します。
- 考えられる最も幅広い対象ユーザーがシステムを意図したとおりに使用できるかどうかを確認するのに役立つように、身体に障碍のある方がシステムをテストするようにします。
- システムにあらゆる能力の人たちがアクセスできることを確認するのに役立つように、よく使用されるアクセシビリティ標準を検討します。
透明性
上記の価値の基になるのが、2 つの基本原則、つまり透明性と説明責任です。これらは、他の基本原則の有効性を確保するために不可欠です。 AI システムが人々の生活に影響を与える意思決定を通知する際に使われる場合、それがどのような結論に達するかを理解することが重要です。 たとえば、銀行が AI システムを使用して、ある人物が信用できるかどうかを判定したり、会社が AI システムを使用して、採用するのに最適な候補を決定したりすることがあります。
透明性の非常に重要な部分として、明瞭度と呼ばれるもの、つまり AI システムとそのコンポーネントの動作の有効な説明があります。 明瞭度を向上させるには、潜在的なパフォーマンスの問題、安全性とプライバシーの問題、バイアス、排他的行為、または意図しない結果を識別できるように、利害関係者が各自の役割の実行方法とその理由を理解していることが必要です。 また、AI システムを使用する人たちは、それをデプロイすることを選択した時期、理由、方法について正直かつ協力的である必要があると考えています。
AI システムの透明性を確保するには、次のことを行う必要があります。
- 開発者が、特定のデータセットがそのユースケースに適しているかどうかを理解するのに役立つように、データセットの重要な特性を共有します。
- よりシンプルなモデルを適用し、モデルの動作のわかりやすい説明を生成することによって、モデルの明瞭度を向上させます。 このタスクのために、リソース セクションで利用できる、責任ある AI ダッシュボードを使用できます。
- AI の出力を解釈する方法に関して従業員をトレーニングし、それらの結果に基づいて重大な決定を行うことに対して従業員の説明責任が維持されるようにします。
アカウンタビリティ
AI システムを設計してデプロイする人たちは、そのシステムがどのように動作するかについて説明責任があります。 組織は、業界標準に基づいて説明責任の基準を策定する必要があります。 これらの基準により、人びとの生活に影響を与える決定について、AI システムが最終権限ではないこと、および他の場合は高度に自律的な AI システムの有意な制御を人間が維持することが保証されます。
AI システムの説明責任を確保するには、次のことを行う必要があります。
- AI システムの責任ある開発とデプロイに関する監視やガイダンスを提供するには、社内レビュー委員会を設定します。 これらはまた、開発中に AI システムを文書化およびテストするためのベスト プラクティスを定義したり、慎重な扱いが必要なケースのガイダンスを提供したりするといったタスクにも役立ちます。
- 責任ある、倫理的な方法でソリューションを使用および保守し、ソリューションにいつ追加のテクニカル サポートが必要になる可能性があるかを理解するように、従業員が確実にトレーニングされるようにします。
- 報告を行い、モデルの実行に関する決定に関与させることによって、必要な専門知識を持つ人間をグループに保持します。 決定の自動化が必要な場合は、その人間がモデルの出力と実行に関する課題を検査、識別、解決できるようにします。
- モデルが不公平、または潜在的に有害な方法で動作していると確認される場合は修復または修正アクティビティを実行するために、アカウンタビリティとガバナンスの明確なシステムを導入します。
私たちは、すべての個人、会社、地域が独自の信念や標準を持っており、それぞれの AI 体験に反映される必要があることを認識しています。 ユーザーが独自の基本原則の策定を検討する場合、Microsoft の観点をユーザーと共有します。
ヒント
少し時間を取って、責任ある AI の原則ごとに他の例をブレーンストーミングします。
これらの原則は、AI の開発と使用を行う際に、何をすべきかについての一般的な考え方を提供します。 ただし、より実用的なレベルで検討する必要があります。 次に、AI ガバナンス システムを使ってこれらの原則を確保する方法を調べましょう。