責任ある AI フレームワークを実行する

完了

前のユニットで説明したように、Microsoft では、AI を責任を持って管理するための社内プロセスの開発と改良に努めてきました。 このユニットでは、このガバナンス システムが実際の状況でどのように機能するかを説明します。 すべての組織が独自のガバナンス フレームワークとレビュー プロセスを用意する必要がありますが、Microsoft の機微な使用に関わるフレームワークはその出発点として役立ちます。 Microsoft の責任ある AI ガバナンス プロセスの初期手順の 1 つは、機微な使用のレビュー トリガーを使用することでした。 このフレームワークは、社内チームや顧客に対応するチームが、具体的なユース ケースで追加のガイダンスが必要になるタイミングを識別するのに役立ちました。

Microsoft の機微なユース ケース フレームワーク

Microsoft の責任ある AI ガバナンスに関するドキュメントによると、次のカテゴリの 1 つ以上に該当する AI の開発またはデプロイのシナリオは、"機微な使用" と見なされます。

  • 派生サービスの妨害: このシナリオには、個々のユーザーに対する派生サービスまたはサポートの妨害に直接つながる可能性があるような形での AI の使用が関わっています (例: 財務、住宅、保険、教育、雇用、医療サービス)。
  • 危害のリスク: このシナリオには、個々のユーザーに対して物理的、精神的、心理的な危害を及ぼす重大なリスクを生じさせる可能性があるような形での AI の使用が関わっています (例: 軍隊における生死に関わる決断、安全重視の製造環境、健康管理に関わるコンテキスト、お子様や弱い立場にある人々が関与するほぼすべてのシナリオ)。
  • 人間の権利に対する侵害: このシナリオには、個人の自由、意見や表現、集会や結社、プライバシーなどの重大な制限につながる可能性があるような形での AI の使用が関わっています (例: 法の執行、警備)。

Microsoft ではこのフレームワークを使用して、顧客に対応する販売員であるか社内の AI ソリューションを開発している開発者であるかに関係なく、従業員に対してある AI ユース ケースが追加のレビューのためにフラグを設定する必要があるかどうかを判断するためのトレーニングを実施しています。 また、Microsoft では責任ある AI チャンプに対して、従業員と中央管理チームの間を橋渡しする役割についてのトレーニングも実施しています。

Microsoft の機微なユース ケースのレビュー プロセス

機微なユース ケースのレビュー プロセスには、識別、評価、軽減という 3 つの段階があります。 このプロセスをよりわかりやすく説明するために、実際のケース スタディが各ステップの説明に含まれています。 このケース スタディでは、顔認識システムについてあるお客様が私たちのところに来ました。

識別

ユース ケースが 3 つのカテゴリ (派生サービスの妨害、危害のリスク、人間の権利の侵害) のいずれかに分類されることを従業員が特定した場合、それを報告します。 報告は中央の送信ツールを使って行われ、ローカルの責任ある AI のチャンプ (会社の責任ある AI のポリシー、標準、ガイダンスの認識と理解を促進することに責任を持つ個人) に送られます。

このケースでは、法執行機関から、既存の本人確認方法を補強する顔認識システムの開発について相談がありました。 そのシナリオには、車両停止中の顔認識を使った運転手の本人確認、刑務所でのチェックイン プロセスの高速化、施設を移動する囚人の本人確認が含まれていました。 ある従業員が、中央の取り込みツールを介して、これら 3 つのユース ケースを責任ある AI レビュー用に送信しました。

評価

責任ある AI チャンプは、ユース ケースに関わる責任ある AI オフィスや Microsoft チームと協力して、ケースを調査して関連する事実を収集し、ガイド付きプロセスに従って提案されたシステムが個人や社会に与える影響を評価し、同様のシナリオについてのガイダンスが既に存在するかどうかを確認するために過去のケースを見直します。 過去のガイダンスが存在しない場合、またはケースにさらなる専門知識と評価が必要な場合、責任ある AI チャンプは、Aether 委員会の Sensitive Uses ワーキング グループにそのケースを提示します。

この顔認識のケースでは、責任ある AI チャンプは、責任ある AI オフィス、アカウント チーム、およびお客様と緊密に連携して、リスクを評価しました。 3 つのケースすべてが、さらなるインプットのため Aether Sensitive Uses ワーキング グループにエスカレートする必要があると決定されました。AI の 1 つ以上の機微な使用に関連していたためです。

軽減策

Sensitive Uses ワーキング グループは、特定のユース ケースに関連付けられたリスクに対処する方法に関する洞察と推奨事項を提供するために、さまざまな専門家のグループと協議します。 さらなるエスカレーションが必要な状況では、ケースは Aether 委員会にまで持ち上がる可能性があります。ここでは、シニア リーダーシップ チームが直接助言を受けます。 最終的に、シニア リーダーシップ チームが、新しく影響の大きいケースに関する意思決定を行います。

Note

機微なユース ケースをレビューする場合、さまざまな経歴と専門知識を持つさまざまなグループを関与させることをお勧めします。 また、誰もが快適にアイデアや意見を共有できる、インクルーシブなスペースを作ることも重要です。

ケースを見直したら、責任ある AI チャンプは、責任ある AI オフィスと協力して、責任ある AI のプラクティスと原則に合った軽減策について、プロジェクトチームに助言を提供します。 これらの軽減策の戦略には、テクニカルな手法、従業員のトレーニング、ガバナンス アプローチ、またはプロジェクトのスコープに対する変更も含まれます。 時々、Microsoft のチームは、私たちの原則を順守するやり方で特定のプロジェクトを提供することができないため、これを進めないようアドバイスされてきました。

このユース ケースでは、Aether Sensitive Uses ワーキング グループがシナリオごとに個別の決定を行いました。 慎重に検討した後、車両停止中に "怪しい人" を特定するパトロール シナリオをサポートしないことに決めました。 テクノロジと広範なエコシステムの状態は、テクノロジが完璧に機能しなかった場合の有害な結果を軽減するには十分に成熟していなかったため、Aether ワーキング グループはこのシナリオを時期尚早なユース ケースと見なしました。

私たちはお客様に問題を説明し、お客様はそのシナリオを追求しないことにしました。

Note

研究による裏付け: 管理されていない環境で個人を特定しようとすると、人権を侵害することになり、誤認逮捕という結果が生じる可能性があります。 研究では、AI は女性やマイノリティの身元を誤認しがちで、これにより、こうした人々が偏って拘束されかねないことが示されています。1

施設内ユース ケースについては、私たちは、人間がソリューションを適切かつ確実に管理できるようセーフガードを設けて概念実証 (POC) の設計と開発をサポートできたと判断し、お客様と Microsoft との間に双方向フィードバック ループが確立されたと判断しました。 また、お客様はソリューションを操作する人員に対してトレーニング プログラムを実施し、これらのサポートされたシナリオを超えた展開について Microsoft と再連携したことも重要でした。

責任ある AI ガバナンスの進化

プロセスの実行を確認しましたが、繰り返す必要がある重要なポイントがあります。これは AI ガバナンス構築の始まりにすぎないということです。 AI に関するプロセスは急速に進化しています。 今後、Microsoft は AI にさらに投資する際、自身のガバナンス ポリシーを改善することを計画しており、他の企業でも同様のことを行うことを推奨しています。 すべての組織は、そのレビュー プロセスを、独自の AI のニーズと成熟度に基づいてカスタマイズする必要がありますが、私たちのプロセスがその開始点として役立つことを願っています。

次の知識チェックで、学習したすべての内容をまとめてみましょう。