Microsoft における責任ある AI (Responsible AI)

完了

効果的な AI ガバナンス システムを設計し、実装することは困難な場合があります。 このユニットでは、Microsoft を例として、Microsoft がどのようにして会社全体で責任ある AI の順守を徹底しているかについて説明します。 このユース ケースに基づいて、ご自身の組織でこれらのアイデアをどのように適用できるか検討してください。

次の動画では、Microsoft が責任ある AI プラクティスを実施する方法について、Microsoft のVice President 兼 Chief Responsible AI Officer である Natasha Crampton が概要を説明しています。

Microsoft のガバナンス構造では、ハブアンドスポーク モデルを使用して、イニシアティブを推進するためのアカウンタビリティと権限を提供すると同時に、責任ある AI を実現するためのポリシーを大規模に実装できるようにしています。 つまり、前のユニットで説明した集中型アプローチと分散型アプローチを組み合わせたものです。

一元的なガバナンス

Microsoft には、集中型ガバナンスを提供する 3 つの組織があります。シニア リーダーシップ チーム、責任ある AI 部門、Aether 委員会です。 このような責任ある AI に対するアプローチの重要な特徴は、1 つの組織や個人がこの取り組みを主導するのではなく、企業全体にわたって責任ある AI を運用可能にするエコシステムを用意することです。

シニア リーダーシップ チーム

シニア リーダーシップ チームは、責任ある AI に関する会社の方向性について最終的な責任を負います。 このグループがこの最も重大かつ重要な目新しい AI の開発とデプロイに関わる事柄の最終的な意思決定者です。 また、会社の AI 原則、価値観、人権に関する取り組みを設定します。

責任ある AI 部門

責任ある AI 部門は、会社全体の関係者と協力して、責任ある AI ガバナンスへの取り組みを実装し、維持します。

  • Microsoft のガバナンス フレームワークを開発し、維持します。
  • ガバナンス機関のロールと責任を定義します。
  • 会社全体の報告と意思決定のプロセスを実装します。
  • 全従業員を対象とした責任ある AI トレーニングを調整します。

責任ある AI オフィスには、主に次の 4 つの機能があります。

  • 内部ポリシー: 責任ある AI の実現に向けた会社全体のルールを設定し、その取り組みに関わるチームの役割と責任を定義します。
  • 有効化: 社内および顧客とパートナーにわたって責任ある AI を実現するためのプラクティスを採用する準備を整えます。
  • ケース管理: 機密性の高いユース ケースを確認することで、開発や展開の作業で AI の原則が導入されるようにします。
  • パブリック ポリシー: 新しい法律、規範、標準の形成を支援します。 このポリシーの目標は、社会全体の利益のために AI テクノロジの可能性を確実に実現することです。

Aether 委員会

Aether 委員会 (AI, Ethics, and Effects in Engineering and Research) は、シニア リーダーシップ、責任ある AI 部門、会社全体のその他のチームに対して助言を与える役割を果たします。 また、AI テクノロジの開発と活用に関する疑問、課題、機会に関するガイダンスを提供します。

Aether 委員会には、Microsoft の AI の原則に基づいて、特定のサブジェクトに焦点を当てる 6 つの作業グループがあります。 作業グループは、それぞれの専門分野に関連するツール、ベスト プラクティス、カスタマイズされた実装ガイダンスを開発します。 作業グループとメインの委員会からの学習は、新しいポリシーを開発する場合、機密性の高いユース ケースを拒否したり制限を課したりする場合に重要です。

分散化されたガバナンス

責任ある AI を組織全体にわたって大規模に適用することには、社内全体にわたる強力なネットワークに依存します。これにより、組織全体にわたってルールを実装し、認知度を高め、Microsoft の AI 原則の適用に関して疑問を提起する問題に対してサポートを要求することを支援します。

責任ある AI チャンプ

Microsoft のネットワークには、リーダーシップ チームによって指名された、主要なエンジニアリング チームやフィールド チームの従業員である責任ある AI チャンプがいます。 (自身のフルタイムの役割に加え、) 責任ある AI アドバイザーの役割を果たし、取り締まりではなく意思決定者に情報を提供することに重点を置いています。

責任ある AI チャンプには主に次の 5 つの機能があります。

  • チームや作業グループ内で、責任ある AI を実現するための原則とプラクティスの意識を高める。
  • チームや作業グループが AI 機能、製品、サービス ライフサイクル全体にわたって定められたプラクティスを実装するのをサポートする。
  • 責任ある AI 開発のメリットと、想定外の危害が潜在的に及ぼす影響についてリーダーに助言する。
  • AI に関する質問や機微な使用について、利用可能なチャネルを通じて識別してエスカレートする。
  • 組織を越えて責任ある AI エバンジェリストのコミュニティを成長させることで、顧客中心とグローバル視点の文化を醸成する。

エンジニアリングのプラクティスと顧客への摩擦を最小限に抑えつつ AI を開発して展開するために、Microsoft ではパターン、プラクティス、ツールに投資しています。 一部のエンジニアリング グループは、企業全体のルールに従い、実装パターン、プラクティス、ツールの開発を促進するためのチームを編成しています。

すべての従業員

責任ある AI の実現に向けて、最終的なアプローチかつ最も重要な部分を占めるのは、全従業員がマネージャーやビジネス リーダーのサポートを受けながら果たせる役割であることです。 責任ある AI は必須の従業員トレーニングの重要な部分であり、Microsoft では従業員が責任ある AI の分野をいっそう深く探究できる、追加の教育アセットをリリースしました。 また、従業員が責任を持って開発できるように、責任ある AI を開発するためのツールも数多く用意しています。 これらのリソースにより、全従業員が AI に関わる会社の重要な仕事を進める能力が得られ、同時に責任ある AI の原則を導入し、それを達成するために採用した会社全体のプラクティスに従うことに全従業員が責任を負います。

Microsoft の従業員には次のことを期待しています。

  • Microsoft の AI の原則に関する基本的な理解を深める。
  • 機微な使用について報告してエスカレートする。
  • 責任ある AI についてガイダンスが必要なときは、担当の責任ある AI チャンプスにお問い合わせください。

ヒント

少し時間を取り、組織において責任ある AI ガバナンスのシステムを確立するときの課題を明らかにします。
テーブルを囲んで作業し、話している人々を示す写真。

次は、機微な AI のユース ケースについてフラグ立てて対処するための、ガバナンス モデルの実行について確認しましょう。