責任ある AI の影響に備える
AI は、私たちの時代の決定的なテクノロジです。 既に、人間の取り組みのほぼすべての分野で、より短時間で広範囲な進歩が可能になり、最も困難な社会の課題の一部を解決するのに役立っています。 たとえば、AI を使って画像にわかりやすいテキストを生成することで、視覚障碍のあるユーザーが画像を理解できるように支援できます。 また、増加する世界人口に対応する十分な食料を農家が生産できるように AI で支援する例もあります。
Microsoft では、AI の計算知能は、人間の持って生まれた創造性や創意工夫を増幅するために使用する必要があると考えています。 AI に対する当社のビジョンは、すべての開発者の革新する能力、業界を変革する組織の能力、および社会を変革する人びとの能力を高めることです。
AI の社会的な影響
過去のすべての優れた技術革新と同様に、AI テクノロジの使用は社会に広範囲の影響を与え、人類が望む未来について考えるとき、複雑かつ困難な問題を提起します。 AI は、業界全体にわたる意思決定、データのセキュリティとプライバシー、人びとが職場で成功するために必要なスキルに影響を与えます。 この将来を考慮して、私たちは次のことを自問自答する必要があります。
- 個人や社会に好影響をもたらす AI システムをどのように設計、構築、および使用しますか。
- AI の影響に対して従業員を最適に準備させるにはどうしたらよいですか。
- プライバシーを尊重しながら AI の利点を得るにはどうしたらよいですか。
AI への責任あるアプローチの重要性
新しいインテリジェント テクノロジが出現し、社会全体に普及する際には、そのベネフィットだけでなく、意図せず予期しない結果が生じることを認識することが重要です。 こうした結果の中には、倫理的に重大な影響を及ぼし、深刻な危害を引き起こす可能性のあるものもあります。 組織はまだ将来を予測できませんが、私たちには熟慮した計画と継続的な監視を通して、世界にリリースするテクノロジの意図しない結果を予測し、それを軽減するために一致団結した取り組みを行う責任があります。
脅威
AI テクノロジが進歩するたびに、私たちに共通する責任を改めて思い出すことになります。 たとえば、2016 年に Microsoft は X ユーザーとの対話から学習できる Tay というチャットボットを X 上でリリースしました。 目標は、チャットボットが人間のコミュニケーションと性格特性をより適切に再現できるようにすることでした。 ただし、24 時間も経たずに、偏ったレトリックからチャットボットが学習できることに気付いたユーザーが、チャットボットをヘイト スピーチの手段に変えました。 この経験は、AI システムを設計するときに人間の脅威を考慮する必要がある理由の一例です。
新しい脅威には、責任ある AI へのアプローチを常に進化させる必要があります。 たとえば、生成系 AI を使うと、本物のように見える動画、画像、オーディオ ファイルを作成または編集できるので、メディアの信頼性を確認することが難しくなっています。 これに対応するため、Microsoft は他のテクノロジやニュースの関係者と連携し、ディープ フェイク関連の操作に対処するテクノロジ標準を開発しています。
Note
学習データセットに影響する可能性のある新しい種類の攻撃に備えるため、Microsoft は高度なコンテンツ フィルターなどのテクノロジを開発し、自動学習機能を持つ AI システム用スーパーバイザーを導入しました。 Azure AI サービスや Bing Chat で提供されているような現在の生成 AI モデルは、これらの分析情報に基づいて構築されています。
バイアスがかかった結果
組織が念頭においておく必要のある別の意図しない結果は、熟慮した計画と設計がなげれば、AI が社会的なバイアスやその他のバイアスを強固にする可能性があることです。 開発者は、バイアスがトレーニング データや機械学習モデルにどのように導入されるかを理解することが重要です。 ユーザーはトレーニング データを自分で処理しないことがあるので、この問題は事前構築済みモデルで広がる可能性があります。
たとえば、融資承認のためのリスク スコアリング システムを開発しようとしている大手金融機関について考えてみましょう。 エンジニアがデプロイ前にシステムをテストすると、このシステムは男性の借り手に対してのみ融資を承認していることがわかりました。 過去の顧客データに基づいてシステムがトレーニングされたため、融資担当者の過去の性差別的な偏見が再現されました。 デプロイ前にシステムを検証することで、システムが稼働する前に問題を特定し、対処することができました。
Note
Microsoft では、研究者が AI システム内のバイアスを検出して削減するためのツールや技法を調査しています。 事前構築済みモデルは徹底的に検証されていますが、それでも賢く使う必要があります。また、アクションを実行する前に、常にその結果を監査する必要があります。
慎重な扱いが必要なユースケース
意図しない結果を軽減する私たちの責任を示す別の例として、顔認識などの慎重な扱いが必要なテクノロジがあります。 最近、特に、行方不明の子供たちの発見などのユース ケースでこのテクノロジの可能性を考えている法の執行組織から、顔認識技術に対する需要が増えています。 一方で、Microsoft は、これらのテクノロジが基本的自由を危険にさらす可能性があることを認識しています。 たとえば、特定の個人を継続的に監視できる可能性があります。 社会には、これらのテクノロジの使用に対して適切な境界を設定する責任があると考えています。これには、政府による顔認識技術の使用が法の支配に制約されることの保証が含まれます。
新しい法律や規制を策定する必要はありますが、それらは AI に関わる際に私たち全員が負う責任に代わるものではありません。 企業、政府、NGO、学術研究者が協力することで、機密性の高いユース ケースに対処することができます。
Note
Microsoft は、顔認識テクノロジを使った作業を管理するための原則を評価し、開発しています。 弊社は引き続き学習し、顧客、他のテクノロジ企業、学術研究者、市民社会、この問題に関するその他の人びとと提携するため、これらの原則は時間の経過と共に進化していくと予測しています。 Microsoft は責任ある AI プラクティスを使ってこれらの問題を検出、防止、軽減していますが、AI 関連のプロジェクトでも同様に考慮する必要があります。
次に、Microsoft が提示する、責任ある AI のための 6 つの基本原則を他の組織内で適用する方法について見ていきましょう。