Jaa


未来の政策や規制で AI の課題にどのように対処するか

2017 年 4 月 25 日 - Paul Nicholas - Trustworthy Computing、シニア ディレクター

このポストは「 How future policy and regulations will challenge AI 」の翻訳です。

先日、サイバーセキュリティへの人工知能 (AI) の組み込みがどのくらい急速に進められるかについてお伝えしました。しかしながら、テクノロジ革命の速度はたいてい、我々が考える程速くありません。我々は、スプートニクが打ち上げられた 1957 年から iPhone が発表された 2007 年まで、特定の瞬間だけに注目し、それらを「革新的変化」と呼んでしまう傾向があります。それまでに、イノベーション、実装、規制など、さまざまな地道な段階を通過して初めて「革新的変化」の瞬間を迎えるという事実を正しく理解しようとしないのです。それでは、AI 開発のこの反復的かつ、どちらかというと地味なプロセスから我々は何を期待することができるでしょうか。テクノロジの進歩だけでなく、テクノロジと国の政策決定プロセスの相互作用の観点からも考えてみましょう。

2 つの観点があります。重なる部分もあるものの、明確に異なっています。1 つ目の観点は、情報通信テクノロジ (ICT) やその応用が法律よりも速く進化するという事実に関するものです。ここ数年、ソーシャル メディア アプリや配車アプリなどの例において、進化の速さにより以下のような規制に関する経験が確認されています。

  1. イノベーション: R&D プロセスで 1 つまたは多数の現実的なテクノロジ オプションが導き出される。
  2. 実装: これらのオプションが現実世界で利用され、経験を通して改良されていき、主要なグローバル市場で普及し始める。
  3. 規制: 現状維持目的や、新たなカテゴリの問題 (国境を超えるデータの流れなど) に対応する目的で政府が介入する。
  4. 予期しない影響: 政策とテクノロジの関わり合いにより、一方または両方に偶発的に悪影響を及ぼす (ワッセナー アレンジメントがサイバーセキュリティの R&D に及ぼす影響など)。

AI も同様の道をたどる可能性があります。しかしながら、E コマースや共有経済とは異なり (逆にナノテクノロジや遺伝子工学と同様に)、AI は人々の不安をかき立てるため、規制による介入が早い段階で行われる可能性があります。例えば、特定の分野 (防衛や製薬など) で AI 利用が限定的にしか採用されないとしたら、AI の一般的適用よりも容易に管理/制御できると判断されるかもしれません。しかし、特に AI が革新的かつ創造的な飛躍を遂げる可能性を秘めていると考えた場合、本当にこのような限定利用が課されるでしょうか。まず無理でしょう。であれば、さらなる管理が必要になります。「未知の未知」である 4 つ目の段階 (予期しない影響) はともかくとして、3 つ目の段階 (規制) では、AI のように前例がなく変化しやすいものを法的に定義する必要があるため、必然的に問題が発生することはほぼ避けられないでしょう。したがって、AI と規制の関わり合いの基礎段階においても、イノベーター、実装者、および規制当局を巻き込んでの問題が数多く発生するだろうと思われます。

2 つ目の観点は、もっと AI 固有で、AI 能力の表現方法に関わるものです。これは、以下の 3 つの基礎段階に分類できると考えます。

  1. 識別: よりスマートなセンサーの作成
  2. 方向付け: 人間の意思決定の自動化
  3. 委任: 完全に独立した意思決定の実現

よりスマートなセンサーは、さまざまな形で (特に、モノのインターネット (IoT) の一部として) 登場することになるでしょう。また、それらが集約したデータは、プライバシーにさまざまな影響を及ぼすことになるでしょう。20 世紀の「旧式型レンズ」は、ナンバー プレートや人間の顔を識別できるシステムに既に接続されていますが、真のスマート センサーは、「冷蔵庫に何が入っているか」、「買い物リストに何が含まれているか」、「どこに行く予定か」、「誰に会う予定か」など、私たちの情報をほぼすべて把握することができます。よりスマートなセンサーのこの「集約化」「ネットワーク化」の側面こそが、政策決定者にとっての最初の AI 課題の中核になります。例えば、これらのセンサーは、役立つ情報を事前に提供するために、「人々が次に何を行う可能性があるか」などを予測できる機能を持ち始め、期せずして「パノプティコン (全展望監視システム)」を創り出し、暗躍する悪徳な犯罪者に悪用されてしまう事態が起こりかねません。

この課題を乗り越えることができれば、AI は、人間の意思決定をサポートし、強化することが可能になります。それでも人間による指示は欠かせないはずですが、やがて AI が生成した提案を「承認する/却下する」だけになるかもしれません。法的な観点から、犯意責任の範囲については、人間が今までどおり意思決定を行うため、完全に混乱状態に陥ることはないと思います。専門性の高い特定の分野 (薬学やエンジニアリングなど) における狭い範囲での応用は現実的かもしれません。しかし、何かを選択するにあたって、常に法律上必須の判読しにくい条件がついてくるとなると、日々使用するユーザーは混乱するかもしれません。政策決定側の対応としては、不法行為/責任法、AI プロバイダー/ユーザー向けの強制保険、または新しいリスク管理システムを使用することで、テクノロジの完全な実用性を損なうことなく、AI 支援意思決定のデメリットを回避できる可能性があります。

人間による指示なしで意思決定が可能になったら、それはもう推量の領域になります。でも、思い出してください。金融市場では高頻度取引 (HFT) システムは既に存在しており、人間が直接管理することなくアルゴリズムの指示に従って稼働しているではありませんか。それでも、瞬間的暴落イベントと HFT の間には何か関係があるのではないかとささやかれていることからすれば、政策決定者や規制当局がさまざまな問題に直面しそうなことは予想できます。「制限付き」の AI であっても、AI が特定の状況でどう動作するかを予測するのは難しいかもしれません。また、システムが万が一制御不能になった場合 (狭義では、法的責任を負う人々がシステムを制御できなくなった場合、一般的な意味では、誰もシステムを制御できなくなった場合)、前述した事前の法的責任の制御では、政策決定者にとって不十分なものに感じられるかもしれません。

AI が人間の直接的責任から離れていくのに伴い、既存の法的プロセスが妥当性を失いつつある中、これら 3 つの段階は、政策決定者とって重大な課題が立ちはだかることを暗示しています。しかしながら、法は調整可能ですし、解決策が見つかる可能性もあります。例えば、極端な話、「法人」の概念を拡張して「AI 人」の概念を追加することを検討してもいいかもしれません。もしも、法的責任を AI 自身に負わせて、実際の企業と同様に訴えることができたとしたら、我々の安心感は増すでしょうか。可能性はあります。

要約すると、AI 開発の真の課題は、チェスの名人を打ち負かす貴重な瞬間や、チューリング テストに合格する貴重な瞬間にだけ存在するものではないということです。むしろ、いまだに 19 世紀/20 世紀の方向を向いている規制/政策処理システムが柔軟に機能できないため、今後もさまざまな障害が生じるでしょう。私のような技術者が言うとおかしく聞こえるかもしれませんが、AI の革新的な潜在能力を考慮すると、この遅れはよいことなのかもしれません。