[公開日] 2024年9月10日午前8時27分 (東部夏時間)
[著作者] David Danks, Mike Kirby
自動運転タクシーには乗客がいない。そのため、渋滞と 大気汚染 を減らすために駐車場に駐車する。呼び止められた後、タクシーは乗客を乗せるために出発するが、途中で横断歩道で歩行者に衝突するという悲劇に見舞われる。
渋滞と大気汚染を減らすための車の行動について、誰または何が賞賛に値するのか?そして、歩行者の負傷については誰または何が非難されるべきなのか?
1 つの可能性は、自動運転タクシーの設計者または開発者である。しかし、多くの場合、彼らはタクシーの正確な動作を予測できなかっただろう。実際、人々は通常、人工知能が新しい、または予期しないアイデアや計画を発見することを望んでいる。もし私達が システムが何をすべきかを正確に知っていれば、AI に煩わされる必要はない。
あるいは、タクシー自体を賞賛し、かつ非難すべきかもしれない。しかし、これらの種類の AI システムは本質的に決定論的 (deterministic) である。観察者がその動作を予測するのに苦労する場合でも、その動作はコードと受信センサー データによって決定される。選択の余地のない機械を道徳的に裁くのは奇妙に思える。
多くの現代哲学者 (1), (2), (3) によると、合理的なエージェントは、たとえその行動が神経科学であれコードであれ完全に事前に決定されていたとしても、その行動に対して 道徳的責任を負うことができる。しかし、ほとんどの哲学者は、道徳的なエージェントは、自分の価値観を形成する能力など、自動運転タクシーにはほぼ間違いなく欠けている特定の能力を持っている必要があることに同意している。AIシステムは、道徳的なエージェントと非道徳的なツールの間の居心地の悪い中間点に陥っている。
社会として、私たちは難問に直面している。AIの行動に対して道徳的に責任を負う人は誰もいない、あるいは何もないようだ。哲学者が責任ギャップ (responsibility gap) と呼ぶものだ。現代の道徳的責任の理論は、自律型または半自律型のAIシステムが関係する状況を理解するのに単に適切ではないようだ。
現在の理論が機能しないのであれば、おそらく私たちは過去に目を向けるべきだろう。今日驚くほど共感を呼んでいる何世紀も前の考えに。
神と人間
同様の疑問は、トマス・アクィナス (Thomas Aquinas) からドゥンス・スコトゥス (Duns Scotus) 、ウィリアム・オッカム (William of Ockham) まで、13世紀と14世紀のキリスト教神学者 (Christian theologians) を困惑させました。全知の神 (an omniscient God) が人間を設計し、おそらく人間が何をするかを知っていたとしたら、人間は自分の行動とその結果にどう責任を負えるのでしょうか?
中世の哲学者は、人の決定は意志の結果であり、知性の産物に基づいていると考えていました。大まかに言えば、彼らは人間の知性を、合理的な思考と学習を可能にする 一連の精神的能力 として理解していました。
知性 (intellect) は、人間の心や魂の合理的 (rational) で論理的 (logical) な部分です。2人の人が同一の状況に直面し、物事の対処方法について同じ「合理的な結論: rational conclusion」に達した場合、彼らは知性を使用しています。知性は、このようにコンピューターのコードに似ています。
しかし、知性は常に唯一の答えを提供するわけではありません。多くの場合、知性は可能性だけを提供し、意識的か無意識的かにかかわらず、意志がその中から選択 します。意志 (will) とは、可能性の中から自由に選択する (freely choosing) 行為です。
簡単な例として、雨の日に、知性はクローゼットから傘を 1 本取り出すように指示しますが、どの傘を取るかは指示しません。意志は青い傘ではなく赤い傘を選びます。
これらの 中世の思想家 (medieval thinkers) にとって、道徳的責任 (moral responsibility) は意志と知性がそれぞれ何に貢献するかによって決まりました。知性が可能な行動は 1 つしかないと判断した場合、私はそれ以外の行動はとれないので、道徳的責任はありません。私の知性は神から来ているので、神が道徳的責任を負っていると結論付けることもできますが、中世の神学者は責任を神に帰することについて非常に慎重でした。
一方、知性が私の行動にまったく制約を課さない場合は、意志がすべての作業を行っているので、私は完全に道徳的責任を負います。もちろん、ほとんどの行動には知性と意志の両方の貢献が伴います。通常はどちらか一方ではありません。
さらに、親や教師から裁判官や君主に至るまで、特に中世の哲学者の時代には、他の人々が私たちを束縛することが多く、道徳的責任を帰属させることがさらに複雑になります。
人間と AI
明らかに、AI 開発者とその創造物との関係は、神と人間の関係とまったく同じではありません。しかし、哲学とコンピューティングの教授として、私たちは興味深い類似点を見出しています。これらの古い考え方は、AI システムとその設計者が道徳的責任をどのように共有するかについて、今日私たちが考えるのに役立つかもしれません。
AI 開発者は全知の神ではありませんが、学習方法と応答機能を 選択して実装する ことで、AI システムの「知性」を提供します。設計者の観点から見ると、この「知性」は AI の動作を制約しますが、その動作を完全に決定することはほとんどありません。
現代の AI システムのほとんどは、データから学習するように設計されており、環境に動的に応答できます。したがって、AI は「知性」の制約内で、どのように応答するかを選択する「意志: will」を持っているように見えます。
ユーザー、管理者、規制当局、その他の関係者は、AI システムをさらに制約することができます。これは、中世の哲学者の枠組みで君主などの人間の権威が人々を制約するのと似ています。
誰が責任を負うのか?
これらの千年も昔の考えは、AI システムに関わる道徳的問題の構造に驚くほどよく当てはまります。では、冒頭の質問に戻りましょう:自動運転タクシーの利点と害に対して、誰が、あるいは何が責任を負うのでしょうか?
詳細は重要です。たとえば、タクシー開発者が横断歩道の周りでタクシーがどのように行動すべきかを明示的に記述した場合、その行動は完全にその「知性」によるものとなり、開発者が責任を負うことになります。
ただし、横断歩道が通常とは異なる方法で塗装されていたり、タクシーが環境のデータから開発者が考えていたものとは異なることを学習したりした場合など、タクシーが明示的にプログラムされていない状況に遭遇したとします。このような場合、タクシーは予期しないオプションを選択したため、タクシーの行動は主にその「意志」によるものとなり、タクシーが責任を負うことになります。
タクシーに道徳的責任があるとしたら、どうなるでしょうか? タクシー会社に責任があるのでしょうか? タクシーのプログラムは更新されるべきでしょうか? 私たち二人でさえ、完全な答えについては意見が一致していません。しかし、道徳的責任をよりよく理解することが重要な第一歩であると考えています。
中世の考えは中世の物に関するものだけではありません。これらの神学者 (theologians) は、現代の倫理学者 (ethicists) が AI システムの現在の課題をよりよく理解するのを助けることができます。ただし、私たちはまだ表面をなぞっただけです。
この記事は、クリエイティブコモンズライセンス(CCL)の下で The Conversation と各著作者からの承認に基づき再発行されています。日本語訳は archive4ones(Koichi Ikenoue) の翻訳責任で行われています。オリジナルの記事を読めます。original article.