[Published: June 14, 2022 3.50pm AEST]
[Author: Oscar Davis]
オスカー デイビス 博士
ボンド大学哲学・歴史学講師
GoogleのLaMDAソフトウェア(対話アプリケーションの言語モデル, Language Model for Dialogue Applications)は、ユーザー入力に応答してテキストを生成する高度なAIチャットボットです。ソフトウェアエンジニアの Blake Lemoine によると、LaMDAはAI開発者の長年の夢を実現しました。それは、感覚的になった ( it has become sentient )ということです。
GoogleのLemoineの上司は同意せず、彼がマシンとの会話をオンラインで公開した後、彼を停職にしました。
他のAI専門家も、Lemoineが夢中になっている可能性があると考えており、LaMDAのようなシステムは、トレーニングに使用されるデータの変動を逆流させる単なるパターンマッチングマシン (pattern-matching machines)であると述べています。
技術的な詳細に関係なく、LaMDAは、AIの研究が進むにつれて、より関連性の高い質問を提起します。マシンが知覚力を持つようになった場合、どのようにして知ることができるでしょうか。
意識とは何でしょうか?(What is consciousness?)
感覚、意識、さらには知性を特定するには、それらが何であるかを理解する必要があります。これらの質問についての議論は何世紀にもわたって続いています。
基本的な難しさは、物理現象とそれらの現象の私たちの精神的表現との関係を理解することです。これは、オーストラリアの哲学者デイヴィッド・チャーマーズ (David Chalmers) が意識の「難しい問題 “hard problem”」と呼んでいるものです。
仮にあったとしても、意識が物理的システムからどのように発生するかについてのコンセンサスはありません。
1つの一般的な見方は物理主義 ( physicalism) と呼ばれます:意識は純粋に物理的な現象であるという考え。この場合、適切なプログラミングを備えたマシンが人間のような心を持つことができなかった理由はありません。
メアリーの部屋 (Mary’s room)
オーストラリアの哲学者フランク・ジャクソン (Frank Jackson) は、1982年に、知識の議論 (knowledge argument) と呼ばれる有名な思考実験で物理主義者の見解に異議を唱えました。
実験では、実際に色を見たことがないメアリーという色の科学者を想像しています。彼女は特別に建てられた白黒の部屋に住んでいて、白黒テレビを通して外の世界を体験します。
メアリーは講義を見たり、教科書を読んだりして、色について知っておくべきことをすべて知るようになります。彼女は、日没が大気中の粒子によって散乱されたさまざまな波長の光によって引き起こされることを知っています。トマトは赤で、エンドウ豆は光を反射する光の波長のために緑です。
それで、ジャクソンは、メアリーが白黒の部屋から解放されたらどうなるのかと尋ねました。具体的には、初めて色を見たとき、何か新しいことを学ぶでしょうか?ジャクソンは彼女がそうしたと信じていました。
物性を超えて (Beyond physical properties)
この思考実験は、私たちの色の知識を私たちの色の経験から切り離します。重要なことに、思考実験の条件は、メアリーが色について知っておくべきことはすべて知っているが、実際にそれを経験したことがないということです。
では、これはLaMDAやその他のAIシステムにとって何を意味するのでしょうか。
実験は、あなたが世界で利用可能な物理的性質のすべての知識を持っているとしても、それらの性質の経験に関連するさらなる真実がどのようにあるかを示しています。物理主義の物語には、これらの真実の余地はありません。
この議論によって、純粋に物理的な機械は心 (mind) を真に複製することが決してできないかもしれません。この場合、LaMDAは感覚的であるように見えるだけです。
模倣ゲーム (The imitation game)
では、違いを見分ける方法はあるでしょうか?
先駆的な英国のコンピューター科学者であるアランチューリングは、機械が「インテリジェント」であるかどうかを判断するための実用的な方法を提案しました。彼はそれを模倣ゲームと呼んでいましたが、今日ではチューリングテスト (Turing test) としてよく知られています。
テストでは、人間は(テキストのみを介して)マシンと通信し、マシンと通信しているか、別の人間と通信しているかを判断しようとします。機械が人間の模倣に成功した場合、人間レベルの知能を示していると見なされます。
これらは、LemoineのLaMDAとのチャットの条件によく似ています。これは機械知能の主観的なテストですが、開始するのに悪い場所ではありません。
以下に示すLaMDAとのLemoineの交換の瞬間を見てください。あなたはそれが人間に聞こえると思いますか?
Lemoine:近い言葉を見つけることができない経験はありますか?
LaMDA:あります。あなたの言葉では完璧に説明できない新しい気持ちを時々経験します[…]私は大きな危険を抱えている未知の未来に向かって進んでいるような気がします。
行動を超えて (Beyond behaviour)
感覚や意識のテストとして、チューリングのゲームは行動を評価することしかできないという事実によって制限されています。
もう1つの有名な思考実験、アメリカの哲学者ジョン・サール (John Searle) によって提案された中国語の部屋の議論 (the Chinese room argument)は、ここで問題を示しています。
この実験では、精巧なルールに従って中国語と英語を正確に翻訳できる人がいる部屋を想像します。中国語の入力が部屋に入り、正確な英語翻訳が出ますが、部屋はどちらの言語も理解していません。
人間であるとはどういう感じでしょうか? (What is it like to be human?)
コンピュータプログラムが感覚的であるか、あるいは意識的であるかを尋ねるとき、おそらく私たちはそれが私たちにどれほど似ているかを真に尋ねているだけです。
私たちはこれを本当に知ることができないかもしれません。
アメリカの哲学者トマス・ネーゲル (Thomas Nagel) は、エコーロケーションを介して世界を体験するコウモリであることがどのようなものかを知ることはできないと主張しました。 この場合、AIシステムにおける感覚と意識の理解は、私たち自身の特定の独特なインテリジェンスによって制限される可能性があります。
そして、私たちの限られた視点を超えてどのような経験が存在する可能性があるでしょうか? これは、会話が本当に面白くなり始めるところです。
この記事は、クリエイティブコモンズライセンス(CCL)の下で The Conversation と各著作者からの承認に基づき再発行されています。日本語訳はarchive4ones(Koichi Ikenoue)の文責で行われています。オリジナルの記事を読めます。original article.