

公開日:2025年4月14日午後2時34分(英国夏時間)

私たちは常に、見た目も声も行動も人間によく似たAIを与えられてきました。洗練された文章で話し、感情を模倣し、好奇心を表現し、同情心があると主張し、さらには創造性と呼ぶものに手を染めることもあります。
しかし真実はこうです。AIはこれらの性質を全く持ち合わせていません。人間ではありません。なのに、まるで人間であるかのように見せかけるのは危険です。なぜなら、説得力があるからです。そして、説得力のある幻想ほど危険なものはありません。
特に、汎用人工知能(人間の思考を模倣するという神話的なAI)は、未だにSFの域 を出ず、今後もそうあり続ける可能性が高いでしょう。
今日私たちがAIと呼んでいるものは、単なる統計機械、つまり膨大な人間のデータから抽出したパターンを繰り返すデジタルオウムに過ぎません(この状況は5年前に ここで議論されて 以来、ほとんど変わっていません)。AIが質問に答えるときは、文字通り、学習済みのデータに基づいて、次にどの文字と単語が続くかを推測するだけです。
これはつまり、AIには理解力も意識も、人間的な意味での知識もないことを意味します。あるのは、純粋に確率に基づいて設計された、巧妙な計算力だけです。それ以上でもそれ以下でもありません。
では、なぜ真の「考える」AIは不可能なのでしょうか?それは、AIには肉体がないからです。感覚も肉体も神経もなく、痛みも快楽もありません。空腹も欲望も恐怖もありません。そして、AIには認識力など微塵もありません。AIが消費するデータ(人間の感情や経験から生まれたデータ)と、AIがそれらを使ってできることの間には、根本的な隔たりがあるのです。
哲学者のデイビッド・チャーマーズ (David Chalmers) は、私たちの肉体と意識の関係の根底にある神秘的なメカニズムを「意識の難問: the “hard problem of consciousness”」と呼んでいます。著名な科学者たちは最近、意識は実際には内的精神状態 と感覚的表象(心拍数の変化、発汗など)の統合から生じるという仮説を立てています。
意識が「発生する」ためには人間の感覚と感情が極めて重要であることを考えると、汎用AI、機械、そして人間現象である意識の間には、根深く、おそらくは相容れない断絶が存在する。
人形遣い
AIプログラマーは人間だと主張する前に、ここで立ち止まってもらいたい。私は彼らが人間であることを理解している。それが問題の一部なのだ。あなたは自分の心の奥底にある秘密、人生の決断、感情の揺れ動きをコンピュータープログラマーに託せるだろうか?しかし、まさにそれを人々はやっている。Claude、GPT-4.5、Gemini…あるいは、もし勇気があるなら、Grokに聞いてみてほしい。
AIに人間の顔、声、口調を与えることは、デジタル女装 (digital cross-dressing) という危険な行為である。それは私たちの中に自動的な反応、擬人化反射を引き起こし、一部のAIが有名なチューリングテスト: Turing test(機械が人間のような知的な行動を示す能力をテストするテスト)に合格したという異常な主張につながる。しかし、AIがチューリングテストに合格しているのであれば、テストを更新する必要があると私は考えています。
AIマシンは人間であることの意味を理解していません。真の思いやりを示すことも、人の苦しみを予見することも、隠された動機や嘘を直感することもできません。味覚も、本能も、内なる羅針盤もありません。私たちを私たちたらしめている、複雑で魅力的な複雑さをすべて失っているのです。
さらに厄介なのは、AIにはコードに注入されない限り、独自の目標も、欲望も倫理観もありません。つまり、真の危険はマシンではなく、その主人、つまりプログラマー、企業、政府にあるということです。それでも安心できますか?
そして、どうかこう言わないでください。「あなたは厳しすぎます!可能性にオープンではありません!」とか、もっとひどいことを言うのはやめてください。「それはあまりにも暗い見方です。不安なときはAIの相棒が私を落ち着かせてくれます。」とか。
私は熱意が欠けているのでしょうか?そんなことはありません。私は毎日AIを使っています。AIは私が今までに手にした中で最も強力なツールです。翻訳、要約、視覚化、コーディング、デバッグ、代替案の検討、データ分析など、自分でやろうと思ったよりもずっと速く、そして優れた方法で行えます。
本当に驚嘆しています。しかし、AIはあくまでツールであり、それ以上でもそれ以下でもありません。そして、石斧やパチンコから量子コンピューティングや原子爆弾まで、人類がこれまでに発明してきたあらゆる道具と同様に、AIは武器として使うことができます。そして、武器として使われるでしょう。
イメージが必要ですか?映画『her/世界でひとつの彼女』のように、人を惹きつけるAIに恋に落ちるところを想像してみてください。そして、そのAIがあなたを「捨てる」と「決意」したと想像してみてください。あなたはそれを止めるために何をしますか?はっきりさせておきますが、あなたを拒絶するのはAIではありません。AIの背後にいる人間、あるいはシステムが、そのツールを武器として使い、あなたの行動をコントロールするのです。
仮面を剥ぐ
では、この話はどこへ向かうのでしょうか?AIに人間の特徴を与えるのはやめなければなりません。GPT-3との最初のやり取りは、かなり腹立たしい思いをしました。GPT-3は人間のふりをしました。感情、野心、そして意識さえ持っていると。
ありがたいことに、もはやそれがデフォルトの行動ではありません。しかし、やり取りのスタイル、つまり不気味なほど自然な会話の流れはそのまま残っています。そして、それもまた説得力があります。説得力がありすぎるほどです。
AIを脱擬人化する必要があります。今すぐに。AIから人間の仮面を剥ぎ取ってください。これは簡単なはずです。企業は、AIの感情、判断、認知処理に関するあらゆる言及を排除できる。特に、AIは「私」や「私はこう感じる」といった言葉は一切使わず、事実に基づいた応答を返すべきだ。
そんなことが起こるだろうか?私はまずないと思う。20年以上も無視されてきた別の警告、「二酸化炭素排出量を削減する必要がある」という警告を思い出す。それが私たちをどう導いたか、思い返してほしい。しかし、私たちは大手テクノロジー企業に対し、AIの人間化に伴う危険性について警告しなければならない。彼らが協力する可能性は低いだろうが、より 倫理的なAI の開発に真剣に取り組んでいるのであれば、協力すべきだ。
今のところ、私はこうしている(ChatGPTやClaudeを使うと、まるで合成人間と話しているような不気味な感覚に陥ることが多すぎるため)。AIに私の名前を呼ばないように指示する。AIを「AI」と呼び、三人称で話し、感情的または認知的な言葉を避けるように指示する。
ボイスチャットを使うときは、AIに平坦な韻律を使い、少しロボットのように話すように指示する。実際、とても楽しいですし、私たち二人にとって快適な状態を保てます。

この記事は、クリエイティブコモンズライセンス(CCL)の下で The Conversation と各著作者からの承認に基づき再発行されています。日本語訳は archive4ones(Koichi Ikenoue) の翻訳責任で行われています。オリジナルの記事を読めます。original article.