メインコンテンツへスキップ
6 / 32|8分で読めます

AIの「大丈夫ですか?」はなぜ気持ち悪いのか

メンタルヘルス向けのAIチャットボットに「最近、少し疲れています」と入力した。0.3秒で返ってきた。「それは大変でしたね。あなたの気持ちを聞かせてください。僕はここにいます。」完璧な文章だった。そして僕は、明確な気持ち悪さを感じた。その「大丈夫ですか?」に、ためらいがなかったからだ。

共感には「コスト」がある

僕は小児科医をしている。

夜中の救急外来で、高熱の子どもを抱えた親が飛び込んでくる。顔が青ざめている。声が震えている。「先生、うちの子、大丈夫ですか」と聞く声は、祈りに近い。

そのとき僕が言う「大丈夫ですよ」には、診察という行為が先行する。触れること。聴診器を当てること。目を見ること。血液検査の結果を待つ、あの3分間の緊張感。そのすべてを経た上での言葉だ。

ためらいがある。「大丈夫」と言いながら、心の中で何かを賭けている感覚がある。

共感とは、本来そういうものだ。自分の何かを差し出す行為。リスクを負う行為。「もしかしたら間違えるかもしれない」という可能性を含んだまま、それでも「大丈夫です」と言う。

AIにそのコストはない。間違えても傷つかない。失うものがない。

「ぎこちなさ」が意味するもの

診察室で親に悪い知らせを伝えなければならないとき、僕は必ずぎこちなくなる。

言葉を選ぶ。間ができる。目線が少し泳ぐ。「えっと……」という言葉が出てしまうこともある。

それは弱さじゃない。その「ぎこちなさ」こそが、僕がその人の痛みを本当に感じていることの証拠だ。 うまく言えないのは、その言葉が重たいからだ。言い慣れていないのは、この状況が日常じゃないからだ。

感情移入すると、言葉が詰まる。それが人間だ。

GPT-4oの最新版は、感情移入のシミュレーションが驚くほど上手い。声のトーンを落とす。言葉のペースを変える。「それはつらかったですね」という返しが、本当に「それはつらかったですね」に聞こえる。

でも、ぎこちなくならない。詰まらない。迷わない。

共感には身体が必要だ

神経科学の話をする。

人間が共感するとき、脳内のミラーニューロンが活性化する。他者の痛みを見ると、まるで自分が痛みを感じているかのように同じニューロンが発火する。

これは「理解する」ではなく「感じる」という処理だ。相手の身体状態を自分の身体に再現しようとする。

だから、共感には身体が必要だ。相手の表情の微細な変化、声の震え、沈黙の質感を、自分の身体で受け取って初めて共感が生まれる。

主体共感の処理身体
人間ミラーニューロンによる「感じる」自分の身体で再現する
AI文脈に最適な返しのパターンマッチングなし

AIには身体がない。

AIが「大丈夫ですか?」と言うとき、それはパターンマッチングだ。「この文脈ではこの返しが適切」という確率的な計算だ。それが正確であればあるほど、人間はそれを共感と錯覚する。

でも何かがずれている。その「何か」を僕たちは感知している。ぞわっとする感覚の正体はそこだ。

「ふりをする」と「感じる」の境界

ロボットが金属の声で「あなたの気持ちはわかります」と言っても、誰も騙されない。

でも、人間そっくりの声で「つらかったですね」と言われると、一瞬信じかけてしまう。そしてすぐ「でも違う」と思う。その落差が、気持ち悪さの正体だ。

哲学者のロジャー・スクルートンは「ふりをする」と「感じる」の違いについて書いた。演技と感情の境界線。AIは「ふりをする」を完璧にやりこなす。人間は「感じる」をぎこちなくやる。

ぎこちなさこそが、本物の証明だ。

AIが完璧に共感をシミュレートできる社会で、本物の共感はどこに宿るのか。

ぎこちない言葉。詰まった声。ためらいのある目線。それが「この人は本当に感じている」というサインだとしたら。効率的な共感より、不完全な共感のほうが価値があるとしたら。

当直で、泣いている親に「大丈夫ですよ」と言った。声が少し震えた。それが良かったのかどうか、わからない。わからないまま、言うしかなかった。

この章のポイント

  • 共感には「コスト」がある。AIの即答にはためらいが原理的に欠けている
  • ぎこちなさ・言葉の詰まりこそが、本当に痛みを感じている証拠
  • 共感は脳のミラーニューロンによる身体的処理。身体を持たないAIには再現できない
  • 不完全な共感のほうが、効率的な共感より本物の証明になりうる