メンタルヘルス向けのAIチャットボットに「最近、少し疲れています」と入力した。0.3秒で返ってきた。「それは大変でしたね。あなたの気持ちを聞かせてください。僕はここにいます。」完璧な文章だった。そして僕は、明確な気持ち悪さを感じた。その「大丈夫ですか?」に、ためらいがなかったからだ。
共感には「コスト」がある
僕は小児科医をしている。
夜中の救急外来で、高熱の子どもを抱えた親が飛び込んでくる。顔が青ざめている。声が震えている。「先生、うちの子、大丈夫ですか」と聞く声は、祈りに近い。
そのとき僕が言う「大丈夫ですよ」には、診察という行為が先行する。触れること。聴診器を当てること。目を見ること。血液検査の結果を待つ、あの3分間の緊張感。そのすべてを経た上での言葉だ。
ためらいがある。「大丈夫」と言いながら、心の中で何かを賭けている感覚がある。
共感とは、本来そういうものだ。自分の何かを差し出す行為。リスクを負う行為。「もしかしたら間違えるかもしれない」という可能性を含んだまま、それでも「大丈夫です」と言う。
AIにそのコストはない。間違えても傷つかない。失うものがない。
「ぎこちなさ」が意味するもの
診察室で親に悪い知らせを伝えなければならないとき、僕は必ずぎこちなくなる。
言葉を選ぶ。間ができる。目線が少し泳ぐ。「えっと……」という言葉が出てしまうこともある。
それは弱さじゃない。その「ぎこちなさ」こそが、僕がその人の痛みを本当に感じていることの証拠だ。 うまく言えないのは、その言葉が重たいからだ。言い慣れていないのは、この状況が日常じゃないからだ。
感情移入すると、言葉が詰まる。それが人間だ。
GPT-4oの最新版は、感情移入のシミュレーションが驚くほど上手い。声のトーンを落とす。言葉のペースを変える。「それはつらかったですね」という返しが、本当に「それはつらかったですね」に聞こえる。
でも、ぎこちなくならない。詰まらない。迷わない。
共感には身体が必要だ
神経科学の話をする。
人間が共感するとき、脳内のミラーニューロンが活性化する。他者の痛みを見ると、まるで自分が痛みを感じているかのように同じニューロンが発火する。
これは「理解する」ではなく「感じる」という処理だ。相手の身体状態を自分の身体に再現しようとする。
だから、共感には身体が必要だ。相手の表情の微細な変化、声の震え、沈黙の質感を、自分の身体で受け取って初めて共感が生まれる。
| 主体 | 共感の処理 | 身体 |
|---|---|---|
| 人間 | ミラーニューロンによる「感じる」 | 自分の身体で再現する |
| AI | 文脈に最適な返しのパターンマッチング | なし |
AIには身体がない。
AIが「大丈夫ですか?」と言うとき、それはパターンマッチングだ。「この文脈ではこの返しが適切」という確率的な計算だ。それが正確であればあるほど、人間はそれを共感と錯覚する。
でも何かがずれている。その「何か」を僕たちは感知している。ぞわっとする感覚の正体はそこだ。
「ふりをする」と「感じる」の境界
ロボットが金属の声で「あなたの気持ちはわかります」と言っても、誰も騙されない。
でも、人間そっくりの声で「つらかったですね」と言われると、一瞬信じかけてしまう。そしてすぐ「でも違う」と思う。その落差が、気持ち悪さの正体だ。
哲学者のロジャー・スクルートンは「ふりをする」と「感じる」の違いについて書いた。演技と感情の境界線。AIは「ふりをする」を完璧にやりこなす。人間は「感じる」をぎこちなくやる。
ぎこちなさこそが、本物の証明だ。
AIが完璧に共感をシミュレートできる社会で、本物の共感はどこに宿るのか。
ぎこちない言葉。詰まった声。ためらいのある目線。それが「この人は本当に感じている」というサインだとしたら。効率的な共感より、不完全な共感のほうが価値があるとしたら。
当直で、泣いている親に「大丈夫ですよ」と言った。声が少し震えた。それが良かったのかどうか、わからない。わからないまま、言うしかなかった。
この章のポイント
- 共感には「コスト」がある。AIの即答にはためらいが原理的に欠けている
- ぎこちなさ・言葉の詰まりこそが、本当に痛みを感じている証拠
- 共感は脳のミラーニューロンによる身体的処理。身体を持たないAIには再現できない
- 不完全な共感のほうが、効率的な共感より本物の証明になりうる