日本の精神科外来では、初診まで数ヶ月待ちのクリニックが珍しくない。一方、「Woebot」「Youper」「Wysa」などAIカウンセリングアプリのユーザーは数百万人規模に達している。料金は月1000円以下。「感情的なサポートを求める人間の数」と「それを提供できる専門家の数」の間に、今、巨大な穴が開いている。
穴を埋めようとするAI
AIはその穴を埋めようとしている。問題は、穴の深さが増し続けていることだ。
孤独は今、世界的な公衆衛生の危機として認識されている。
2023年、アメリカの公衆衛生局長官Vivek Murthyは「孤独は喫煙と同程度の健康リスクをもたらす」という宣言を出した。日本でも孤独・孤立対策担当大臣が設置された(2021年)。
核家族化。地域コミュニティの解体。長時間労働。スマートフォンによる表面的な繋がりの増加と深い繋がりの減少。
これらは数十年かけて積み上がった構造問題だ。カウンセラーの数を増やしても、根本は解決しない。
AIカウンセリングが台頭したのは、テクノロジーが優れているからではない。人間同士の繋がりが先に壊れたからだ。
解決した感覚と、支えられた感覚
夜間外来で、子どもの夜泣きに消耗している親が「夜中の2時にAIに相談した」と言うのを聞く。「なんでも聞いてくれる。責めない。すぐ答えてくれる」と言う。
それは本当だ。AIは疲れない。感情的にならない。「こんな時間に電話して申し訳ない」という罪悪感を相手に与えない。
だが、AIとの会話が終わった後、その親は何かを得ているのか。
「解決した感覚」はある。しかし、「誰かに支えられた感覚」は薄い。翌朝もまた一人で子育てが始まる。
カウンセリングの本来の意味は、「孤独でないことの実感」だ。「ここに自分の話を聞いてくれる人間がいる」という体験そのものが治療的に作用する。
AIはその「実感」を代替できない。AIとの関係には非対称性がないからだ。カウンセラーも人間として傷つく可能性がある。その可能性があるから、「聞いてもらった」という重みが生まれる。
効果がある領域、危険な領域
AIカウンセリングには、実際に効果がある領域がある。認知行動療法の基本的な技法の伝達。自動思考のトラッキング。日常的なストレスマネジメント。これらは、AIが得意とする構造化されたプロセスだ。
軽度から中等度の不安・抑うつに対して、一定の効果を示す研究も出ている。
でも、深刻なケースでの問題が複数報告されている。
| 領域 | AIの貢献 |
|---|---|
| 軽度〜中等度の不安・抑うつ | 構造化された技法の伝達には効果あり |
| 自殺念慮 | 適切な緊急介入ができなかった事例 |
| 歪んだ認知 | ユーザーの認知を強化してしまうケース |
| 治療接続 | 「AIで十分」と思い込み専門治療を受けない |
穴を埋めているように見えて、実は穴の形を変えているだけだ。
テクノロジーの本質的なパラドックス
これが技術の本質的なパラドックスだ。
スマートフォンが孤独を深めた。そのスマートフォンでAIカウンセリングアプリを使う。
SNSが自己肯定感を傷つけた。そのSNSに「AIがあなたを肯定してくれる」広告が流れる。
オンラインワークで人間関係が希薄になった。その孤独を埋めるためにAIと話す。
テクノロジーは問題を解決しながら、同時に次の問題を生成する。それが止まらない。
僕が気になるのは、その速度だ。問題が生成される速度と、社会がそれに適応する速度の差が、どんどん開いている。
表面上は解決、深層では悪化
セラピストが廃業するとしたら、その原因はAIではなく「孤独が増え続ける社会」だ。
需要が増えすぎて、人間だけでは追いつかない。だからAIが入る。でも、AIが入ることで「孤独でも大丈夫」という環境が作られ、孤独の問題が社会から見えにくくなる。
表面上は解決している。深層では悪化している。
一つだけ、事実を置いておく。
WHOの推計では、2030年までに世界の精神疾患関連コストは年間6兆ドルに達する。その大半が、孤独に起因する。
テクノロジーがその数字を減らすのか、見えにくくするだけなのか。答えはまだ出ていない。
この章のポイント
- AIカウンセリングが台頭したのは技術が優れたからでなく、人間の繋がりが先に壊れたから
- 「解決した感覚」と「支えられた感覚」は別。後者には非対称性のある人間関係が必要
- 構造化技法の伝達には効果あり。自殺念慮や歪んだ認知への対応では深刻な問題が報告されている
- テクノロジーは問題を解決しながら次の問題を生成する。表面上は解決、深層では悪化