2031年、大学病院の集中治療室。AIシステムが全てのバイタルを監視し、異常を検知すれば即座にアラートを出す。夜勤の看護師が担当医に連絡してくる。「患者さんがなんか変な気がして」。バイタルは全て正常範囲。AIはアラートを出していない。担当医は来た。診た。翌朝、患者は急変した。あの時に処置しておけば、間に合ったかもしれない。
「なんかこの子、いつもと違う気がする」
ある朝の回診で、「なんかこの子、いつもと違う気がする」という感覚が、自分の中に立ち上がることがある。
検査値は正常。バイタルも問題ない。客観的な根拠はない。
でも、その感覚を無視したことを後悔したことがある。逆に、その感覚を信じて動いたら、早期発見につながったこともある。
「なんとなく」を、どうチームに伝えるか
「なんとなく嫌な予感がする」。これをどうチームに伝えるか。
「なんとなく」は、根拠として弱い。エビデンスではない。カンファレンスで「なんとなく気になります」と言っても、議論が進まない。
でも、捨てるには惜しい。
この感覚の中に、言語化される前の情報が詰まっているから。
「根拠がない」のではなく、「根拠が言語化されていない」
熟練した医師の「直感」が、実は無意識の情報処理だということは、認知科学的に説明できる。
長年の経験の中で積み重ねたパターン認識が、意識に上がる前に答えを出している。
「根拠がない」のではなく、「根拠が言語化されていない」だけ、という場合が多い。
でも、AIはここで詰まる。
AIは言語化された情報しか扱えない。「なんとなく」をインプットにはできない。
「気がする」を正直に伝える技術
どうするか。
一つのやり方は、「なんとなく」を正直にそのまま伝える技術を磨くことだ。
「根拠はないんですが、この患者さんのことが気になっています」
この一言を、恥ずかしがらずに言える文化があるかどうか。
「根拠のないことを言うな」という文化では、この情報は消える。当事者が黙る。
尊敬している先輩医師の話
僕が尊敬している先輩医師がいる。その先生は、よく「腸が動いてない感じがする」とか「この子の顔色がいつもと違う気がする」という言い方をする。
数値では説明できないことを、「気がする」という形で残す。
そして、その「気がする」は高確率で正しい。
なぜ正しいのかを言語化してもらうと、後から必ず理由が出てくる。「呼吸のリズムがわずかに変だった」「目の焦点が合っていなかった」という、計測されていなかった観察が。
「AIがアラートを出していないから大丈夫」の罠
AIの時代に、この能力をどう育てるか。
AIが全てを数値化し、可視化し、言語化しようとする。そのプロセスに乗っかっていると、「言語化されていない感覚」を信頼する能力が、鈍くなる。
「AIがアラートを出していないから大丈夫」という判断に依存し始めると、「なんか変な気がする」という感覚を、上書きするようになる。
身体感覚の共有が、伝達の基盤になる
「なんとなく嫌な予感」をチームで共有するためには、言葉だけでは足りない。
同じ現場に立っていた経験。同じ患者を見てきた時間。その積み重ねがあって初めて、「先生が気になるなら気になるんだと思います」という信頼関係が生まれる。
経験の共有が、言語化できないものを伝える基盤になる。
AIはデータから学ぶ。人間は、現場から学ぶ。現場の空気から、匂いから、あの時の焦りの感覚から。
その違いは、思っているより大きい。
残るのは、言語化できないものだけ
「言語化できないものに価値がある」という命題は、AIの時代にこそ重くなっていく。
なぜなら、言語化できるものは全部AIに渡せるから。
残るのは、言語化できないものだけ。
それを育てることが、これからの医療者に必要なことだ。言葉にならない感覚を、捨てないでいること。
それが、AIが永遠に手に入れられないものの、核心だ。
この章のポイント
- 「なんとなく変な気がする」の中には、言語化される前のパターン認識が詰まっている
- AIは言語化された情報しか扱えない。「なんとなく」をインプットにはできない
- 「根拠のないことを言うな」という文化では、言語化されていない情報が消えていく
- AIがすべてを数値化する時代、「言語化できないものに価値がある」という命題はむしろ重くなる
- 言語化できるものは全部AIに渡せる。残るのは、言語化できないものだけ