2030年、ある病院で医療事故が起きる。原因は「AIの誤作動」ではない。AIは完璧に指示通りに動いた。問題は、指示を出した医師が72時間起きていたことだ。 「AIを信じすぎた」と報告書には書かれる。でも本当の問題は別のところにある。
「すみません」が支えていたもの
夜間当直が続く週がある。
当直明けの朝、電子カルテに入力しながら、自分でも気づかないうちに誤字を打っている。「mg」と「mL」を打ち間違える。小数点の位置がずれる。処方箋を確認したつもりで確認していない。
そういうとき、隣にいる看護師が「先生、これ合ってますか」と言ってくれる。僕は「あ、すみません」と言って直す。
この「すみません」が、どれだけ大切か。
正確な実行は、誤った指示の確実な実現になる
AIは正確に実行する。
これが長所だと思われている。だが指示する人間が睡眠不足の状態では、「正確な実行」は「誤った指示の確実な実現」になる。
ChatGPTに文章を書かせるとき、プロンプトの質が出力の質を決める。誰もがそれを知っている。ではプロンプトを書く人間の脳が半分眠っている状態なら、何が起きるか。
「そんなミスはすぐわかる」と思うだろう。違う。睡眠不足の脳の恐ろしさは、自覚がないことだ。
自覚なき劣化
Van Dongenらの研究では、6時間睡眠を14日間続けた被験者のパフォーマンスが、24時間完全断眠と同等まで低下した。そして被験者たちは「自分は問題なく機能している」と申告し続けた。
眠れていない脳は、自分が眠れていないことに気づけない。
僕は夜間当直のある職業だから、これを身体で知っている。当直明けに「今日の自分は普通じゃない」と意識できるのは、普段の自分と比較できるからだ。
では、ずっとその状態が続いたら。睡眠4時間が当たり前になったら。比較基準が消える。
AIが「眠れ」と言わないことの罠
AIを活用する環境は、皮肉なことに「睡眠を削っても仕事が回る」という錯覚を生みやすい。
夜中の2時にClaude相手に仕事をする。AIは疲れない。AIは「今日はここまでにしましょう」と言わない。ユーザーがどれだけ眠そうなプロンプトを送っても、丁寧に答える。
そして翌朝、寝不足の脳が「昨日の作業は完璧だった」と思いながら、その作業をベースに次の指示を出す。
ミスが積み重なる。でも気づかない。
当直明けに書いたアウトライン
僕自身の話をする。
当直明けにAIを使って論文のアウトラインを作ったことがある。出来上がりを見て「よくできた」と思った。翌日、普通の状態で読み直したら、論旨が破綻していた。自分が何を言いたいのか、わからなかった。
AIが書いたのではない。僕が指示したのだ。寝不足の脳で、AIを動かしたのだ。
AIは正確に、僕の混乱した思考を文章にしていた。
チェック体制の薄まり
かつて、疲弊した医師のミスを防ぐのは「人間のチェック体制」だった。指差し確認。ダブルチェック。「先生、これ合ってますか」という声。
AIは、このチェック体制を薄くしていく。なぜなら、AIは信頼されるからだ。「AIが出力したなら正確だろう」という思い込みが、人間のチェックを省略させる。
指示した人間の状態をチェックする機能は、今のAIにはない。
| AIが見ているもの | AIが見ていないもの |
|---|---|
| プロンプトの内容 | 指示者が何時間起きているか |
| 文脈と過去の履歴 | ストレスの量 |
| タスクの定義 | 判断力が正常かどうか |
何時間起きているか。どれだけストレスを抱えているか。判断力が正常かどうか。そういうことをAIは問わない。プロンプトが来れば処理する。
増幅器が高性能になるほど
「道具は使う人間の能力を反映する」という原則は、AIになっても変わらない。
むしろ、AIは能力を「増幅」するから、問題がより大きくなる。良い判断力を増幅すれば良い結果が出る。劣化した判断力を増幅すれば、劣化した結果が素早く確実に広がる。
身体の状態を整えることが、AI時代の「最重要スキル」だ。
でも、AIは眠れと言わない。
その警告を発する機能は、まだ人間の身体にしかない。
この章のポイント
- AIの「正確な実行」は、寝不足の指示者にとっては「誤った指示の確実な実現」になる
- 睡眠不足の脳の最大の恐ろしさは、自覚がないこと
- AIは指示者の身体状態をチェックしない。「眠れ」と言ってくれない
- AIは能力の増幅器。元の信号が劣化すれば、劣化が素早く確実に広がる