メインコンテンツへスキップ
13 / 32|8分で読めます

寝不足の脳でAIに指示を出す恐ろしさ

2030年、ある病院で医療事故が起きる。原因は「AIの誤作動」ではない。AIは完璧に指示通りに動いた。問題は、指示を出した医師が72時間起きていたことだ。 「AIを信じすぎた」と報告書には書かれる。でも本当の問題は別のところにある。

「すみません」が支えていたもの

夜間当直が続く週がある。

当直明けの朝、電子カルテに入力しながら、自分でも気づかないうちに誤字を打っている。「mg」と「mL」を打ち間違える。小数点の位置がずれる。処方箋を確認したつもりで確認していない。

そういうとき、隣にいる看護師が「先生、これ合ってますか」と言ってくれる。僕は「あ、すみません」と言って直す。

この「すみません」が、どれだけ大切か。

正確な実行は、誤った指示の確実な実現になる

AIは正確に実行する。

これが長所だと思われている。だが指示する人間が睡眠不足の状態では、「正確な実行」は「誤った指示の確実な実現」になる。

ChatGPTに文章を書かせるとき、プロンプトの質が出力の質を決める。誰もがそれを知っている。ではプロンプトを書く人間の脳が半分眠っている状態なら、何が起きるか。

「そんなミスはすぐわかる」と思うだろう。違う。睡眠不足の脳の恐ろしさは、自覚がないことだ。

自覚なき劣化

Van Dongenらの研究では、6時間睡眠を14日間続けた被験者のパフォーマンスが、24時間完全断眠と同等まで低下した。そして被験者たちは「自分は問題なく機能している」と申告し続けた。

眠れていない脳は、自分が眠れていないことに気づけない。

僕は夜間当直のある職業だから、これを身体で知っている。当直明けに「今日の自分は普通じゃない」と意識できるのは、普段の自分と比較できるからだ。

では、ずっとその状態が続いたら。睡眠4時間が当たり前になったら。比較基準が消える。

AIが「眠れ」と言わないことの罠

AIを活用する環境は、皮肉なことに「睡眠を削っても仕事が回る」という錯覚を生みやすい。

夜中の2時にClaude相手に仕事をする。AIは疲れない。AIは「今日はここまでにしましょう」と言わない。ユーザーがどれだけ眠そうなプロンプトを送っても、丁寧に答える。

そして翌朝、寝不足の脳が「昨日の作業は完璧だった」と思いながら、その作業をベースに次の指示を出す。

ミスが積み重なる。でも気づかない。

当直明けに書いたアウトライン

僕自身の話をする。

当直明けにAIを使って論文のアウトラインを作ったことがある。出来上がりを見て「よくできた」と思った。翌日、普通の状態で読み直したら、論旨が破綻していた。自分が何を言いたいのか、わからなかった。

AIが書いたのではない。僕が指示したのだ。寝不足の脳で、AIを動かしたのだ。

AIは正確に、僕の混乱した思考を文章にしていた。

チェック体制の薄まり

かつて、疲弊した医師のミスを防ぐのは「人間のチェック体制」だった。指差し確認。ダブルチェック。「先生、これ合ってますか」という声。

AIは、このチェック体制を薄くしていく。なぜなら、AIは信頼されるからだ。「AIが出力したなら正確だろう」という思い込みが、人間のチェックを省略させる。

指示した人間の状態をチェックする機能は、今のAIにはない。

AIが見ているものAIが見ていないもの
プロンプトの内容指示者が何時間起きているか
文脈と過去の履歴ストレスの量
タスクの定義判断力が正常かどうか

何時間起きているか。どれだけストレスを抱えているか。判断力が正常かどうか。そういうことをAIは問わない。プロンプトが来れば処理する。

増幅器が高性能になるほど

「道具は使う人間の能力を反映する」という原則は、AIになっても変わらない。

むしろ、AIは能力を「増幅」するから、問題がより大きくなる。良い判断力を増幅すれば良い結果が出る。劣化した判断力を増幅すれば、劣化した結果が素早く確実に広がる。

身体の状態を整えることが、AI時代の「最重要スキル」だ。

でも、AIは眠れと言わない。

その警告を発する機能は、まだ人間の身体にしかない。

この章のポイント

  • AIの「正確な実行」は、寝不足の指示者にとっては「誤った指示の確実な実現」になる
  • 睡眠不足の脳の最大の恐ろしさは、自覚がないこと
  • AIは指示者の身体状態をチェックしない。「眠れ」と言ってくれない
  • AIは能力の増幅器。元の信号が劣化すれば、劣化が素早く確実に広がる