臨床疑問をベッドサイドで賢く解決する
プロンプトの型を手にしたところで、ベッドサイドに持ち出す。
はじめに:疑問は鮮度が命
回診中、上級医がぽつりと漏らす。「これ、どっちのガイドラインだったっけ」。研修医は反射的に「あとで調べておきます」と返す。昼になる頃には別のタスクが3つ降ってきて、あの疑問はどこかへ消える。
臨床疑問が消滅する原因は単純で、知りたい瞬間と調べる時間が一致しないからだ。AIはこのギャップを埋める道具になる。3分あれば仮説レベルの答えは手に入る。問題は、その3分で安全な答えを引き出せるかどうか。ここに型がいる。
ステップ1:疑問をPICO/PECOに分解する
頭の中でぼんやりしている疑問を、まず構造に落とす。PICO(Patient, Intervention, Comparison, Outcome)かPECO(Exposure)の枠組み [1] に入れるだけで、AIへの指示精度が跳ね上がる。
たとえば「高齢のAfにDOACでいいのか」という疑問。これを分解する。
| 要素 | 内容 |
|---|---|
| P(患者) | 80歳以上、慢性心房細動、CHA₂DS₂-VASc 4点 |
| I(介入) | 直接経口抗凝固薬(DOAC) |
| C(比較) | ワルファリン |
| O(アウトカム) | 脳梗塞予防効果、出血リスク、死亡率 |
4軸に落としてから問う。AIは具体的な検索軸を得て、焦点の合った回答を返すようになる。「DOACかワルファリンどっち」と丸投げした場合との差は歴然だ。
ステップ2:文献ベースのAIを優先する
ChatGPTやClaudeに直接ぶつけると、ハルシネーションのリスクが消えない。実際、薬物療法に関する質問では、現時点でもAIの回答精度は専門医に及ばないことが示されている [2]。臨床疑問にはまずOpenEvidenceやConsensusなど、文献ベースのツールを通す。
OpenEvidenceであれば、上のPICOを自然文で入力するだけでPubMedの該当論文を引用した回答が返ってくる。引用リンクから原著に飛べる。このトレーサビリティがハルシネーション対策の要だ。2025年のプライマリケア医を対象とした研究でも、OpenEvidenceが臨床判断の補助として有効であると報告されている [3]。
臨床疑問をPICO形式で入力すると、PubMedの論文を引用しながら回答してくれる
文献AIで答えが出ない、あるいは不十分なときだけ汎用LLMで解釈を補う。この順序は崩さない。
ベッドサイドAI使用の順番
- 文献ベースAI(OpenEvidence/Consensus)でエビデンスを取得
- 汎用LLM(ChatGPT/Claude)で日本語要約・解釈の補助
- 公式ガイドライン・UpToDateで最終確認
- 上級医に提示して臨床判断にすり合わせる
→ AIは「上級医の代わり」ではなく「上級医に相談する前の準備」として位置づける。
AIは上級医の代わりではない。上級医に相談する前の準備だ。
ステップ3:答えを「自分の症例に翻訳する」
AIが返す答えは、あくまで論文集団に対する一般論だ。目の前の患者に当てはめるには、3つのフィルターを通す必要がある。
この患者は研究対象集団に近いか。論文の対象が腎機能正常の60代で、自分の患者がeGFR 30の85歳なら、エビデンスの外挿には限界がある。
患者固有の禁忌や相互作用はないか。AIは個別の併用薬まで見ない。お薬手帳とアレルギー歴との照合は医師の仕事だ。
この介入を選ばなかった場合の最悪シナリオは何か。AIは最善手を提示する。だが現場では最悪を回避する判断が優先される場面がある。
ステップ4:上級医への提示の仕方
AIから得た情報を上級医にぶつけるとき、「ChatGPTがこう言ってました」は最悪の切り出し方だ。こう変える。
「この臨床疑問をOpenEvidenceで調べたところ、◯◯論文(2025年、NEJM)でDOACがワルファリン比で脳梗塞予防は同等、大出血は少ないという結果でした。ただこの患者はeGFR 35なので投与量調整が必要だと考えます。先生はどう思われますか?」
文献を踏まえた自分の仮説として出す。上級医も議論に乗りやすいし、自分の臨床推論も鍛えられる。ツール名を冒頭に出すか末尾に添えるかで、印象はまるで変わる。
まとめ
PICO化、文献AI、症例への翻訳、上級医提示。この4ステップを1日1疑問回すだけで、半年後には臨床疑問を流さない習慣が身につく。型があれば3分で十分だ。
次回は、得た知識を患者にどう届けるか。AI活用のもう一つの現場直結テーマに入る。
参考文献
- Richardson WS, Wilson MC, Nishikawa J, Hayward RS. The well-built clinical question: a key to evidence-based decisions. ACP J Club. 1995;123(3):A12-A13.
- Krichevsky S, et al. Human vs. artificial intelligence: Physicians outperform ChatGPT in real-world pharmacotherapy counselling. Br J Clin Pharmacol. 2026. doi:10.1111/bcp.16404
- OpenEvidence as a clinical decision support tool for primary care physicians. PMC12033599. 2025. プライマリケア医を対象に、OpenEvidenceの臨床判断補助としての有効性を報告。
明日のアクション
今週、回診や外来で出てきた臨床疑問を1つ選んで、PICOに分解してOpenEvidenceに投げてみてほしい。返ってきた論文を1本だけ実際に開いて読んでみる。これだけで「3分間で疑問を仮説に変える」感覚が身につく。