メインコンテンツへスキップ
レッスン 5 / 12|10分で読めます

臨床疑問をベッドサイドで賢く解決する

回診の合間の3分間で、AIから安全な答えを引き出す手順。PubMed検索だけでは間に合わない時代の新しい型。

臨床疑問をベッドサイドで賢く解決する

プロンプトの型を手にしたところで、ベッドサイドに持ち出す。

はじめに:疑問は鮮度が命

回診中、上級医がぽつりと漏らす。「これ、どっちのガイドラインだったっけ」。研修医は反射的に「あとで調べておきます」と返す。昼になる頃には別のタスクが3つ降ってきて、あの疑問はどこかへ消える。

臨床疑問が消滅する原因は単純で、知りたい瞬間と調べる時間が一致しないからだ。AIはこのギャップを埋める道具になる。3分あれば仮説レベルの答えは手に入る。問題は、その3分で安全な答えを引き出せるかどうか。ここに型がいる。


ステップ1:疑問をPICO/PECOに分解する

頭の中でぼんやりしている疑問を、まず構造に落とす。PICO(Patient, Intervention, Comparison, Outcome)かPECO(Exposure)の枠組み [1] に入れるだけで、AIへの指示精度が跳ね上がる。

たとえば「高齢のAfにDOACでいいのか」という疑問。これを分解する。

要素内容
P(患者)80歳以上、慢性心房細動、CHA₂DS₂-VASc 4点
I(介入)直接経口抗凝固薬(DOAC)
C(比較)ワルファリン
O(アウトカム)脳梗塞予防効果、出血リスク、死亡率

4軸に落としてから問う。AIは具体的な検索軸を得て、焦点の合った回答を返すようになる。「DOACかワルファリンどっち」と丸投げした場合との差は歴然だ。


ステップ2:文献ベースのAIを優先する

ChatGPTやClaudeに直接ぶつけると、ハルシネーションのリスクが消えない。実際、薬物療法に関する質問では、現時点でもAIの回答精度は専門医に及ばないことが示されている [2]。臨床疑問にはまずOpenEvidenceやConsensusなど、文献ベースのツールを通す。

OpenEvidenceであれば、上のPICOを自然文で入力するだけでPubMedの該当論文を引用した回答が返ってくる。引用リンクから原著に飛べる。このトレーサビリティがハルシネーション対策の要だ。2025年のプライマリケア医を対象とした研究でも、OpenEvidenceが臨床判断の補助として有効であると報告されている [3]。

OpenEvidence

臨床疑問をPICO形式で入力すると、PubMedの論文を引用しながら回答してくれる

WebOpenEvidence

文献AIで答えが出ない、あるいは不十分なときだけ汎用LLMで解釈を補う。この順序は崩さない。

ベッドサイドAI使用の順番

  1. 文献ベースAI(OpenEvidence/Consensus)でエビデンスを取得
  2. 汎用LLM(ChatGPT/Claude)で日本語要約・解釈の補助
  3. 公式ガイドライン・UpToDateで最終確認
  4. 上級医に提示して臨床判断にすり合わせる

→ AIは「上級医の代わり」ではなく「上級医に相談する前の準備」として位置づける。

AIは上級医の代わりではない。上級医に相談する前の準備だ。


ステップ3:答えを「自分の症例に翻訳する」

AIが返す答えは、あくまで論文集団に対する一般論だ。目の前の患者に当てはめるには、3つのフィルターを通す必要がある。

この患者は研究対象集団に近いか。論文の対象が腎機能正常の60代で、自分の患者がeGFR 30の85歳なら、エビデンスの外挿には限界がある。

患者固有の禁忌や相互作用はないか。AIは個別の併用薬まで見ない。お薬手帳とアレルギー歴との照合は医師の仕事だ。

この介入を選ばなかった場合の最悪シナリオは何か。AIは最善手を提示する。だが現場では最悪を回避する判断が優先される場面がある。


ステップ4:上級医への提示の仕方

AIから得た情報を上級医にぶつけるとき、「ChatGPTがこう言ってました」は最悪の切り出し方だ。こう変える。

「この臨床疑問をOpenEvidenceで調べたところ、◯◯論文(2025年、NEJM)でDOACがワルファリン比で脳梗塞予防は同等、大出血は少ないという結果でした。ただこの患者はeGFR 35なので投与量調整が必要だと考えます。先生はどう思われますか?」

文献を踏まえた自分の仮説として出す。上級医も議論に乗りやすいし、自分の臨床推論も鍛えられる。ツール名を冒頭に出すか末尾に添えるかで、印象はまるで変わる。


まとめ

PICO化、文献AI、症例への翻訳、上級医提示。この4ステップを1日1疑問回すだけで、半年後には臨床疑問を流さない習慣が身につく。型があれば3分で十分だ。

次回は、得た知識を患者にどう届けるか。AI活用のもう一つの現場直結テーマに入る。

参考文献

  1. Richardson WS, Wilson MC, Nishikawa J, Hayward RS. The well-built clinical question: a key to evidence-based decisions. ACP J Club. 1995;123(3):A12-A13.
  2. Krichevsky S, et al. Human vs. artificial intelligence: Physicians outperform ChatGPT in real-world pharmacotherapy counselling. Br J Clin Pharmacol. 2026. doi:10.1111/bcp.16404
  3. OpenEvidence as a clinical decision support tool for primary care physicians. PMC12033599. 2025. プライマリケア医を対象に、OpenEvidenceの臨床判断補助としての有効性を報告。

明日のアクション

今週、回診や外来で出てきた臨床疑問を1つ選んで、PICOに分解してOpenEvidenceに投げてみてほしい。返ってきた論文を1本だけ実際に開いて読んでみる。これだけで「3分間で疑問を仮説に変える」感覚が身につく。