プロンプトとパーソナライズの基本
境界線が見えたら、次はその中で力を最大化する話だ。
はじめに:同じAIなのに出力が違う理由
同期2人がChatGPTに胆嚢炎の鑑別を聞いた。片方には箇条書きの簡潔な答え、もう片方には症例ベースの具体的な答えが返ってきた。AIの性能差ではない。聞き方の差である。
AIの出力品質を決めるのは、AIの性能よりも聞き方だ。
出力品質はAIの性能より聞き方に依存する [1]。臨床現場でのプロンプト設計についても、体系的な知見が蓄積されつつある。プロンプト設計は才能ではなく型だ。型を知って反復すれば誰でも身につく。ここでは医療現場で即使える型を3つに絞って渡す。
型1:役割・文脈・出力形式を3点セットで指定する
胆嚢炎の鑑別を教えて、だけではAIは誰に何のために答えればいいか分からない。3点セットで指定すると出力が安定する。
あなたは救急外来で働く上級医です。
私は2年目の研修医で、急性腹症の患者を診ています。
胆嚢炎を疑う場合の鑑別診断を、優先順位と除外手順がわかる形で
箇条書きで説明してください。
役割(あなたは誰か)、文脈(私の立場と状況)、出力形式(どう答えてほしいか)。この3つを入れるだけで、出力の具体性と一貫性が変わる。
なぜ3点セットが効くのか
LLMは「次の単語の確率」を文脈から計算している。文脈が薄いと、AIは「最も平均的な答え」を出してしまう。役割と立場を明示することで、AIは「この文脈で最も自然な答え」を選びやすくなる。
→ 雑に聞けば雑な答えが返り、精度高く聞けば精度高い答えが返る。AIの性能ではなく、自分の聞き方の問題と捉えると、上達が速い。
型2:制約と禁止を先に書く
短く答えて、専門用語を使って、日本語で。こうした制約は後ろに付け足すより冒頭に書くほうが守られやすい。禁止指示も同じで、先に出すほど効く。
医療現場で使いやすい制約の例。
- 「引用論文は5年以内のものに限定」
- 「ガイドラインに記載がない情報には『不明』と明記」
- 「薬剤名は商品名ではなく一般名で」
- 「日本のガイドライン(〇〇学会)を優先して引用」
冒頭にまとめておけば、出力が自分の現場仕様に近づく。
型3:一発で完成させない、対話で育てる
1回で完璧を目指す必要はない。出てきた答えに対して、もっと短く、具体例を3つ追加、逆の立場からも検討、と重ねていくほうが結果の質は上がる。
最初は5往復くらい粘ってみてほしい。1回目で止める人が多いが、そこで見切るとAIの本当の出力には届かない。
パーソナライズ:毎回書かなくて済む仕組み
毎回3点セットを打つのは面倒だ。保存する機能がある。
ChatGPTにはカスタム指示(Custom Instructions)がある。私について、どう答えてほしいか、を書いておけば全会話に自動適用される。こう書く。
私について:
- 小児科専攻医(卒後5年目)
- 日本のガイドラインを優先して引用してほしい
- 専門用語はそのまま使ってよい
どう答えてほしいか:
- 結論を最初に。理由は箇条書きで。
- 医学的根拠が薄い場合は明示してほしい
- 引用論文があるときは年代と著者を併記
これで毎回の入力が短くなる。ClaudeにはProjectsという機能があり、プロジェクト単位で文脈や参考資料を持たせられる。論文執筆用、外来用、勉強会準備用と分けておくと切り替えが楽だ。
まとめ
3点セット、制約を先に書く、対話で育てる。この3つとカスタム指示の保存で、プロンプト設計の基本は揃う。技術というより習慣だ。反復すれば体に入る。
次回はベッドサイドでの実践に入る。臨床疑問をAIで即座に解く具体的な手順を扱う。
参考文献
- Wang S, et al. Prompt Engineering in Clinical Practice: Tutorial for Clinicians. J Med Internet Res. 2025. PMC12439060.
明日のアクション
今日中に、自分が使っているAIツールのカスタム指示欄を埋めてみてほしい。「私について」3行、「どう答えてほしいか」3行で十分だ。明日からの体感が変わる。