医療で使う法的・倫理的注意点
ツールの全体像が見えた。次は境界線の話をする。
はじめに:実際に起きたこと
ある初期研修医が退院サマリーの下書きをChatGPTに任せた。氏名、生年月日、病院名、診断、検査値、家族構成。全部そのまま貼り付けた。個人情報保護法上の要配慮個人情報の第三者提供に該当しうる行為である。
AIが現場に入る速度は、ルール整備の速度をはるかに上回っている。自分の頭にやっていいこと/やってはいけないことの境界線を持っておく。若手の段階でこれができているかどうかで、キャリアリスクが変わる。
個人情報・要配慮個人情報
患者情報をAIに入力した瞬間、データはAI事業者のサーバーに送信される。学習に使わない設定があっても、送信自体が第三者提供にあたるかが論点だ。
個人情報保護法は、診療情報・病歴・障害・健康診断結果を要配慮個人情報に分類している。本人同意なき第三者提供は原則禁止。
個人情報保護委員会によるOpenAIへの注意喚起
2023年6月、個人情報保護委員会はOpenAIに対し、個人情報の取得・利用に関する注意喚起を行った [1]。日本政府がAI事業者の個人情報取扱いに直接対応した初期の重要事例だった。
入力してはいけない情報の例
- 患者氏名・カルテ番号・生年月日・住所・電話番号
- 症例を特定しうる固有の組み合わせ(疾患名+日付+病院名+年齢など)
- 顔写真・画像所見でも個人特定が可能なもの
- 家族構成・職業・宗教など患者が特定されうる情報
→ どうしても症例検討に使いたいときは、「30代男性、発熱5日、頸部リンパ節腫脹、血沈高値」のように、第三者から見て誰のことか分からない水準まで匿名化する。
著作権と二次利用
AIの出力には、論文・教科書・ウェブ記事の内容が形を変えて紛れ込む。ChatGPTの生成文をそのまま論文やスライドに転用すると、意図せず他者の著作権を侵害する可能性がある。
AI生成物自体の著作権も未整備だ。米国著作権局はAI単独生成物に著作権を認めない方針を示している。日本では人間の創作的寄与がある場合に限り著作物性が認められるとされる。
実務上の対処は単純である。AIの出力をそのまま使わない。自分の言葉で書き直し、事実は原典に当たる。著作権リスクと医学的誤り、両方を同時に潰せる。
診療責任とAIの出力
AIがこの所見は肺炎です、この薬剤を投与すべきですと答えても、最終責任は使った医師にある。医師法・医療法上、AIは補助ツールであり診断・治療の主体ではない。厚生労働省は2018年の通知でAI出力は参考情報、最終判断は医師と明確にした [2]。
PMDA承認済みの医療AI(画像診断AIなど)でも同じだ。鵜呑みにして患者に不利益が生じれば注意義務違反。逆にAIが正しく警告したのに無視しても、注意義務の問題になりうる。どちらに転んでも医師の責任である。
国際的にも同じ方向に進んでいる。2024年成立のEU AI Act(欧州AI規制法)は医療AIを高リスクカテゴリに分類し、透明性・説明責任・人間による監督を義務づけた [3]。高リスクAIに対する義務は2026年8月2日に完全適用される。つまりあと数ヶ月で、EUで医療AIを提供する事業者は適合性評価や品質管理体制の整備を完了しなければならない。医療機器規制(MDR/IVDR)との整合については2027年8月までの猶予が設けられている。米国FDAもAI/MLベースの医療ソフトウェア(SaMD)に対するアクションプランを2021年に公表し、継続的な性能監視と変更管理を求めている [4]。さらに2025年1月にはAI対応医療機器に関するドラフトガイダンスを公表し、市販前審査における性能評価の具体的な要件を示した [5]。FDAは2016年以降、AIを搭載したbreakthrough deviceの指定を累計1,200件以上行っており(2026年4月時点)、規制当局側も急速にAI医療機器の審査実績を積み上げている [6]。
AIは判断を代替するものではなく、判断材料を増やすもの。この構造は技術が進歩しても変わらない。
院内ルール・ガバナンス
法律以前の話がある。各医療機関には独自のAI利用ポリシーがある。特定のクラウドAIへの院内ネットワークからのアクセスを禁止している施設もあれば、利用可能ツールをホワイトリスト化しているところもある。
新しいツールを業務で使う前に、所属施設の医療情報部か情報セキュリティ担当に確認する。これを習慣にしてほしい。便利だから使った、が後からルール違反として発覚すると、個人にも組織にもダメージが大きい。
安全に使うための4原則
ここまでを4つに絞る。
- 入力前に匿名化。第三者から患者を特定できない水準まで削る。
- 出力をそのまま使わない。自分の言葉に書き直し、原典で裏を取る。
- 判断と責任は医師のもの。AIの出力は仮説にすぎない。
- 施設ルールを先に確認。法律より厳しい院内規程は珍しくない。
まとめ
ルールを知っている人間ほど、AIを迷いなく使える。境界が見えているから踏み込める。次回はその境界の中で最大の力を引き出すプロンプト設計に入る。
| 規制・通知 | 管轄 | 年 | 要点 |
|---|---|---|---|
| 個人情報保護法(要配慮個人情報) | 日本 | 2003年制定・2022年改正 | 診療情報は要配慮個人情報。本人同意なき第三者提供は原則禁止 |
| 個情委 OpenAI注意喚起 | 日本 | 2023 | 日本政府がAI事業者に個人情報取扱いで直接対応した初のケース |
| 厚労省 AI通知 | 日本 | 2018 | AI出力は参考情報、最終判断は医師。医師法第17条との関係を整理 |
| EU AI Act | EU | 2024成立・2026年8月完全適用 | 医療AIを高リスクに分類。透明性・説明責任・人間監督を義務化。MDR/IVDR整合は2027年8月まで |
| FDA SaMD Action Plan | 米国 | 2021 | AI/MLベース医療ソフトに継続的な性能監視と変更管理を要求 |
| FDA AI対応医療機器ドラフトガイダンス | 米国 | 2025年1月 | AI対応医療機器の市販前審査における性能評価要件を具体化 |
| FDA Breakthrough Device指定 | 米国 | 2016年〜2026年4月 | AIを搭載したbreakthrough device指定が累計1,200件超 |
参考文献
- 個人情報保護委員会. OpenAI, LLCに対する個人情報の取扱いに関する注意喚起について. 2023年6月2日.
- 厚生労働省. AIを用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について. 医政医発1219第1号. 2018年12月19日.
- European Parliament. Regulation (EU) 2024/1689 (EU AI Act). 2024年8月1日発効.
- U.S. FDA. Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan. 2021.
- U.S. FDA. Draft Guidance: Artificial Intelligence-Enabled Device Software Functions. January 2025.
- U.S. FDA. Artificial Intelligence and Machine Learning (AI/ML)-Enabled Medical Devices. 2026. 2016年以降のbreakthrough device指定リストを含むAI医療機器の承認状況。
明日のアクション
自分の所属する病院・大学のAI利用ポリシーを今週中に確認してみてほしい。文書化されていない場合は、医療情報部や上級医に「ChatGPTを業務で使うときの院内ガイドラインはあるか」と聞いてみる。これだけで、自分の判断軸がぐっと安定する。