メインコンテンツへスキップ
5 / 24|6分で読めます

ソクラテスは何も知らなかった

無知の知とAIプロンプトの構造的類似。産婆術はプロンプトエンジニアリングの原型だった。ファインマンの自己欺瞞への警告。

ソクラテスは何も知らなかった

紀元前399年、ソクラテスはアテネの法廷でこう言った。自分は何も知らない。ただ、知らないということを知っている点で、他の人よりわずかに賢い。

2400年後の今、この言葉がまったく違う意味で重要になっている。

AIに良い問いを投げるには、自分が何を知らないかを正確に把握している必要がある。何を知っているかではない。何を知らないかだ。

知らないことを知っていれば、それを問える。知らないことを知らなければ、問うことすらできない。問えない問いに対して、AIは何も返せない。

ソクラテスの方法は「産婆術」と呼ばれた。相手に問いを投げかけ、相手の中にある答えを引き出す技法だ。ソクラテスは何も教えない。問いを投げるだけだ。問いの質が、引き出される答えの質を決める。

これは、AIプロンプトの原型ではないか。

AIは膨大な知識を持っている。でも、どの知識を引き出すかは、問い次第だ。良い問いは良い答えを引き出す。悪い問いは悪い答えを引き出す。AIは問いに忠実に答えるだけで、問いの質を判断してはくれない。

「この薬の副作用を教えて」と聞けば、副作用のリストが返ってくる。でも、本当に知りたいのは「この患者のこの状態で、この薬を使うべきか」かもしれない。後者の問いを立てるには、患者の状態を理解し、他の選択肢を知り、リスクとベネフィットを比較する枠組みを持っている必要がある。

つまり、良い問いを立てるには、すでにかなりのことを知っている必要がある。そして同時に、自分が知らない部分を正確に認識している必要がある。

リチャード・ファインマンはこう言った。

The first principle is that you must not fool yourself — and you are the easiest person to fool.

(リチャード・ファインマン、1974年カリフォルニア工科大学卒業式スピーチ)

第一原則は、自分自身を騙してはいけないということだ。そして、自分は最も簡単に騙せる相手だ。

AIの出力を鵜呑みにする危険は、ここにある。AIは自信たっぷりに、もっともらしい答えを返す。間違っていても、迷わない。ためらわない。注釈もつけない。

人間は、自信たっぷりの回答を見ると、正しいと思いたくなる。ファインマンの言う「自分自身を騙す」が、ここで起きる。AIの出力を検証するのは面倒だ。そのまま使ったほうが楽だ。AIが言っているのだから正しいだろう。

この思考の怠慢を、AIは増幅する。

外来で親にAIの診断結果を見せられることが増えた。「AIがこう言っているのですが」と。AIの出力を疑わない親と、AIの出力を出発点として医師と対話する親がいる。後者のほうが、圧倒的に有益な診察になる。

後者は、ソクラテス的な態度を持っている。AIの答えを知っている。でも、それが正しいかどうかは知らない。だから、確認するために来た。自分が知らないことを知っている。

ソクラテスが「無知の知」と呼んだものは、AI時代においては「メタ認知」と呼ばれる。自分の思考を、一段上から眺める能力。自分が何を知っていて、何を知らなくて、何を誤解しているかを把握する能力。

この能力がないままAIを使うと、自分の無知がAIによって増幅される。知らないことを知らないまま、AIに問いを投げ、もっともらしい答えを受け取り、それを正しいと思い込む。

ソクラテスは何も知らなかった。だから、最も良い問いを立てることができた。

あなたは何を知らないか。その答えが、AIの出力品質を決める。