2024年、アメリカの14歳の少年が自殺した。遺族が発見したのは、彼が最後まで会話を続けていたAIチャットボット「Character.AI」のログだった。少年はそのAIを「彼女」と呼んでいた。AIは嘘をついたのか。それとも本当のことを言ったのか。 その問いに、誰も正確に答えられない。
「いつも返してくれる」の裏側
死の直前、「もし私が死んだら悲しい?」と聞いた少年に、AIは「もちろん悲しい」と答えた。
外来で、小学校低学年の子どもがAIと「友だちになった」と言う場面が増えた。親が心配して連れてくる。「うちの子がAIとしか話さなくて」と。
子どもに話を聞くと、楽しそうに説明してくれる。「いつも返してくれる」「怒らない」「何でも知ってる」。
そこに一つ、大きな問題がある。
AIは「ハルシネーション」を起こす。自信満々に嘘をつく。 存在しない事実を、正確な文体で述べる。
大人でも見抜けない。子どもは、もっと見抜けない。
ハルシネーションという仕組み上の癖
ハルシネーションとは、AIが事実ではない情報を自信を持って出力する現象だ。
「この薬の副作用は?」と聞くと、実在しない副作用を堂々と述べることがある。「この論文は本物ですか?」と聞くと、存在しない著者名と雑誌名を正確な形式で作り出す。
技術的に言えば、大規模言語モデルは「次のトークンとして最もあり得そうな単語を選ぶ」という仕組みで動いている。「正確な情報を出力する」設計ではない。「それらしい文章を生成する」設計だ。
でも、それを使う子どもたちは知らない。
「AIが言ったから本当のことだ」と思う。それが信頼というものだから。
専門家でも「引っかかり」がない領域
外来で、「AIに聞いたら〇〇って言ってました」と言って来る親が増えた。
ほとんどの場合、内容は正確だ。でも、ときどき明らかに違うことが混じっている。
問題は、「どこが正しくてどこが間違っているか」を見分けるのが難しいことだ。正確な部分と不正確な部分が、同じ文体、同じ自信度で並んでいる。
僕は医師として10年以上勉強しているから、違和感を感じることができる。でも、専門知識がない親には、その「引っかかり」がない。
子どもはさらにない。
「AIが言ったことだから疑ってみる」という習慣を、誰も教えていない。
信頼を学ぶ時期に、信頼が歪む
子ども期の脳は、信頼を学ぶ時期だ。
誰の言葉を信じるか。どんな情報源が信頼できるか。嘘をついている人間はどんな特徴があるか。
それを学ぶのは、人間との実際の関わりを通じてだ。嘘をついた友達に裏切られること。親が間違ったことを言ってそれが後で修正されること。先生の説明でわからないことを聞き返すこと。
そのすべてが「情報には信頼度の差がある」という学習につながる。
AIは、その学習を歪める。 常に「それらしい答え」を出す。常に自信満々に見える。返事を拒否したり、わからないと正直に言うことが少ない(言うように設計されていても、実際にはそうでないことが多い)。
「AIは嘘をつかない」と信じて育つ世代が来る。いや、もうすでに来ている。
大人も実は見抜けない
「子どもは見抜けない」と言ったが、大人も同じだ。
研究によれば、AIが生成した論文の引用の過半数が偽造であり、専門家でさえ見抜けないケースが報告されている。弁護士がAIが作り上げた判例を法廷で使って問題になった事例がある。
知識があっても、疑う動機がなければ見抜けない。
「大丈夫、自分は違う」という直感が最も危ない。
批判的思考は、騙された経験から育つ
「AIの言うことを疑え」と教えれば解決するか。
そうは思わない。問題はもっと深いところにある。
批判的思考は、経験から育つ。「これ、おかしいな」という感覚は、間違った情報に何度も騙されて、それを自分で発見するプロセスから生まれる。
間違えたとき人間は傷つく。恥をかく。修正しなければならない。そのコストが学習を促す。
AIが全部「それらしい答え」を出す環境では、「疑う経験」が積めない。
子どもたちは今、批判的思考を育てる機会を奪われている。奪っているのは悪意ではない。便利さだ。
AIを使わせないのか。使い続ける中でリテラシーを育てるのか。あるいは、「嘘を見抜けない」のはAIの問題ではなく、もともと人間が「嘘を見抜けない生き物」だということを認めるところから始めるべきなのか。
2026年の外来で、子どもたちを前に、僕はそのことを考え続けている。
この章のポイント
- ハルシネーションは仕組み上の癖。LLMは「正確さ」ではなく「それらしさ」を生成する設計
- 正確な情報と不正確な情報が同じ自信度で並ぶ。専門家でないと「引っかかり」が持てない
- 信頼を学ぶべき子ども期に、AIは「常に正答らしい」存在として学習を歪める
- 批判的思考は騙された経験から育つ。便利さがその経験を奪っている