メインコンテンツへスキップ
18 / 32|9分で読めます

老いることのアドバンテージ

AIは老いない。これは脅威として語られることが多い。AIは疲れない。劣化しない。アップデートされ続ける。人間は老いて、能力が落ちて、死ぬ。だが、老いることには、何か特別なことが起きている。 AIが永遠に手に入れられない何かが、老いとともに生まれている。

速度は落ちた、判断の質は上がった

まだ「ベテラン」と呼ばれる年齢ではないが、研修医の頃と今では、確かに何かが違う。

速度は落ちた。新しい情報を吸収するのに時間がかかる。夜中まで起きていると翌日に響く。

でも、判断の質は上がっている。何が重要で何が重要でないか、以前より速くわかる。患者の話の中のどこに引っかかるべきか、以前より自然にわかる。

これは「熟練」という言葉で片づけられることが多い。だが、もう少し正確に言える。

老いは、取捨選択を強制する

老いは、取捨選択を強制する。

時間が有限だとわかったとき、人間は本当に重要なものと、そうでないものを区別し始める。

20代は何でも重要に見える。すべての情報が価値を持つ。すべての会議に意味がある気がする。すべての批判が致命的に感じる。

40代、50代になると、それが変わる。「これは10年後に重要か」という問いが、自然に浮かぶようになる。有限な時間の中で、何に投資するかが見えてくる。

これは悲観的な意味での「あきらめ」ではない。解像度の向上だ。

AIには解像度がない

AIには、この解像度がない。

AIはすべての情報を処理する。重要なものも、重要でないものも、等しく。優先順位はユーザーが指定しなければならない。

「これは本当に重要か」「10年後に残る問いか」「自分の人生をかける価値があるか」。これらの問いに、AIは答えを持たない。

なぜなら、AIには死がないからだ。

残り時間が選択を変える

死が近いことを知っている存在は、選択に本気になる。

スタンフォード大学の心理学者ローラ・カーステンセン(Laura Carstensen)は、社会情動的選択性理論(Socioemotional Selectivity Theory)を提唱している。残り時間が少ないと感じるとき、人間は意味のある関係と活動を優先するようになる。

浅い繋がりを切り、深い繋がりを選ぶ。大量の情報より、本当に必要な知識を求める。見かけ上の成功より、内側の充実を大切にする。

老いは、この転換を自然に起こす。

「しない」を選べるベテラン

医療の現場で、ベテランの判断が若手と違う場面がある。

「この患者にこれ以上の検査は不要だ」と言えること。「これは治療しなくていい」と言えること。「十分な治療をした、あとは待つしかない」と言えること。

若い医師はそれが言えない。なぜなら、何かを「しないこと」を選ぶには、失うことへの怖れを乗り越えた経験が必要だからだ。

老いは、失うことを教える。失うことを知ることで、人は何を守るかを知る。

「何のために」にAIは答えない

AIを使いこなす文化は、「より多く」「より速く」「より効率的に」を志向する。

情報を多く集める。アウトプットを速く出す。コストを下げる。

でも、何のために?

この問いへの答えは、外から来ない。自分の内側から来る。自分が何を大切にしているか、何のために生きているか、残り時間をどう使いたいか。

AIはこの問いに答えを持たない。ユーザーが入力した価値観を反映するだけだ。

価値観を持っていない人間がAIを使うとき、AIは何を最適化するか。

自分固有の基準を手に入れる

老いるとは、自分だけの判断基準を手に入れることだ。

外部評価から自由になること。流行に左右されなくなること。「みんながそう言っている」ではなく「自分はこう思う」が言えること。

これはAIには永遠に起きない。AIはいつも、学習データの中心的な傾向に引き寄せられる。老いることで人間が手に入れる「自分固有の基準」は、AIの設計原理と逆方向だ。

老いる人間老いないAI
時間の有限性が解像度を上げるすべてを等価に処理する
失うことを知り「しない」を選べる学習データの中心傾向に引き寄せられる
自分固有の判断基準が育つ外部の入力で価値観を構成する

AIが老いない世界で、老いることの価値はむしろ上がる。

失ったことがある者だけが知っていること。時間が有限だと身体で知っている者だけが持てる判断基準。それが「あなたはどう生きるか」という問いへの、唯一まともな答えになる。

老いることを恐れる必要はない。

老いないAIと並んで生きるとき、老いること自体がアドバンテージになる。

この章のポイント

  • 老いは取捨選択を強制し、何が本当に重要かの解像度を上げる
  • ベテランは「しない」を選べる。失うことを知っている者だけが守るものを知る
  • AIは価値観を持たない。価値観なき人間がAIを使うとき、何が最適化されるかは空白
  • 自分固有の判断基準を持つことは、学習データの中心に引き寄せられるAIと真逆の方向