2026-04-25
絶対に間違わないAIを、私たちは本当に求めているのか
ヒュームの帰納の問題から考える、AIに完全保証を求めることの構造的な誤り。
絶対に間違わないAI。絶対に事故らない自動運転。
なぜ私たちは、不確実な世界に対してだけ、AIに完全保証を求めたくなるのだろう。
ヒュームが残した問題
18世紀の哲学者デイヴィッド・ヒュームは、こんな問題を残した。
「これまでそうだった」ことと、「これからも必ずそうなる」ことは、同じではない。
私たちは反復から期待を作れる。しかし未来を完全には証明できない。これをヒュームの帰納の問題(Problem of Induction)という。
難しく聞こえるが、具体例にすると腑に落ちる。
農場で育てられた七面鳥は、毎朝9時に餌をもらう。1日目も、2日目も、100日目も、ずっとそうだった。七面鳥は学習する——「9時になれば餌が来る」と。そして感謝祭の前日、9時になった。手に持つものが、違った。
七面鳥は正しく学習した。ただ、その学習が通じない状況が来たことを、事前には知りようがなかった。
AIも同じ構造の上に立っている
高精度のAIは、膨大な過去データから正しいパターンを学んでいる。その精度は本物だ。しかし、過去の正答率は未来の正しさを保証しない。
問題は「いつもと違う」ときに、止まれるかどうかだ。
止まれなければ、精度は高いまま崖に落ちる。自動運転が想定外の状況で誤作動するのも、AIが学習分布の外に出たときに自信満々で間違えるのも、この構造から来ている。
精度を上げることは大切だ。でもそれだけでは足りない。帰納の問題は、どれだけ精度を上げても消えない。
必要なのは「止まれる設計」
無謬のAIを夢見るより、間違い得ることを前提に設計する方が、現実への誠実さだと思う。
具体的には、保留・停止・再開条件を持てる設計だ。「わからない」「判断根拠が不足している」という状態を認識し、そこで止まれること。止まった理由を記録し、人間が確認した上で再開できること。
完全な知性より、止まれる制度。これがAIガバナンスの出発点だと、私は考えている。
次回は、私たちが「知性」という言葉をどう使い、どこでゴールポストを動かしてきたかを見る。