2026-05-01
システムは、自分自身を証明できない——ゲーデルとBYOVの話
ゲーデルの不完全性定理が示したこと——十分に強いシステムは、自分自身の無矛盾性を内側から証明できない。これはAIガバナンスにとって何を意味するのか。
1931年、Kurt Gödelは数学の世界に一つの爆弾を投げ込んだ。
それまで数学者たちは信じていた。十分な公理を積み上げれば、数学のすべての真理を証明できる完全な体系が作れると。そしてその体系自身が矛盾していないことも、体系の内側から証明できると。
ゲーデルは、それが不可能だと証明した。
ゲーデルの不完全性定理、ごく平易に
技術的な詳細を省いて言えば、ゲーデルが示したことはこうだ。
十分に強い形式システムにおいて、そのシステムが無矛盾であるならば、「自分は証明できない」と主張する命題が必ず存在する。
さらに踏み込んで言えば——そのシステムが無矛盾であることを、そのシステム自身の内側から証明することはできない。
自己言及のパラドックスに近い。「私はうそつきだ」という文が、真でも偽でも矛盾を生むように、システムが自分自身を完全に記述しようとすると、必ず届かない場所が生まれる。
これは数学の内部の話だが、含意は広い。
「自己評価」の限界
ゲーデルの定理が示す本質は、閉じたシステムは自分自身の完全性を保証できないということだ。
これを民主主義に当てはめてみる。
スカラー民主主義は、社会の善さをGDPや支持率という指標で測ろうとする。しかしその指標を定義しているのも、評価しているのも、最終的には同じ政治システムの内側だ。
「経済は成長している」という評価を、経済成長を目標とする政治システムが行う。「国民は満足している」という評価を、国民の支持を必要とする政治家が行う。システムが自分自身に都合の良い指標を選び、自分自身を評価する。
閉じた回路の中で、自己証明が行われている。
AIも同じ問題を抱えている
現在のAIシステムに、似た構造がある。
AIが判断を下す。その判断が正しいかどうかを、誰が確認するか。AIが自分で確認する——これでは閉じた回路だ。
「私の出力は正確です」とAIが言っても、その正確さを保証しているのはAI自身の評価基準だ。学習データが偏っていれば、その偏りを正しいと評価する。判断の根拠が不透明であれば、その不透明さを問題と認識できない。
ゲーデルが数学で示したことを、AIガバナンスの文脈で言い直せばこうなる。
AIシステムは、自分自身の判断の正しさを、自分自身の内側から完全に保証することができない。
だから「外部検証」が必要になる
ゲーデルの定理への応答として、数学者たちが取った立場の一つは「より大きなシステムから見る」というものだった。あるシステムの無矛盾性は、そのシステムより強い外部のシステムから証明できる(ただしその外部システムもまた自己証明できないという問題は残る)。
これはガバナンスの設計に示唆を与える。
閉じたシステムの内側からの自己評価には限界がある。だとすれば、外部から検証できる構造を最初から設計に組み込む必要がある。
これがBYOV(Bring Your Own Verifier)という発想の出発点だ。
BYOVとは何か
BYOVは、検証者を外部から持ち込む、という設計思想だ。
AIが判断を下すとき、その判断のプロセスと根拠を、外部の第三者が独立して検証できる形で記録する。AIシステムの開発者でも運用者でもない、独立した検証者が「この判断はこの根拠に基づいており、このルールに従って行われた」と確認できる。
重要なのは、AIが「私の判断は正しい」と言うことではない。判断のプロセスが再現可能で、外部から検証できる状態になっていることだ。
ゲーデルの言葉で言えば——システムは自己証明できない。だから、外部の視点を構造に組み込む。
民主主義への接続
この発想は、民主主義の設計にも接続できる。
前回書いたスカラー民主主義の問題——システムが自分に都合の良い指標で自分を評価する——は、ゲーデル的な閉回路の問題でもある。
「重み主権(Weight Sovereignty)」という考え方がある。社会の何をどれだけ重視するかという価値の重みを、アルゴリズムや専門家の内側に埋め込まず、民主的なプロセスで決定し、外部から見える形で公開する、という設計だ。
価値の重みが見える。判断の根拠が残る。外部から検証できる。
これは単なる透明性の話ではない。閉じたシステムが自己証明に陥ることへの、構造的な応答だ。
「正しい答え」ではなく「検証できる手続き」
ゲーデルが数学者たちに与えた教訓は、完全な体系への夢を諦めることではなかった。
それは、自分たちが何を証明できて、何を証明できないかを明確にすることの重要性だった。届かない場所を正直に認めることが、誠実な知的態度だという認識だ。
AIガバナンスも、民主主義の設計も、同じ態度が求められている。
「このAIの判断は完全に正しい」とは言えない。「この民主主義の決定は最善だ」とも言えない。
しかし「この判断はこのプロセスで、この根拠に基づいて行われた。それを外部から検証できる」とは言える。
正しさの保証ではなく、検証可能な手続きの保証——これが、閉じたシステムが外部に対して誠実に示せる最大のものだと、私は思う。
本記事はノンスカラー民主主義シリーズの一部です。前回:民主主義は、なぜ「一本の物差し」で自分を測ろうとするのか
C3社会デザインセンターは、AIと制度設計の接続点を研究・開発しています。BYOVの技術仕様はこちら:www.c3-anchor.jp