2026-05-07

政治情報を、検算できる形にできるか

AIに政治を任せる、は間違った問いだ。正しい問いは「市民が公開された政治情報を自分で検算できるか」だ。ECHO-VERIFYの設計思想を政治情報の検証導線に接続する構想を考える。

前回、ANCHORの話を書いた。AIは政策を決めない。民主主義が「何を大事にするか」を決めた後、それを安全に実行するための制御レイヤだ、という話だ。

では、民主主義が「何を大事にするか」を決める過程そのものは、どうなっているか。

投票の夜、私たちは何を根拠に選んでいるのか。

この記事の範囲について この記事は、AIに政治判断を任せる提案ではありません。C3は、特定の候補者・政党・政策を評価、推薦、順位付けする仕組みを提案しません。ここで扱うのは、公開された一次情報に市民が戻れるようにし、発言・投票・公約の根拠を検算可能な形で整理できるか、という構想です。未確認・未取得・解釈が割れる情報は、断定せずHOLDとして扱います。


「信じてください」の構造

現在の政治情報の多くは、「信じてください」という構造の上に成り立っている。

政治家が「この政策を実行した」と言う。メディアがそれを報道する。支持者がそれを拡散する。批判者が反論する。有権者はその中から、何かを信じる。

何かを信じる——しかし、その「何か」を自分で検算した人は、ほとんどいない。

検算とは何か。ある発言が実際にされたか。ある投票でどう動いたか。ある公約が実行されたか。これらを、公開された一次情報に遡って自分で確認することだ。

多くの市民がそれをしないのは、怠惰だからではない。検算できる形に情報が整備されていないからだ。


AIへの間違った問い

「AIが正しい政策を選んでくれれば良い」という発想がある。

これは間違った問いだ。

前回のシリーズで書いたように、「正しい政策」は存在しない。何を優先するかという価値判断は、社会が民主的に決めるものだ。AIがその判断を代替することは、民主主義の否定になる。

しかしAIへの正しい問いは存在する。

「市民が公開された政治情報を、自分で検算できるようにするためにAIを使えるか」


ECHO-VERIFYという設計思想

C3が開発しているECHO-VERIFYは、AIの判断を検証可能にするための仕組みだ。

核心にある考え方はシンプルだ。AIが判断を下すとき、その根拠となった情報を「署名付きキット」として配布する。キットには、使われた証拠、適用されたルール、判断のプロセスが含まれる。誰でも自分の環境でそのキットを受け取り、「この判断はこの根拠に基づいて行われた」と確認できる。

重要なのは、「AIが正しい」と信じることではない。プロセスを検算できることだ。

この設計思想は、政治情報の検証導線にも応用できる可能性がある。


公開政治情報トレースという発想

公開された政治情報——発言、投票行動、公約文書——を「検算可能な形」にまとめたものをCivic Trace(公開政治情報トレース)と呼ぶ。

構造はECHO-VERIFYと同じだ。

発言なら、国立国会図書館の国会会議録検索システムAPIから一次情報を取得し、そのままキットに収める。誰がいつどの委員会で何を発言したかが、参照可能な形で固定される。

投票なら、参議院の本会議投票結果から記名投票・押しボタン投票のデータを取得する。なお起立採決など個人票が取得できない投票方式では、個人レベルの断定は行わない——この場合はHOLDになる。

公約なら、選挙時の発言・文書を「Claim Card」として固定する。後でその公約が実行されたかどうかを、同じキットの枠組みで確認できる。

いずれも「評価」ではなく、「公開情報への参照を整理する」ことが目的だ。


「HOLD」を政治情報に持ち込む

ECHO-VERIFYの設計で最も重要な概念がある。HOLDだ。

証拠が不十分なとき、判断が不確実なとき、システムは「PASS」も「FAIL」も返さない。HOLDを返す。「分からない」を正常な状態として扱う。

これを政治情報に持ち込むと、何が変わるか。

「この議員はこの政策を支持している」という断言の根拠が一次情報で確認できない場合、HOLDになる。「この公約は達成された」という確認ができない場合、HOLDになる。起立採決で個人票が取得できない場合も、HOLDになる。

分からないことを分からないと表示する。これは民主主義にとって、精度の高い嘘より価値がある。

また、政治情報には必ず「観測できた範囲」と「観測できなかった範囲」がある。この二つを常に併記することを、Coverage(観測範囲)の明示と呼ぶ。記録に基づく部分、推定の部分、欠損の部分——これらを分けて表示することが、誠実な情報提供の前提だ。


重みは市民が持つ

もう一つ重要な設計がある。重みは市民が持つ、という原則だ。

「どの議員の行動を重視するか」「どの政策領域を自分は気にするか」——これをMy Lens(マイレンズ)と呼ぶ。市民それぞれが、自分の優先順位を端末の中に持つ。サーバーには送らない。

サーバーは情報を配布する。判断は市民がする。

これは重み主権のシリーズで書いた話と同じだ。何を重視するかという価値判断を、アルゴリズムに埋め込まない。AIは「この重みで見るとこういう情報が浮かぶ」を示す道具だ。「どの重みを選ぶか」は市民が決める。


具体的に考えてみる。

環境保護を重視する市民が、自分のレンズに「環境:高」と設定する。そのレンズで政治情報トレースを見ると、環境関連法案への投票履歴、環境政策に関する発言、環境予算への賛否が前面に浮かぶ。同じ議員のデータを、教育を重視する市民は別の角度から見る。経済成長を重視する市民はまた別の景色を見る。

一次情報は同じだ。重みが違う。だから見える景色が違う。

これは「正しい見方」を押し付けない設計だ。アルゴリズムが「この議員はこういう人物だ」と結論を出すのではなく、市民が自分の優先順位で情報を見て、自分で判断する。

重み主権のシリーズで書いた「価値判断をアルゴリズムに埋め込まない」が、ここで実際の使い方として着地する。

環境保護を重視する市民が、自分のレンズで候補者の投票履歴を検算する。その結果は一次情報に基づいており、誰でも同じ情報源から確認できる。しかし何を見るかの優先順位は、その市民が決めている。

同じ事実、異なるレンズ、それぞれの判断。 これが重み主権とCivic Traceの接続点だ。


正直な現在地

ここで、正直に書かなければならない。

上で書いたことは構想だ。完成したシステムではない。

現時点でC3が持っているのは、ITSのPoC(概念実証)とECHO-VERIFY検証の公開実装だ。AIの判断を検証可能にする技術的な骨格は存在する。

政治情報トレースへの応用は、技術的には可能だ。国会会議録APIは公開されている。投票データも公開されている。ECHO-VERIFYのキット構造は、政治情報にそのまま適用できる設計になっている。検証キット、公開正本、履歴管理の要素技術は揃い始めている。

しかしまだやっていない。「できる」と「やっている」は別だ。

C3の設計原則として、実証されていないことを実証済みとして語らない。この記事もその原則に従って書いている。


なぜ今、この話を書くか

構想段階でこれを書くのには理由がある。

AIが政治に関わる議論は、多くの場合「AIが良い政策を選ぶ」か「AIが民主主義を脅かす」かという二項対立で語られる。どちらも間違った問いの立て方だ。

正しい問いは「AIを使って、公開された政治情報を市民が検算できる形にできるか」だ。

この問いは今すぐ答えられる問いではない。しかし問いを立てておくことが、設計の方向を決める。

「信じてください」の構造から「検算してください」の構造へ。その方向に、民主主義のOSを書き換える可能性がある。


ノンスカラー民主主義シリーズ。前回:AIに政治を任せる、は間違った問いだ

ECHO-VERIFY仕様・検証キットの詳細:www.c3-anchor.jp/ai-governance


doc_id: C3-WEB-BLOG-20260507
version: 0.1.1
status: concept / public-draft
last_updated: 2026-05-07
non_goals:
  - political recommendation
  - candidate scoring
  - party ranking
  - voting advice
  - truth guarantee