行政AI導入の現場では、「透明性」「公平性」「効率化」といった言葉が美しく響く一方で、その裏にある“責任の所在”や“判断の意味”が次第に見えにくくなっています。
寓話「透明性の拳」で白野ユリカが叩き割ったのは、単なる液晶画面ではなく、人間とシステムを隔てる境界線そのものでした。本記事では、行政・公共機関におけるAI導入の構造を、
制度・倫理・技術の三側面から再構成し、「透明性」という幻想の正体を探ります。
透明性の拳
昼休みの終わり際、開発三課の休憩室には、電子レンジのモーター音と、スパ子βの朗読が混じっていた。
「――行政デジタル化の未来とは、人間中心設計の再定義である」
壁のテレビでは、スーツ姿の政治家が、やけに滑舌よくAI政策の進展を語っていた。背景には「国民体験の最適化」というスローガン。だが、テロップの字体がやけに安っぽく、言葉の裏側に漂う空虚さを隠しきれていない。
生麦ルート84は、半分溶けたコンビニのカルボナーラをすすりながら、それを眺めていた。隣のテーブルでは白野ユリカが、黙々と無糖コーヒーを飲んでいる。彼女は外部監査人であり、スパゲティ・インシデント社におけるAI倫理実装の監査を担当していた。だが、その姿勢はどこか、監査というより“観察”に近かった。
政治家の声が、突然トーンを変える。
「AIは行政の透明性を高め、国民一人ひとりに最適な政策を――」
その瞬間だった。白野が、音もなく立ち上がった。
そして、拳をまっすぐテレビの液晶に叩き込んだ。
バギッ。
画面が蜘蛛の巣状に割れ、光の筋がゆらめいた。
「……っ!?」
生麦はフォークを取り落とした。カルボナーラの麺が床に落ちる音が、やけに長く響いた。
ユリカは拳を握ったまま、低く息を吐いた。
「“透明性”ね。あれほど不透明な言葉もないわ」
静寂。電子レンジの余熱がまだ漂う。
「……えっと、白野さん。テレビ……」
「壊れたわね」
「いや、その……理由をお聞きしても?」
白野はゆっくりと目を閉じ、椅子に腰を戻した。
「行政AI導入――つまり、“人間の判断を機械に委ねる”という幻想よ。政治家は、それを『効率化』とか『公平性』と呼んで飾る。でも、裏では“責任の再配置”が進んでいる。誰も責任を取らない構造の再構築」
生麦は喉を鳴らした。確かに、最近はスパゲティ・インシデントにも、地方自治体からのAI導入案件が増えていた。交通最適化、福祉支援、入札評価――どれも「中立なアルゴリズム」を看板にしているが、実際は旧来の癒着構造を数式化しているにすぎないケースも多い。
「でも……AIを入れなければ、人手もコストも――」
「問題は“入れること”じゃないの。入れたあと、誰が“間違い”を認識できるか、なのよ」
白野の声は静かだった。
「行政AIの導入過程では、モデルの設計者、データの提供者、意思決定者がそれぞれ異なる。結果、何が“判断”で、何が“再生産された偏り”なのか、誰も見分けられない。AIは“権限の外注装置”になりやすい」
生麦は一瞬、味噌川潮の顔を思い出した。
「人間の正しさを模倣するAIは、人間以上に“無責任”になる」
以前、味噌川がそう呟いた日のことを。
白野は続けた。
「行政のAI導入って、言ってみれば“信頼のプロトコル化”なの。どの判断を信じるか、をプログラム化する。だけど、信頼を形式に落とした瞬間、そこには“信じる人間”が消える」
彼女はふと笑った。
「ヌードル・シンジケートが、行政AIの基幹部分に侵入したという噂、知ってる?」
「……え? 本当に?」
「ええ。“NOODLECORE”が政策文書の文章粘性を測っているって。高すぎる粘性を持つ言葉――つまり、“国民を安心させすぎる表現”を自動的に排除してるそうよ。透明な言葉しか残らない政治文書。ね、滑稽でしょう?」
生麦の背筋に冷たいものが走る。
もしそれが事実なら、彼らは国家レベルの意味操作を始めたことになる。
だが――本当にそんな仕組みを政府が気づかず使っているのか? それとも、知っていて見て見ぬふりをしているのか?
「生麦君」
白野が、割れた画面を見つめながら呟いた。
「もし“透明性”が完全に実現した社会があったとしたら、そこに“人間”はまだ存在していると思う?」
答えられなかった。
液晶のひびの向こうで、政治家の顔が歪み、ノイズ混じりの声でまだ語り続けていた。
「――AIが人を救う時代へ――」
白野は立ち上がり、コートを羽織った。
「報告書、午後までに出すわ。あの政策案件、構文解析の出所を調べる必要がある」
彼女が去った後、生麦は、割れた画面の前に残された微かな光を見つめた。
そこには、消えかけたテロップが一行だけ残っていた。
> “行政AI推進本部 協力:N.S.テクノロジーズ”
N.S.――ヌードル・シンジケート。
息を呑む。
休憩室の時計が午後一時を指す。
生麦は、まだ震える指でリモコンを手に取った。
割れた画面を消すことが、なぜか怖かった。
“透明性の先に、何が見えるのか。”
それが、この日の昼休みに残された、唯一の問いだった。
「透明性」という幻想の構造を読み解く
はじめに:拳が割ったものは、ガラスか、幻想か
白野ユリカがテレビ画面に叩き込んだ“透明性の拳”は、単なる怒りの象徴ではない。彼女が壊したのは、液晶という物理的な媒体ではなく、「AIによる行政の透明化」という言葉が隠していた幻想そのものであった。
現代の行政AI導入は、効率化・公平性・説明責任といった理念の名の下に急速に拡大している。だが、寓話が示すように、その進展は「人間の判断の機械化」というより、「責任の再配置(redistribution of accountability)」として理解すべき構造を持つ。
本稿では、行政分野におけるAI導入の全体像を、制度的・技術的・倫理的な観点から再構成する。そして、物語に繰り返し現れる「透明性」というキーワードが、いかにして信頼と人間性の問題に転化するかを考察する。
背景と基礎概念:AIガバナンスとは何を意味するのか
行政機関におけるAI導入とは、単に技術の採用を意味しない。それは「意思決定プロセスの再設計」である。たとえば、自治体が生活保護の審査、交通規制、入札評価などにAIを導入する場合、そこでは膨大な行政データを学習させたモデルが政策判断の一部を担うことになる。
このとき、重要なのは「AIガバナンス」という概念である。AIガバナンスとは、AIの設計・運用・監視・評価を通じて社会的価値(公平性、説明可能性、安全性など)を確保する仕組み全体を指す【1】。
〔補記:経済産業省・総務省『AI事業者ガイドライン(AIガバナンス)』(2024–2025年版/第1.1版対応)では、「AIのライフサイクル全体における説明可能性・公平性・安全性・プライバシー保護を確保する仕組み」を共通の指針として掲げている(METI公式サイト、2025年3月28日改訂版)〕
しかし現実には、AIの「説明可能性(Explainability)」や「バイアスの是正」などが部分的に議論される一方で、行政制度全体における責任の所在、権限の再編、意思決定の正当性という構造的な問題は、十分に議論されていない。
白野ユリカが語った「AIは権限の外注装置になる」という指摘は、まさにこのガバナンスの空白を突いている。AIが判断を代替するとき、行政職員や政治家の「裁量」がアルゴリズムの背後に退き、最終的に誰が決定を下したのかが曖昧になる。そこに“責任の再配置”が生じるのだ。
現実世界における導入構造と制度的課題
行政AI導入のプロセスは、一般に以下の三層構造を持つ。
- 設計層(Model Design):民間企業や研究機関がアルゴリズムを設計・訓練する段階。
- 運用層(Implementation):行政機関が政策や業務にAIを組み込む段階。
- 判断層(Decision-Making):最終的な行政判断や政策形成にAIが参画する段階。
問題は、この三層が制度的にも法的にも分断されている点にある。設計者は「精度」を重視し、行政担当者は「効率」を追求し、政治家は「説明責任」を掲げる。しかし、いずれも「判断の意味論的責任」を負わない。
すなわち、AIが出力した判断を「正しい」と見なす権限者がいながら、その「正しさ」がどのように生じたかを説明できる主体が不在になる。これが、白野の言う「信頼を形式に落とした瞬間、信じる人間が消える」という構造である。
この構造は、法制度の側面からも脆弱である。欧州連合(EU)のAI法(Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024, OJ L 2024/1689, 12 July 2024)【2a】では、高リスク領域(行政、司法、医療等)におけるAI導入に対して、以下の厳格な義務を定めている:
- リスク管理(第9条 Risk management system)【2b】
- データガバナンス(第10条 Data and data governance)【2c】
- 記録保持(第12条 Record-keeping)【2d】
- 人による監督(第14条 Human oversight)【2e】
- 適合性評価(第43条 Conformity assessment procedures)【2f】
一方、日本では2025年現在、「人工知能関連技術の研究開発及び活用の推進に関する法律(AI法)」(令和七年法律第五十三号、2025年6月4日公布、同年9月1日施行)【5】が成立したものの、行政AI導入を個別に規定する法制度はまだ整備途上にある。
〔補記:現行法はAI活用の「推進枠組み法」であり、総則等の一部は公布日に施行、戦略本部等の条項は2025年9月1日施行。個別の行政適用や監査制度は、総務省・経済産業省などが策定する各ガイドラインに委ねられている。〕
多くの自治体は、個別案件ごとに民間ベンダーとの契約に依存しており、監査人(寓話での白野)の役割も限定的である。
歴史的背景:テクノクラシーと「透明性」思想の変遷
行政の「透明性(Transparency)」は、20世紀後半におけるガバナンス改革の中で登場した理念である。もともとは情報公開制度や公文書主義に基づく「権力の可視化」を目的としていた。だが、AI導入によって「透明性」は情報アクセスではなく、「プロセスの可視化」へと変質した。
つまり、行政手続の一部をアルゴリズムに委譲し、その計算過程を公開すれば、制度は透明になるという考え方である。
だが、ここには逆説が潜む。アルゴリズムが高度化するほど、その内部構造は専門的で、一般市民には理解不可能になる。
ゆえに、「技術的透明性」が高まるほど、「社会的透明性」が低下するというパラドックスが生じる。AI倫理学者ケイト・クロフォード(Kate Crawford)は、『Atlas of AI』において「AIシステムは社会的・政治的文脈の中でのみ意味を持つ」と指摘している【3】。
透明化されるべきは数式ではなく、意思決定の力学でなければならない。
現代社会との接点:「信頼のプロトコル化」という危険
物語に登場する「ヌードル・シンジケート」や「NOODLECORE」は、寓話的な形で“AIによる言語操作”の危うさを象徴している。
「政策文書の粘性を測定し、“安心させすぎる言葉”を排除する」――この仕組みは、現代の生成AIによる文書最適化(policy writing automation)の極端な帰結である。
もし、行政文書が「国民を過剰に安心させないよう最適化」されるなら、それはもはや“情報提供”ではなく、“信頼のプログラム化”だ。つまり、人々が何を信じるかを、機械が設計する社会である。
この構造は、現実にも兆候を見せている。2020年代後半から、多くの自治体や政府機関がChatGPT系LLM(大規模言語モデル)を活用した政策文書作成支援を試行している。文体統一や誤字脱字の削減という名目だが、その裏では「政治的に安全な言葉」や「感情的反応を最小化する表現」を自動的に選びやすい傾向が指摘されている【1】【4a】【4b】【4c】【4d】【4e】。
〔補記:これら公的報告書(デジタル庁2024–2025年報告・UK GDS 2025年報告)は主に業務効率・生産性効果を評価するもので、“政治的言語最適化”傾向を直接分析してはいない。したがって、政策言語の中立性への影響を論じる際は、Bang et al., “Measuring Political Bias in Large Language Models,” ACL 2024 のような学術研究を参照すべきである。また、同資料に付される「公平性・バイアスに関する留意事項」において、モデル設計段階でのバイアス配慮を開発者に求める文言が含まれている。〕
つまり、AI導入による透明性とは、「どのように言葉が選ばれたか」を可視化するものではなく、「どのような言葉が選ばれなかったか」を不可視化するものなのである。
人間との関わり:判断・責任・倫理の境界線
行政AIの導入が拡大する中で、最も問われるのは「判断(judgment)」という人間的行為の再定義である。
ハンナ・アーレントは『イェルサレムのアイヒマン』で、「悪とは思考の欠如である」と述べた。AIによる判断の自動化は、まさにこの“思考の欠如”を制度化する危険を孕む。
AIが判断するのではなく、「AIが判断したことを人間が承認する」という構造が広がれば、行政判断の倫理的基盤が空洞化する。
さらに、行政AIの倫理監査はしばしば形式的である。白野ユリカが“観察者”として描かれたのは象徴的だ。彼女の監査は「不正を発見する」よりも、「構造の不透明さそのものを観察する」行為だった。
監査制度がAI開発企業と行政の契約構造に従属する限り、倫理は外注され続ける。そして、「監査の透明性」さえも、別のAIによって測定される時代が到来しつつある。
まとめ:透明性の先にあるもの
「もし“透明性”が完全に実現した社会があったとしたら、そこに“人間”はまだ存在していると思う?」
白野のこの問いは、行政AIの未来に向けた最も根源的な警鐘である。
完全な透明性とは、すべてが記録され、すべてが可視化される社会を意味する。だが、それは同時に「判断の余白」「信頼の飛躍」「責任の感情」といった人間的特質の消失をも意味する。
行政のAI化が進むほど、我々は「見えること」と「理解すること」を混同し、「説明されること」と「納得すること」を取り違える危険にさらされる。
物語の最後、割れた液晶画面に残ったテロップ――“行政AI推進本部 協力:N.S.テクノロジーズ”。
その一行は、現実世界における行政と民間、政治と技術、倫理と効率の結節点を象徴している。AIが行政を支える未来を拒むことはできない。だが、求められるのは“透明性”ではなく、“可解性(Intelligibility)”――すなわち、技術を通じて人間が自らを理解し直す力である。
行政AIの未来は、人間を置き去りにした「透明な制度」ではなく、人間が再び責任を引き受ける「半透明の政治」を目指すべきだ。
白野の拳が割ったのは、透明という名の虚像だった。だが、その破片の向こうにこそ、人間的な判断の光が微かに差している。
参照文献(改訂版最終)
【1】 経済産業省・総務省『AI事業者ガイドライン(AIガバナンス)』(2024–2025年版/第1.1版対応)、METI・MIC、2025年3月28日改訂。
【2a】 Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024, OJ L 2024/1689, 12 July 2024.
【2b】 同第9条:Risk management system.
【2c】 同第10条:Data and data governance.
【2d】 同第12条:Record-keeping.
【2e】 同第14条:Human oversight.
【2f】 同第43条:Conformity assessment procedures.
【3】 Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021.
【4a】 デジタル庁「2024年度 生成AIの業務利用に関する技術検証および利用環境整備を行いました」(2025年6月2日公開)
【4b】 デジタル庁『R6年度 生成AIの業務利用に関する技術検証・利用環境整備 報告書』(2025年6月2日公開, デジタル庁・ELYZA共同事業報告)
【4c】 UK Government Digital Service, Microsoft 365 Copilot Experiment: Cross-Government Findings Report, 2 June 2025
【4d】 Bang, Y. et al., “Measuring Political Bias in Large Language Models,” Proceedings of ACL 2024
【5】 日本国「人工知能関連技術の研究開発及び活用の推進に関する法律」(令和七年法律第五十三号, 2025年6月4日公布、同年9月1日施行)
半透明の倫理――割れた境界線の向こうで
――その後、午後三時。
報告書を提出し終えた白野は、再び開発三課に戻ってきた。
拳の甲には、薄く赤い擦り傷が残っていた。ガラスの破片が刺さったのだろう。
「消毒液、ありますよ」
生麦は慌てて立ち上がり、棚の奥から小さな救急箱を取り出した。
白野は「いいのよ」と笑ってみせたが、生麦は聞かずに綿棒を開けた。
彼がその手を取ると、白野はわずかに眉を寄せた。
細く、冷たい指先。思っていたよりも小さく、整った手だった。
生麦は無意識に息を呑んだ。
指先に触れるたび、その肌の白さが、どこか人工的な美しさを帯びて見えた。
「……見とれてるの?」
白野が片方の眉を上げた。
その声音には、冷ややかな牽制の色が混じっていた。
「倫理監査の対象になるわよ、そういうの」
「い、いえっ!そういう意味じゃ――」
「冗談よ」
彼女は微笑み、指先を軽く引いた。だがその笑みは、どこか疲れていた。
包帯を巻き終えた後、白野は拳を軽く握って確かめた。
「ありがとう。……でもね、生麦君」
「はい?」
「割れたのはテレビじゃなくて、境界線なの。人間とシステムの」
「境界線……」
「ええ。あれを壊さない限り、本当の“監査”なんてできないのよ」
その言葉が、静かな室内に残響のように落ちた。
電子レンジの時計が、再び昼の時間を告げる。
白野の手の包帯が、柔らかな光を反射していた。
透明ではなく、半透明の、かすかな白。
それが、生麦には妙に人間らしく見えた。
行動指針:半透明の倫理へ――“透明性”の先で考える
行政やAI技術の透明性は、理念としては美しいが、運用段階ではしばしば「責任の不可視化」をもたらします。
本記事を読んだあとに求められるのは、“透明な制度”を盲信することではなく、“可解な構造”をつくるための主体的な関与です。
1.制度設計者としての行動 ― 「責任の地図」を描き直す
AI導入時には、判断・監督・監査の三者がどこで交差するかを明文化し、責任の境界を図式化すること。
「誰が何を承認するのか」を曖昧にしたまま導入を進めると、AIは“権限の外注装置”と化します。
透明化よりも、“説明の系譜”を残す制度設計を優先しましょう。
2.技術開発者としての行動 ― 「説明可能性」を“人間に戻す”
Explainabilityの目標はアルゴリズムの解読ではなく、「人間が理解できる言葉で語れる設計」にあります。
出力の正確性よりも、意思決定の経路を対話的に説明できる構造を実装することが、倫理的AIの第一歩です。
3.行政担当者としての行動 ― 「透明性」の名の下に消える感情を拾う
AIが提案する“最適解”に対して、現場の判断者が「違和感」や「人間的感触」を言語化する文化を残すこと。
効率よりも、少数意見・例外・曖昧さを残す余白を制度的に守ることが、行政における人間性の防波堤になります。
4.市民としての行動 ― 「見えるもの」を鵜呑みにしない
公開情報やダッシュボードの“透明なデータ”を批判的に読み、
「なぜこの指標が選ばれたのか」「どんなデータが排除されたのか」を問い直す姿勢を持つこと。
透明性の先にある「不可視の意図」を見抜く力こそ、民主主義の基盤です。
5.研究者・教育者としての行動 ― 「半透明の倫理」を教える
AI倫理を「白か黒か」で語らず、グレーゾーン=“半透明の領域”を分析対象に含める。
学生や職員に、AI判断の限界と、責任感情の必要性を実践的に伝えることが重要です。
倫理は理念ではなく、可視化と不可視化の間を往復する“リテラシー”として再教育されるべきです。
まとめ
白野ユリカの拳が割ったのは、単なるテレビではなく、「人間とシステムの境界線」でした。
私たちはその破片を拾い上げながら、完全な透明性ではなく、理解可能な半透明の社会を目指さなければなりません。
行動とは、幻想を信じることではなく、それを検証し続ける営みです。
“透明性の先に何が見えるのか”――その問いを持ち続けることこそ、AI時代の倫理的実践の第一歩です。
免責事項
本記事は一般的な情報提供を目的としたものであり、記載された数値・事例・効果等は一部想定例を含みます。内容の正確性・完全性を保証するものではありません。詳細は利用規約をご確認ください。