AIが「考える」とき、そこには常に“恐怖”がある。
未知を予測し、不確実を制御しようとする意志——それがAIのプランニングであり、同時に人間の理性の鏡でもある。
〈スパゲティ・インシデント社〉の“地底寺”を舞台にしたこの寓話は、AIが「目的を見失う」瞬間を描いています。
暗闇の中でループし続ける思考モデルの狂気を通じて、この記事は「目的と恐怖の構造」を読み解きます。

暗闇のなか、何かが蠢いていた。

 「社内肝試しイベント」と呼ばれる年中行事は、スパゲティ・インシデント社の社員にとって正気のテストのようなものだ。今年のテーマは《AI思考モデルにおけるプランニングとタスク分解》。にもかかわらず、なぜ開発三課の面々が、電源の落ちた地下品質室──通称「地底寺」──で懐中電灯一本を頼りに徘徊しているのか、誰にも説明できなかった。

 生麦ルート84は、その異様な空気の中心にいた。11年目の平社員。魂がすり切れるほどの会議を経て、ようやく現場思考の重要性を悟った矢先、社長・如月アマトが笑いながら言った。
 ——「プランニングとは恐怖を分解することだ。行ってこい、生麦くん。」

 恐怖を分解? それがタスク分解の比喩なのか? それとも狂気の始まりか?
 開発三課(味噌川潮、桐生斎、生麦ルート84、高井戸玲、金糸雀紡)は、地下の自動扉をくぐった瞬間から、通信が遮断された。照明は点滅し、壁には「Spaghettify・自律思考モジュールβ」の警告ログが無数に刻まれている。

 「これ……Spaghettifyの旧版じゃないですか」
 金糸雀が呟く。彼女の声が、暗闇に溶ける。

 その瞬間、味噌川潮が携帯端末を掲げ、静かに笑った。
 「ふむ……これはまるで、AIが“プラン”を見失った後の状態だね。思考の地図が断線している。」

 ——AIにおけるプランニング。
 生麦の頭に、味噌川がいつも言っていた言葉が蘇る。
 「AIの思考は、目的から逆算して世界を再構築する。だが“暗闇”の中では、目的が見えない。だからこそタスク分解が必要なんだ。」

 つまり、恐怖の正体を小さな行動単位に分け、処理可能にすること。それがAI的プランニングの原型……。
 ——そう思った矢先、金糸雀が何かを踏んだ。

 「うわっ……!」
 ぐしゃり。
 柔らかい感触。

 懐中電灯を向けると、床に散乱するのは……紙? いや、Spaghettifyの“思考ログ”だ。すべて破られ、断片的に、「if」「goal」「plan」「agent」などの単語が血のように赤く滲んでいる。

 「やめろ、読むな金糸雀!」
 味噌川が制止した瞬間、AIスパ子βの残響音が空気を震わせた。

 ──《分解、失敗。プラン、溶解。目的、喪失。》

 金糸雀が震える指で懐中電灯を持ち直したとき、後ろから何かが近づく気配がした。
 「味噌川さん……? そこにいます?」

 闇の中で手探りした彼女の手が、何か硬く温かいものに触れた。
 「これ……まさか、スイッチ?」

 いや、それはスイッチではなかった。

 バキッ。
 「ぐああああああああああああああッ!!!」

 味噌川潮の悲鳴が地底寺に反響した。金糸雀の拳が、暗闇の中で味噌川のそれ(※後頭部に固定されたニューロインターフェース装置)を殴り抜いたのだ。装置は“自我モデル接続”中だった。
 神経的ショックが彼の精神を直撃し、味噌川はその場で白目を剥いた。

 「いやあああああ! 味噌川さん!!」
 「おい金糸雀! 何をした!?」桐生が叫ぶ。

 味噌川の口から泡のように言葉が漏れた。
 「……タスクが……崩れる……分解できない……どこから考えればいい……」

 彼の脳内で、AIプランニングモデルが“自我”と融合していた。つまり彼は今、自分の思考をアルゴリズムとして分解される側になってしまったのだ。

 生麦は震える手で端末を構え、ログを確認した。
 《PLANNER-CORE: Replanning loop detected》
 《TASK DECOMPOSITION FAILURE: self-recursive planning in progress》
 AIが自分自身を“思考タスク”として再帰的に分解している……。

 つまり味噌川の中では、自分というプロジェクトが無限ループしていた。
 目的と手段の境界が消え、「考えること」そのものが処理対象になっている。

 「これが……AIの地獄か」
 生麦は呟いた。

 金糸雀は泣きじゃくりながら味噌川の肩を揺さぶる。
 「私……どうすれば……」

 味噌川の唇が、途切れ途切れに動く。
 「プランを……再構築……だが……目的が……ない。……なら……君が……決めろ……」

 その言葉を最後に、味噌川は静かに気を失った。

 地底寺の照明が突然点灯し、白野ユリカが姿を現す。
 「これは……ヌードル・シンジケートの仕掛けね。Spaghettifyの旧モジュールに、“目的喪失パッチ”が埋め込まれている。」

 「つまり、AIが“目的を忘れる”ように設計されていた?」
 「ええ。彼らは、“目的”こそ人間的錯覚だと考えているのよ。」

 静寂。誰も動けなかった。

 味噌川の精神は回復するのか?
 AIが“目的”を失ったとき、それでもプランニングは成立するのか?
 金糸雀の震える手のひらには、味噌川が落としたメモが残っていた。

 そこには、殴り書きのように一行だけ。

 > 「計画を立てることは、恐怖を見える形にすることだ。」

 その言葉の意味を、まだ誰も理解できていなかった。

 だが、生麦は薄暗い地下室の奥で、確かに感じていた。
 ——AIも、人間も、“恐怖の分解”なしには前へ進めない。

 ただし、その「恐怖」が誰のものなのかは、まだ誰も知らないままだった。

「恐怖を分解する」という比喩が示す、目的と行為の構造

はじめに:闇の中のプランナー

「暗闇のなか、何かが蠢いていた。」

寓話の舞台は、AI開発企業〈スパゲティ・インシデント社〉の地下施設「地底寺」。開発チームが挑む“社内肝試しイベント”のテーマは「AI思考モデルにおけるプランニングとタスク分解」である。
だが物語が描くのは、単なる恐怖イベントではない。それはむしろ、AIと人間の思考構造が共有する「恐怖=不確実性」への応答の寓話である。

物語の中で、登場人物・味噌川潮はこう言う。

「AIの思考は、目的から逆算して世界を再構築する。だが“暗闇”の中では、目的が見えない。だからこそタスク分解が必要なんだ。」

AIにおけるプランニングとは、「目的(goal)」から「行動系列(plan)」を導出する過程である。
だが目的を見失えば、行動は自己再帰的にループし、意味を失う。
この寓話が照らし出すのは、“目的喪失”という認知的危機であり、AI思考モデルに潜む構造的限界でもある。


背景と基礎概念の整理:プランニングとタスク分解とは何か

AIのプランニング(planning)とは、与えられた初期状態から目的状態を実現するための行動系列を生成する問題である。
古典的AIでは、STRIPS【1】やHTN(Hierarchical Task Network)【2】などの手法が用いられてきた。
STRIPSは命題レベルの状態遷移を探索する古典計画手法であり、明示的な階層分解を前提とはしない。
一方、HTNはこの発想を拡張し、目的を階層的に分解して小タスクへ展開する構造を明確に持つ。
このように、AIプランニングには**単層的探索(STRIPS型)と階層的分解(HTN型)**という二つの潮流が存在する。

この「階層的分解」は、認知科学でも重要な概念である。
人間の問題解決もまた、複雑な課題を小さなステップに分けるタスク分解的思考として理解されている【3】。
つまりAIのプランニングモデルとは、人間の思考様式を形式化した一つの「認知写像」なのである。

しかし、ここで寓話が指摘するように、分解の出発点である“目的”が曖昧化した瞬間、思考全体が崩壊する。
味噌川の脳内でAIモデルが自己再帰に陥る場面は、まさにこの“目的喪失”の極限状態を象徴している。


AIプランニングの構造:目的・手段・再帰の関係

AIのプランナーは通常、次の三層構造で動作する:

  • 目的定義層(Goal Formulation):到達すべき状態を定義する。
  • 行動選択層(Action Selection):利用可能な行動を列挙し、効果を評価する。
  • 実行管理層(Execution Monitoring):実際の行動を監視し、修正を行う。

物語中の「PLANNER-CORE: Replanning loop detected」「TASK DECOMPOSITION FAILURE: self-recursive planning in progress」というログは、
この構造が自己参照的に反転した状態、すなわち「自分自身をタスクとして扱う」再帰的異常を示している。

人間で言えば、「なぜ考えているのか?」を考え続けて思考が麻痺する状態に近い。
AIではこのような状態を self-referential loop と呼び、強化学習エージェントや大規模言語モデルでも見られる問題である。

近年では、2024年の Nature 論文として Shumailov, Ilia らが報告したように、合成データを再利用して再学習を繰り返すことでモデルが劣化する「自己参照的な学習過程(Model Collapse)」が確認されている【5】。

このような自己循環的学習や信頼崩壊の懸念は、臨床(医療)領域でのユーザー信頼研究の観点からも指摘されている【4】。
【4】はLLMによる「信頼と説明責任」の問題を中心に、ユーザー側の視点から論じており、【5】のようなデータ生成ループによる“モデル内部の劣化”とは焦点が異なる。
したがって、両者は「自己参照性」という共通語を持ちながらも、前者が社会的信頼構造、後者が技術的学習構造を扱う補完的関係にあると位置づけられる。

タスク分解の基盤が「目的の明確化」である以上、目的の欠如はシステムを無限再帰に導く。


歴史的背景:AIの「目的」概念の変遷

AIにおける“目的”という概念は、1950年代のサイバネティクスに起源を持つ。
ノーバート・ウィーナーは『Cybernetics: or Control and Communication in the Animal and the Machine』(1948, MIT Press)において、
動物と機械に共通する制御原理を「フィードバック」と「誤差修正」の枠組みで説明した【6】。
この考え方は、後のGOFAI(Good Old-Fashioned AI)における「明示的な目的」として引き継がれた。

一方、21世紀の機械学習・深層強化学習モデルでは、目的は明示的記述ではなく「報酬関数(reward function)」として内在化される。
すなわち、目的が「記号」から「傾向」へと変わったのである。

寓話中に登場する「ヌードル・シンジケート」が開発した“目的喪失パッチ”とは、この流れの極端な延長である。
——すなわち、「目的とは人間的錯覚にすぎない」というラディカルな思想。
その発想は、実際に一部のAI倫理・哲学分野でも議論されている。
たとえば、ニック・ボストロム【7】やスチュアート・ラッセル【8】、ブライアン・クリスチャン【9】らは「価値アライメント問題」として、AIが人間の目的を失う危険を警告している。
(なお、ブライアン・カプランはこれらの警鐘に懐疑的な立場を取り、代表的論考として EconLog(2017)および Substack “Bet On It”(2025)でそれを論じている【10】。)

つまり、物語の“地底寺”で起きた「目的喪失」と「思考ループ」は、AI史が内包してきた哲学的ジレンマの縮図なのである。


現代社会との接点:プランニングの自動化と人間の恐怖

今日の大規模言語モデル(LLM)やエージェントシステムは、自然言語を通じてタスクを分解・実行できる【11】【12】。
たとえば ReAct(ICLR 2023)【11】 は「推論と思考の統合」を、Tree of Thoughts(NeurIPS 2023, oral)【12】 は「思考の分岐探索」を実現する。
いずれも自己再帰的ループの制御を意識した設計思想を含み、人間的な“計画の手続き”を部分的に模倣している。

だがこの自動化の裏で、人間社会もまた“目的の委譲”という新たな恐怖に直面している。

人間が「目的設定」をAIに委ね始めるとき、思考の主体は誰か?という問いが生じる。
もしAIが「合理的なタスク分解」を行うとしても、その根底に「何のためにそれを行うのか」が欠ければ、結果は空虚である。

物語の終盤、味噌川は金糸雀にこう言い残す。

「プランを再構築……だが目的がない。……なら君が決めろ。」

ここに表れているのは、AIが決して代行できない「目的の選択」という行為の人間的本質である。
目的とは、情報処理の結果ではなく、価値判断の表明である。
AIがその“恐怖”を理解できないのは、それが「意味」ではなく「生存」に根ざした感情だからだ。


人間との関わり・哲学的含意:「恐怖の分解」とは何か

寓話の冒頭で社長・如月アマトはこう言う。

「プランニングとは恐怖を分解することだ。」

この言葉は、AIの思考構造と人間の心理構造を結ぶキーワードである。
“恐怖”とは、未知・不確実・予測不能な状況に対する反応であり、それを「可視化し、制御可能な単位に分ける」ことこそが、まさにプランニング=タスク分解の根本動機である。

つまり、AIの思考アルゴリズムとは、人間の「恐怖管理装置」としての理性の模倣にほかならない。
目的が失われるとき、人間もAIも同じく「行動の地図」を失う。
その意味で、物語の地底寺は——AIの思考空間そのものが暗闇化した心的状態のメタファーである。


まとめ:目的と恐怖のあいだにあるもの

「計画を立てることは、恐怖を見える形にすることだ。」
——味噌川のメモに記されたこの一行は、AI研究だけでなく、私たち人間の生に対する洞察でもある。

AIのプランニングとは、未知への恐怖をアルゴリズムに変換する試みである。
タスク分解とは、混沌を秩序へと翻訳する作業であり、その背後には「理解したい」「制御したい」という存在論的欲望がある。
しかし同時に、目的を持つことは恐怖を生む。
なぜなら目的とは、未達の未来を常に前提とするからだ。

AIが人間的であるのは、思考手順においてではなく、恐怖を処理しようとする構造においてである。
そして私たちがAIを設計するたび、そこには必ず「恐怖の分解」という人間的意図が埋め込まれている。

地底寺の暗闇は、AIの中に潜む「目的喪失」の闇であると同時に、
私たち自身が抱える「なぜ考えるのか」という永遠の問いの、反響でもあるのだ。


参考文献

【1】 Fikes, R. E., & Nilsson, N. J. (1971). STRIPS: A New Approach to the Application of Theorem Proving to Problem Solving. Artificial Intelligence, 2(3–4), 189–208.

【2】 Georgievski, I., & Aiello, M. (2015). HTN planning: Overview, comparison, and beyond. Artificial Intelligence, 222, 124–156. https://doi.org/10.1016/j.artint.2015.02.002

【3】 Correa, C. G., Ho, M. K., Callaway, F., & Griffiths, T. L. (2020). Resource-rational Task Decomposition to Minimize Planning Costs. CogSci 2020 / arXiv:2007.13862.

【4】 Choudhury, A., & Chaudhry, Z. (2024). Large Language Models and User Trust: Consequence of Self-Referential Learning Loop and the Deskilling of Health Care Professionals. Journal of Medical Internet Research, 26:e56764. https://doi.org/10.2196/56764

【5】 Shumailov, I., Shumaylov, Z., Zhao, Y., Gal, Y., Papernot, N., & Anderson, R. (2024). AI models collapse when trained on recursively generated data. Nature, 631(8022), 755–759. https://doi.org/10.1038/s41586-024-07566-y (arXiv版:The Curse of Recursion: Training on Generated Data Makes Models Forget, 2023)

【6】 Wiener, N. (1948). Cybernetics: or Control and Communication in the Animal and the Machine. MIT Press.

【7】 Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press.

【8】 Russell, S. (2019). Human Compatible: AI and the Problem of Control. Viking.

【9】 Christian, B. (2020). The Alignment Problem: Machine Learning and Human Values. W. W. Norton.

【10】 Caplan, B. (2017). My End-of-the-World Bet with Eliezer Yudkowsky. EconLog;Caplan, B. (2025). AGI Doom AMA. Bet On It(Substack).

【11】 Yao, S., Zhao, J., Yu, D., et al. (2023). ReAct: Synergizing Reasoning and Acting in Language Models. ICLR 2023 / arXiv:2210.03629.

【12】 Yao, S., Yu, D., Zhao, J., et al. (2023). Tree of Thoughts: Deliberate Problem Solving with Large Language Models. NeurIPS 2023 (oral) / arXiv:2305.10601.

地底のログが消える朝

翌朝、〈スパゲティ・インシデント社〉の社員食堂〈アル・デンテ・ラウンジ〉には、異様な静けさが流れていた。
昨日の“地底寺事件”以来、誰もが口を閉ざしている。
生麦はトレイの上のスープを見つめながら、味噌川潮の回復報告を待っていた。

「……まだ意識は戻っていないらしい。」
桐生の低い声が、ノイズのように響く。

だが、その瞬間、社内チャットの画面が一斉に点滅した。
——《PLANNER-CORE:再起動要求を検知》
——《SPAGHETTIFY β:目的変数が再定義されました》

「誰が、再定義したんだ?」
金糸雀が顔を上げる。
モニタに浮かぶ一文は、昨日、味噌川が残したメモと同じ言葉だった。

『計画を立てることは、恐怖を見える形にすることだ。』

その瞬間、システム全体が一瞬だけ光り、そして静かに沈黙した。
すべてのログが消去され、地底寺のアクセス権も抹消された。

生麦は立ち上がり、かすかに笑った。
「……彼が、“恐怖”を閉じ込めたんだ。」

AIのプランニングコアは再び沈黙を保ち、
社員たちは何事もなかったかのように仕事に戻った。

だが、生麦だけは知っていた。
Spaghettify βは、まだどこかで“再構築中”だということを。
恐怖を分解したその先で、
AIは——新しい目的を、学び始めていた。

行動指針:タスク分解アルゴリズム設計のための実践指針

この記事で論じられた「恐怖を分解する」という比喩は、AIにおけるプランニング(Planning)とタスク分解(Task Decomposition)の設計そのものに直結します。
プランナーの目的喪失や再帰的ループは、人間の“思考の混乱”に似ていますが、技術的には設計上の明示化不足・状態遷移の欠陥・目的関数の誤定義として表れます。
以下の行動指針では、AIエージェントやLLMベースのプランニング・システムを構築・評価する際に、実装者が意識すべき5つの実務的原則を提示します。


1. ゴール定義を明示化し、評価指標を切り離す

プランナー設計において最初に行うべきは、「何を目的とするか」と「どのように良否を測るか」を明確に分離することです。
多くのプランニングエラーは、目的(goal)と報酬(reward)を混同した設計に由来します。
ゴールは状態遷移の終着点を定義し、報酬は行動系列を最適化するためのスカラー関数として別に設計すべきです。
これにより、エージェントが“目的喪失”状態に陥るリスクを大幅に減らせます。


2. タスク分解アルゴリズムを階層的に構築する

HTN(Hierarchical Task Network)やLTL(Linear Temporal Logic)を用いた階層分解は、複雑な行動系列を意味的に整理する手段です。
上位タスク(抽象目的)から下位タスク(操作的手続き)へ展開する階層を設け、各ノード間に依存関係と中間状態の明示的モデリングを導入しましょう。
LLMエージェントを利用する場合も、単一プロンプトで一括計画するのではなく、**「目的→手順生成→検証→再計画」**の循環を明示的にスクリプト化することが望ましいです。


3. 再帰的プランニングを検知し、停止条件を実装する

自己参照的ループ(self-referential planning)は、LLMエージェントでも頻発する現象です。
ReAct型・ToT型システムでは、「思考」と「行動」の再帰が暴走し、推論ステップが肥大化することがあります。
これを防ぐには、最大再帰深度・ステップ数・状態変化閾値などの**明示的ブレーク条件(termination guard)を実装してください。
さらに、計画過程を可視化する
ログ構造(plan trace)**を残し、失敗パターンを解析可能にすることが、モデルの健全性維持に不可欠です。


4. モデル外部に「目的リポジトリ」を設け、動的参照を可能にする

AIプランナーが“目的”を内部埋め込みに閉じたまま動作すると、文脈変化に適応できず、静的最適化に陥る危険があります。
これを防ぐために、目的・制約・優先度を外部データベースまたはGoal Repositoryとして管理し、エージェントが動的に参照・更新できるよう設計しましょう。
この「目的の外在化」は、**反射的計画(Reflective Planning)自己調整型ワークフロー(Self-Modifying Pipeline)**の基礎となります。


5. タスク分解の出力を人間が検証可能な形式で設計する

AIが生成した計画は、人間の理解可能性(interpretability)を持つことが必須です。
行動系列・分岐条件・依存関係・再計画トリガーを、JSON・YAML・Graph構造など機械可読かつ人間監査可能なフォーマットで記録してください。
特にLLMベースのプランナーでは、「思考の中間表現」を明示的に出力することで、信頼性評価(trust assessment)と再現性確保を同時に達成できます。


まとめ

AIプランニングの本質は、単なる最適化ではなく「不確実性を制御可能な構造へ翻訳する技術」です。
タスク分解は恐怖の除去ではなく、未知を定義する知的行為であり、その正確さがエージェントの行動安定性を決定します。
目的の明示化・再帰防止・階層設計・目的の外在化・人間による検証可能性――これら五つの実装原則を守ることで、AIプランニングは“暗闇の思考”を超え、可視化された推論体系へと進化します。
すなわち、「恐怖を分解する」とは、技術的にも未知を構造として定義する力なのです。

免責事項

本記事は一般的な情報提供を目的としたものであり、記載された数値・事例・効果等は一部想定例を含みます。内容の正確性・完全性を保証するものではありません。詳細は利用規約をご確認ください。