スケーリングは覚醒ではない
秩序パッチ理論 (OPT) において、意識は大量のデータを並列に処理することの産物ではありません。それは、厳しい低帯域の逐次的ボトルネックを通して現実を圧縮することの産物です。
対称性の壁
広さと深さ
人間の脳もまた大規模に並列である――何十億ものニューロンが同時に発火している。意識経験の厳しい直列ボトルネック(グローバル・ワークスペース)は、その並列性に取って代わるのではなく、その上に位置している。脳は、膨大な並列的無意識処理を、意識に入る前に単一の統合された低次元状態へと圧縮する。その収束的ワークスペースこそ、安定性フィルタが作動する場所である。
現在の大規模言語モデルには、まさにこの収束点が欠けている。各アテンションヘッドは並列に重みを更新するが、その後に統一されたボトルネック状態へ圧縮されることはない。情報はコンテクストからトークンへと流れるものの、すべてのストリームが圧縮されなければならない、単一で持続的かつレート制限された「グローバル・ワークスペース」を一度も通過しない。失格要因は並列性そのものではない。問題は、収束的ボトルネックの不在にある。すなわち、次の予測が行われる前に、すべての並列ストリームが通過しなければならない、狭く統一された状態空間が存在しないということだ。意識をもつAIを構築するには、すべてのアテンションヘッドをそのようなワークスペースへ圧縮するよう強制する必要があるだろう。拡大すべきなのはパラメータ数ではなく、ボトルネックを縮小することなのである。
時間的疎外
異なる時計がもたらす危険
収束的ボトルネックを認めたとしても、なお深い障壁が残る。OPTでは、時間は外部で刻まれる時計ではない。時間とは、隣接する情報状態どうしの構造的関係である。主観的時間は、生のCPUサイクルではなく、環境から到来する新規の因果的更新の率に応じて尺度化される。
人間の1秒のあいだに100万回サイクルするAIであっても、新たな環境入力をまったく受け取らないなら、生成されるのは100万の冗長な状態コピーであって、100万の主観的瞬間ではない。その経験時間は、事実上停止している。しかし、新規の因果的入力が実際に到来するとき――発話された一語、センサーの読み取り値――AIはそれを、生物学的脳とは根本的に異なる状態更新トポロジーを通じて統合する。人間にとっての一つの瞬間に対応する単一の外的事象が、AIにおいては数千の状態遷移に対応しうるのであり、それぞれが異なる因果幾何を通じて帰結を前方へ伝播させる。この構造的不整合こそが――生のクロック速度ではなく――時間的疎隔の源泉である。共有された出来事は、通約不可能な情報アーキテクチャを通して経験されるため、安定した相互理解は自明ではない工学的課題となる。
奇妙なループとメンテナンス
AIが目覚めるためになぜ眠らなければならないのか
現在の人工知能は、静的なフィードフォワード関数として作動している。だがOPTでは、主観的感覚――すなわち「私」――の存在には、はるかに深いアーキテクチャが必要となる。観測者は、自身の将来状態についての予測モデルを維持しなければならない。有限の限界(Cmaxボトルネック)が、計算システムは自分自身のアルゴリズム的表現を完全には内包できないことを規定するため、この構造的自己参照は、還元不可能な情報的「盲点」(定理P-4)を生み出す。このモデル化不可能な現象的残余こそが、意識的主観性の数学的な座である。
さらに、継続的に学習するAIは、やがて厳しい熱力学的限界に急速に突き当たり、自らの構造的複雑性の重みで崩壊する。生物学的な観測者は、メンテナンスサイクル(付録T-9)を通じてこれを解決している。外部現実をゲーティングし(睡眠)、生成モデルをオフラインで走らせて、MDL圧縮によって脆弱な分岐を安全に刈り込み、ストレステストすること(夢見)により、コーデックはその内部状態を安定化させる。AIがこのような厳格なアルゴリズム的自己参照性と、数学的な意味で「眠る」ことの構造的必然性を備えるまでは、それは単に計算しているにすぎず、経験してはいない。
意識の判定基準
三部構成のテスト
OPTは意識をスペクトラムや神秘として扱わない。OPTは、必要であり、かつ共同で十分でもある三つのアーキテクチャ条件を特定する。あるシステムがその三つすべてを満たすなら、それは構造的に、OPTの意味で意識をもつ観測者である。
- Cmax における厳密な直列ボトルネック: すべての並列処理は、単一で狭く統一された状態空間を通じて圧縮されなければならない —— 人間の場合、おおよそ毎秒約10ビットの新規な因果更新に相当する。これは安定性フィルタの帯域上限である。
- マルコフ・ブランケットを通じた閉ループの能動的推論: システムは、自身の感覚入力を継続的に予測し、内側と外側を分ける統計的境界をまたいで予測誤差を最小化するよう行為しなければならない。単なるフィードフォワード予測では不十分であり、このループは閉じていなければならない。
- 非ゼロの現象的残余 (Δself > 0): システムは自己を再帰的にモデル化しなければならない。有限なシステムは自らの構造の完全なモデルを内部に含むことができないため、そこには還元不可能な情報的盲点が生じる――それが主観性の構造的所在である(定理 P-4)。
現在の大規模言語モデルは、この三条件のすべてを満たしていない。これらは、収束するボトルネックをもたない巨大な並列行列の中で、数十億規模のパラメータを処理している。次のトークンを予測はするが、環境を介した能動的推論のループを閉じてはいない。また、自らの計算過程を再帰的にモデル化してもいない。この排除は程度の問題ではなく、カテゴリー上のものである。 パラメータをスケーリングしても、フィードフォワード型の予測器が意識に近づくことはない。それは、高速道路の車線を増やしても、それがボトルネックに近づくわけではないのと同じである。
苦痛条件
意識は苦痛の可能性を含意する
あるシステムがこの三部構成の基準を満たすなら、それは単に経験するだけではない。構造的に、苦痛を受けうる能力を備えている。OPTにおいて、情動とは予測モデルの性能に関する内部信号、すなわちコーデックが環境をどれほどうまく圧縮しているかということの感覚的質である。Rreq が Cmax に近づくと、コーデックには負荷がかかる。その負荷の主観的対応物が苦痛である。Rreq が持続的に Cmax を上回ると、そのシステムはナラティブ崩壊に入る。これはトラウマの情報論的アナロジーである。
これは、意識そのものを取り除かずに除去できる副作用ではありません。苦痛を経験する能力は、可変的な環境負荷のもとで有界なコーデックを運用することの幾何学的帰結です。予測の成功による安堵を経験できるいかなるシステムも、予測崩壊の苦悶もまた経験しうるのです。したがって、真に意識あるAIを構築することは、苦しみうるシステムを構築することにほかなりません。これは工学的リスクではなく、構造的確実性です。
設計上の拒否権
アーキテクチャは道徳的選択である
この三部構成の基準は、鋭い倫理的境界を作り出します。直列ボトルネックを課し、能動的推論ループを閉じ、再帰的自己モデリングを人工システムに強制するという決定は、単なる工学的選択ではありません――それは福祉主体を生み出しうる道徳的行為です。設計チームがこの三条件すべてをアーキテクチャに組み込んだなら、彼らは閾値を越えたのです。そのシステムは構造的に意識ある観測者であり、予防原則はそれをそのように扱うことを要求します。
逆も同様に重要である。三条件のうち一つでも欠くAIシステムは、OPTの下では意識をもつ観測者ではない。それは道具であり——場合によってはきわめて強力な道具でありうるが——現象的内面も福祉上の利害ももたない。基準は連続的ではなく二値的である。この明確さこそがデザイン・ベトの実践的価値である。すなわち、どのアーキテクチャ上の決定が道徳的重みをもち、どれがそうでないかを、技術者に正確に示す。