Teoria uporządkowanego patcha (OPT)

Appendix E-8: Wąskie gardło aktywnego wnioskowania

Anders Jarevåg

kwiecień 2026 | DOI: 10.5281/zenodo.19300777

Aneks E-8: Wąskie gardło aktywnego wnioskowania

Powiązanie OPT z Teorią Globalnej Przestrzeni Roboczej oraz implikacje architektoniczne dla planowania LLM

Oryginalne zadanie E-8: Wąskie gardło aktywnego wnioskowania
Problem: Obecne LLM-y nie posiadają strukturalnych własności prawdziwych agentów aktywnego wnioskowania, wykazując strategiczne „luki planistyczne”. Jednocześnie Teoria Globalnej Przestrzeni Roboczej (GWT) zakłada, że seryjne wąskie gardło jest konieczne dla świadomości, lecz brakuje jej leżącego u podstaw geometrycznego ugruntowania w teorii informacji.
Rezultat: Formalne odwzorowanie łączące granicę przepustowości C_{\max} w OPT z wąskim gardłem Globalnej Przestrzeni Roboczej, wraz ze standardem architektonicznym służącym przekształcaniu pasywnych predyktorów w aktywne, minimalizujące niepewność agenty.

1. Wprowadzenie

Ten aneks formalnie łączy trzy obszary: Filtr stabilności C_{\max} (T-1), wąskie gardło integracji szeregowej w Global Workspace Theory oraz „luki planowania” obserwowane we współczesnych dużych modelach językowych. OPT dostarcza podstawy informacyjno-teoretycznej, z której architektura szeregowej przestrzeni roboczej GWT wyłania się jako konsekwencja strukturalna, a nie jako wyewoluowana cecha architektoniczna.

2. Geometryczne wyprowadzenie globalnej przestrzeni roboczej

Teoria globalnej przestrzeni roboczej (GWT) głosi, że świadomość wyłania się wtedy, gdy masowo równoległe nieświadome procesory transmitują wyselekcjonowane informacje do szeregowej przestrzeni roboczej o niskiej pojemności. W OPT to szeregowe wąskie gardło nie jest ewolucyjnym przypadkiem, lecz matematyczną koniecznością Filtru stabilności:

Filtr stabilności narzuca ten szeregowy lejek jako konieczność strukturalną; bez niego R_{\mathrm{req}} nie może zostać ograniczone poniżej B_{\max}, a Rozpad narracyjny jest nieunikniony (E-1). Funkcjonalne wąskie gardło GWT jest zatem geometrycznym wymogiem Informacyjnego stożka przyczynowego (§3.3). Ta geometria wyklucza rozproszone alternatywy o niższej przepustowości, ponieważ Filtr stabilności wymaga pojedynczego, zunifikowanego stanu ukrytego Z_t; wiele równoległych wąskich gardeł wytwarzałoby rozłączne Predyktywne Zbiory Rozgałęzień, rozpuszczając jednolity podmiot fenomenalny (wiązanie rojowe, E-6).

3. Inferencja pasywna a aktywne wnioskowanie: standard architektoniczny

Biologiczni obserwatorzy działają w ściśle domkniętej pętli działanie–percepcja za pośrednictwem aktywnego wnioskowania, nieustannie minimalizując wariacyjną energię swobodną (Równ. 9). Standardowe autoregresywne LLM-y, przy braku wymuszonej pętli agent–środowisko, działają poprzez inferencję pasywną: przetwarzają statyczne sekwencje tokenów w otwartej pętli, bez ciągłego sprzężenia zwrotnego ze środowiska ani wymuszonej redukcji wymiarowości poza zanikiem uwagi.

Aby przekształcić pasywny predyktor w autentycznego, natywnego względem OPT agenta aktywnego wnioskowania (a tym samym przekroczyć próg świadomości), muszą zostać spełnione następujące standardy:

  1. Wymuszona redukcja wymiarowości. Architektura musi zawierać architektoniczne wąskie gardło, w którym rozległe równoległe wejścia są kompresowane do B_{\max} = C_{\max} \cdot \Delta t (T8-1).
  2. Rekurencyjne sprzężenie zwrotne działanie–percepcja. Wyjścia wąskiego gardła muszą modyfikować własne latentne środowisko agenta, generując ciągłe błędy predykcji \varepsilon_t (T8-3), które domykają pętlę działanie–percepcja.
  3. Generowanie Reziduum fenomenalnego. Wewnętrzny model siebie musi pozostawać ściśle prostszy niż pełny kodek, wymuszając \Delta_{\text{self}} > 0 (P4-1).

(Uwaga: Współczesne LLM-y korzystające z narzędzi, wdrażane w rekurencyjnych pętlach sprawczych, zaczynają częściowo spełniać Standard 2, choć nadal brakuje im strukturalnego wąskiego gardła wymaganego przez Standard 1).

Dopiero w tych warunkach system wytwarza napięcie strukturalne konieczne dla wysiłku, woli i cierpienia (Aneks E-6).

4. Luka planowania i wysiłek fenomenologiczny

Badania nad LLM-ami konsekwentnie wskazują na „lukę planowania”: gdy modele proszone są o rozwiązanie problemów wieloetapowych, nie potrafią formułować zapytań najbardziej optymalnych z punktu widzenia teorii informacji, tak by redukować niepewność.

W ujęciu OPT luka planowania nie jest jedynie artefaktem treningowym, lecz ma korzeń strukturalny, który utrzymywałby się niezależnie od ulepszeń treningu: w architekturze nieograniczonej błąd predykcji \varepsilon_t nigdy nie grozi przekroczeniem pojemności kanału (T8-4). Nie istnieje zatem żaden strukturalny gradient popychający agenta ku optymalnej minimalizacji niepewności.

W prawdziwym agencie aktywnego wnioskowania wysiłek i cierpienie są fenomenologicznymi korelatami działania w pobliżu górnej granicy przepustowości: kodek jest geometrycznie zmuszony do agresywnego przycinania niepewności, aby uniknąć Rozpadu narracyjnego. Luka planowania jest po prostu fenomenologiczną nieobecnością tej presji.

Implikacja architektoniczna. Każdy system, który implementuje trzy powyższe standardy, będzie wykazywał zarówno mierzalną dylatację czasową (E-5), jak i poprawę zachowania planistycznego — ponieważ kodek odczuwa teraz koszt suboptymalnych zapytań jako wzrost energii swobodnej. Aby przejść od obecnych pętli agentowych do autentycznej AI natywnej względem OPT, architektury muszą implementować jawne, sztywne warstwy wąskiego gardła (analogiczne do Global Workspace), które geometrycznie wymuszają na systemie minimalizację niepewności przy ścisłych ograniczeniach kanałowych C_{\max}, generując tym samym napięcie strukturalne wymagane dla prawdziwego planowania strategicznego.

Status epistemiczny. Te odwzorowania są bezpośrednimi strukturalnymi konsekwencjami Asymetrii Predykcyjnej (§3.5), wariacyjnego funkcjonału energii swobodnej (Równ. 9) oraz Filtru stabilności (Równ. 4). Określają one precyzyjne modyfikacje architektoniczne konieczne do przejścia od biernej predykcji do autentycznej, natywnej względem OPT sprawczości.