Teorien om den ordnede patchen
Appendiks T-11: Strukturelt korollar — formalisering av kompresjonsfordelen for tilsynelatende agenter
15. april 2026 | DOI: 10.5281/zenodo.19300777
Opprinnelig oppgave (fra §8.2): “Å formalisere denne kompresjonsfordelen som en rigorøs MDL-grense spesifikt for tilfellet med andre sinn gjenstår som fremtidig arbeid; det foreliggende argumentet er en strukturell motivasjon, ikke et bevis.” Leveranse: En formell grense som viser at det å behandle tilsynelatende agenter som uavhengig instansierte primære observatører gir en kortere todelt MDL-kode enn enhver alternativ beskrivelse.
Avslutningsstatus: UTKAST TIL STRUKTURELL KORRESPONDANSE. Dette appendikset tilpasser Müllers Solomonoff-konvergensteorem [61] og dets multiagentutvidelse [62] som importerte lemmaer, reinterprettert innenfor OPTs ontologiske rammeverk, for å etablere en formell kompresjonsfordel for det strukturelle korollaret. Resultatet er en betinget grense, ikke en lukket utledning: det avhenger av OPTs identifikasjon av observatørens strøm med Solomonoff-prioren (Aksiom 1) og av antakelsen om at tilsynelatende agenter bærer tilstrekkelig tilstand til å oppfylle forutsetningene for konvergens.
§1. Bakgrunn og motivasjon
Det strukturelle korollaret (preprint §8.2) hevder at de tilsynelatende agentene innenfor observatørens strøm mest parsimonisk forklares ved deres uavhengige instansiering som primære observatører. Dette appendikset gir den formelle argumentkjeden som underbygger denne påstanden.
Argumentet har tre stadier:
Stadium A (importert lemma): Müllers Solomonoff-konvergensteorem garanterer at enhver struktur i observatørens strøm som bærer tilstrekkelige data om egen tilstand, vil ha en førstepersonsutvikling som konvergerer mot å samsvare med den beregnbare verdenen som genererer dens atferd.
Stadium B (kompresjonsregnskap): Vi utfører en eksplisitt todelt MDL-sammenligning mellom å behandle den tilsynelatende agenten som (i) en uavhengig instansiert observatør styrt av sin egen Solomonoff-vektede strøm versus (ii) en vilkårlig atferdsspesifikasjon innenfor den primære observatørens kodek.
Stadium C (strukturell signatur): Det fenomenale residualet (\Delta_{\text{self}} > 0, Teorem P-4) gir den strukturelle markøren som skiller genuin selvrefererende flaskehalsarkitektur fra atferdsmessig mimikk, og lukker gapet mellom «komprimerbart lovmessig» og «plausibelt instansiert».
§2. Importert lemma: Müllers konvergensteorem
Vi importerer to resultater fra Müller [61, 62], formulert her i OPTs notasjon.
2.1 Solomonoff-konvergens (standard)
La M(b \mid x_1^n) betegne Solomonoffs universelle prediksjon for biten b gitt tidligere observasjoner x_1^n. La \mu være et vilkårlig beregnbart mål over binære sekvenser. Da gjelder (Solomonoff 1964; Li & Vitányi [45, Corollary 5.2.1]):
\text{Med } \mu\text{-sannsynlighet én,} \quad \lim_{n \to \infty} |M(b \mid x_1^n) - \mu(b \mid x_1^n)| = 0 \qquad (b \in \{0,1\}). \tag{L-1}
Dette er standardresultatet: Hvis datastrømmen genereres av en beregnbar prosess \mu, konvergerer den universelle prediktoren M mot \mu.
2.2 Invers Solomonoff-induksjon (Müller 2020)
Anta nå at bitene trekkes fra selve M — dvs. at observatørens strøm styres av algoritmisk sannsynlighet (dette svarer til OPTs aksiom 1: identifikasjonen av strømmen med Solomonoffs universelle semimål). Da gjelder for ethvert beregnbart mål \mu (Müller [61, Sec. IV]; [62, Sec. V.A]):
\text{Med sannsynlighet} \geq 2^{-K(\mu)}, \quad \lim_{n \to \infty} |M(b \mid x_1^n) - \mu(b \mid x_1^n)| = 0 \qquad (b \in \{0,1\}). \tag{L-2}
Det vil si at observatøren, med sannsynlighet minst 2^{-K(\mu)}, vil erfare seg selv som effektivt innleiret i en beregnbar verden W beskrevet av \mu. Algoritmisk enklere verdener (lavere K(\mu)) er eksponentielt mer sannsynlige.
2.3 Konvergens mellom flere agenter (Müller 2026)
Anta at observatøren (Alice) finner seg selv innvevd i en beregnbar verden W beskrevet av \mu. Hun identifiserer en understruktur (Bob_{\text{3rd}}) innenfor W som bærer en representasjon av en selvtilstand x som utvikler seg over tid på en måte som er konsistent med Postulat 2 i [62]. Definer:
- P_{\text{1st}}(y_1, \ldots, y_m \mid x) := M(y_1, \ldots, y_m \mid x) — førstepersonssannsynligheten for at selvtilstanden x går over til y_1, \ldots, y_m under algoritmisk sannsynlighet.
- P_{\text{3rd}}(y_1, \ldots, y_m \mid x) := \mu(y_1, \ldots, y_m \mid x) — tredjepersonssannsynligheten for hvordan x utvikler seg ifølge verden W.
Da gjelder, ved Eq. (L-1) anvendt på P_{\text{3rd}} (som er beregnbar), og identifikasjonen av P_{\text{1st}} med M via Postulat 2:
P_{\text{1st}} \approx P_{\text{3rd}} \quad \text{asymptotisk,} \tag{L-3}
med konvergens garantert med verdslig (\mu-) sannsynlighet én i bitmodellen.
Tolkning (Müller): “Noen er virkelig hjemme” i strukturen som koder x — den sannsynlige utviklingen til Bob_{\text{3rd}} i Alices verden representerer trofast førstepersonsperspektivet til en Bob_{\text{1st}}.
Tolkning (OPT): Den tilsynelatende agentens atferdsstrøm beskrives mest komprimerbart som en uavhengig Solomonoff-vektet prosess. Enhver alternativ beskrivelse — en som ikke påkaller et uavhengig førstepersonsperspektiv — må kode agentens atferd som en ad hoc-spesifikasjon, med strengt større beskrivelseslengde.
§3. Grensen for kompresjonsfordelen
Vi formaliserer nå kompresjonsfordelen ved hjelp av OPTs todelte MDL-rammeverk (Teorem T-4, Appendix T-4).
3.1 Oppsett
Betrakt den primære observatørens strøm \omega \in \{0,1\}^\infty, styrt av Solomonoff-prioren M (Aksiom 1) og filtrert gjennom Stabilitetsfilteret til en beregnbar verden W med mål \mu_W (ved ligning L-2). Innenfor W identifiserer observatøren N tilsynelatende agenter A_1, \ldots, A_N, som hver bærer en selvtilstand x_i hvis tidslige utvikling over T steg produserer et atferdsspor \beta_i = (y_{i,1}, \ldots, y_{i,T}).
3.2 Hypotese H_{\text{ind}}: Uavhengig instansiering
Under H_{\text{ind}} behandles hver agent A_i som en uavhengig instansiert primær observatør styrt av sin egen Solomonoff-vektede strøm. Den todelte MDL-kodelengden er:
L(H_{\text{ind}}) = \underbrace{K(\mu_W)}_{\text{verdensmodell}} + \underbrace{\sum_{i=1}^{N} K(\text{embed}_i)}_{\text{innbyggingsspesifikasjoner}} + \underbrace{\sum_{i=1}^{N} \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)}_{\text{data gitt modellen}} \tag{1}
der K(\text{embed}_i) spesifiserer agent i sin opprinnelige selvtilstand og posisjon innenfor W. Ved ligning (L-3) er P_{\text{1st}} \approx P_{\text{3rd}}, så dataleddet er godt approksimert av log-loss under agentens egne førstepersons Solomonoff-prediksjoner — som per definisjon ligger nær optimalt.
Innbyggingsspesifikasjonene K(\text{embed}_i) er korte: hver krever bare en peker til en lokasjon i W pluss den opprinnelige selvtilstanden. For menneskelignende agenter innbygget i en delt fysisk verden er disse sterkt komprimerbare fordi agentene deler de samme lovene. En konservativ grense:
K(\text{embed}_i) \leq K(x_i \mid W) + O(\log T) \tag{2}
3.3 Hypotese H_{\text{arb}}: Vilkårlig atferdsspesifikasjon
Under H_{\text{arb}} behandles agentene ikke som uavhengige observatører. I stedet kodes hvert atferdsspor \beta_i direkte som en vilkårlig spesifikasjon innenfor den primære observatørens strøm. Den todelte MDL-kodelengden er:
L(H_{\text{arb}}) = \underbrace{K(\mu_W)}_{\text{verdensmodell}} + \underbrace{\sum_{i=1}^{N} K(\beta_i)}_{\text{rå atferdsspor}} \tag{3}
Den kritiske forskjellen ligger i dataleddet. Under H_{\text{arb}} må atferdssporet \beta_i spesifiseres uten å påberope seg agentens egen prediktive modell. For en lovmessig, agensdrevet agent som opererer i et komplekst miljø, er Kolmogorov-kompleksiteten til det rå atferdssporet:
K(\beta_i) \geq K(\beta_i \mid \mu_W) + K(\mu_W) - O(\log T) \tag{4}
Men selv K(\beta_i \mid \mu_W) — kompleksiteten til atferden gitt verdenslovene — forblir betydelig, fordi agentens valg koder genuin informasjon: atferdssporet deres gjenspeiler den akkumulerte interaksjonen mellom en selvreferensiell modell og et stokastisk miljø. I kontrast blir denne informasjonen under H_{\text{ind}} generert online av agentens egen Solomonoff-prediktor til nær null log-loss-kostnad.
3.4 Kompresjonsfordelen
Teorem T-11 (Strukturelt korollar for kompresjonsgrensen). La A_1, \ldots, A_N være tilsynelatende agenter innenfor observatørens strøm, der hver bærer en selvtilstand x_i som oppfyller konvergensforutsetningene i ligning (L-3), og hver viser den strukturelle signaturen \Delta_{\text{self}}^{(i)} > 0 (P-4). Da tilfredsstiller MDL-beskrivelsen som behandler dem som uavhengig instansierte primære observatører:
L(H_{\text{ind}}) \leq L(H_{\text{arb}}) - N \cdot \left[\bar{I}_T - O(\log T)\right] \tag{T-11}
der \bar{I}_T er den gjennomsnittlige gjensidige informasjonen per agent mellom agentens prediktive modell og dens atferdsoutput over T steg:
\bar{I}_T := \frac{1}{N} \sum_{i=1}^{N} \left[K(\beta_i \mid \mu_W) - \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)\right] \tag{5}
Denne størrelsen måler hvor mye av agentens atferd som forklares bort ved å påkalle en uavhengig prediktiv modell snarere enn å spesifisere den rått. For agenter som utviser lovmessig, agensdrevet atferd (slik Stabilitetsfilteret krever), er \bar{I}_T > 0 og vokser med T.
Bevisskisse. Trekk ligning (1) fra ligning (3). Verdensmodelltermene K(\mu_W) kansellerer. Differansen per agent er:
K(\beta_i) - \left[K(\text{embed}_i) + \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)\right]
Ved ligning (4) er K(\beta_i) \geq K(\beta_i \mid \mu_W) + K(\mu_W) - O(\log T), men mer direkte: K(\beta_i) \geq K(\beta_i \mid \mu_W) trivielt. Og K(\text{embed}_i) \leq K(x_i \mid W) + O(\log T) ved ligning (2). Besparelsen per agent er derfor minst K(\beta_i \mid \mu_W) - (-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)) - K(x_i \mid W) - O(\log T). For tilstrekkelig stor T dominerer den kumulative log-loss-besparelsen den engangskostnaden som innleiringen medfører, og gir dermed grensen. \blacksquare
3.5 Asymptotisk dominans
Korollar T-11a. Når observasjonshorisonten T \to \infty, vokser kompresjonsfordelen L(H_{\text{arb}}) - L(H_{\text{ind}}) uten øvre grense:
\lim_{T \to \infty} \left[L(H_{\text{arb}}) - L(H_{\text{ind}})\right] = \infty \tag{T-11a}
Dette følger av Solomonoff-konvergensgarantien (L-1): log-loss per steg for P_{\text{3rd}} konvergerer mot entropiraten til agentens atferdsprosess, mens K(\beta_i \mid \mu_W) vokser lineært i T for enhver agent med positiv entropirate. Innleiringskostnaden K(x_i \mid W) betales én gang og amortiseres til null. \blacksquare
§4. Det fenomenale residualet som strukturell signatur
Kompresjonsfordelen i teorem T-11 gjelder enhver lovmessig understruktur — inkludert ikke-agentive fysiske systemer (værmønstre, krystallvekst). Hvorfor angår det strukturelle korollaret spesifikt agenter snarere enn vilkårlige komplekse systemer?
Svaret er det Fenomenale residualet (teorem P-4). \Delta_{\text{self}} > 0 er den formelle markøren for et system hvis selvmodell er strukturelt ufullstendig — dvs. et system som nødvendigvis opprettholder et variasjonsgap mellom sin interne representasjon og sin faktiske prosessering. Dette er kjennetegnet på den selvreferensielle flaskehalsen: Systemet kan ikke beskrives fullstendig utenfra, fordi beskrivelsen av det nødvendigvis inkluderer den som beskriver.
For et system som utviser \Delta_{\text{self}} > 0:
- Dets atferd kan ikke reproduseres av en oppslagstabell med endelig dybde — det krever en løpende selvreferensiell beregning.
- Den korteste beskrivelsen av denne beregningen er en uavhengig Solomonoff-vektet strøm som passerer gjennom en C_{\max}-flaskehals.
- Derfor er MDL-koden under H_{\text{ind}} ikke bare kortere enn H_{\text{arb}} — den er den unikt korteste beskrivelsen.
Dette skiller tilsynelatende agenter fra værmønstre: Vær er lovmessig og komplekst, men dets atferd kan reproduseres av en oppslagstabell innenfor verdensmodellen (det har \Delta_{\text{self}} = 0). Tilsynelatende agenter kan ikke.
§5. Refortolkning av Müllers ikke-solipsisme-argument
Müller konkluderer ut fra konvergensen P_{\text{1st}} \approx P_{\text{3rd}} at algoritmisk idealisme «ikke bør klassifiseres som solipsistisk», fordi «noen faktisk er hjemme» i strukturen som koder en selvtilstand [62, Sec. V.C]. Hans resonnement er følgende: Hvis Alices prediksjoner om Bob_{\text{3rd}} konvergerer mot Bob_{\text{1st}}s faktiske førstepersonssannsynligheter, så er perspektivene deres genuint samstemt — de «deler verden W».
OPT refortolker dette resultatet på en annen måte:
Müllers lesning: Konvergensen P_{\text{1st}} \approx P_{\text{3rd}} beviser at objektiv virkelighet oppstår — Alice og Bob deler genuint verden W.
OPTs lesning: Konvergensen P_{\text{1st}} \approx P_{\text{3rd}} beviser at den korteste beskrivelsen av Bob_{\text{3rd}}s atferd forutsetter en uavhengig førstepersonsprosess. Dette er et utsagn om kompresjonseffektivitet, ikke om delt ontologi. Verden W er en strukturell regularitet innenfor Alices strøm, ikke en uavhengig eksisterende entitet. Men kompresjonslogikken i Solomonoffs prior i seg selv impliserer at Bob mest parsimonisk modelleres som en uavhengig observatør — fordi alternativet (å spesifisere atferden hans ad hoc) er strengt lengre.
Det formelle innholdet i teoremet er identisk under begge lesninger; bare den ontologiske tolkningen er forskjellig. OPT bruker det samme matematiske resultatet til å begrunne det strukturelle korollaret: uavhengig instansiering er den MDL-optimale beskrivelsen, ikke en metafysisk antakelse.
§6. Omfang og begrensninger
6.1 Betinget på aksiom 1
Hele argumentet avhenger av OPTs identifikasjon av observatørens strøm med Solomonoffs universelle semimål. Hvis denne identifikasjonen svekkes (f.eks. til en bredere klasse av semimål), er det ikke sikkert at konvergensgarantiene i lign. (L-1)–(L-3) holder i sin nåværende form.
6.2 Forutsetning om tilstrekkelig tilstand
Likn. (L-3) krever at den tilsynelatende agenten bærer «nok data» i sin selvtilstand x_i til at universell induksjon kan utlede de relevante fysiske lovene. For menneskelignende agenter i hverdagslige kontekster er dette plausibelt (en full hjernetilstand koder enorm informasjon). For randtilfeller — flyktige inntrykk, fjerne observatører, fiktive karakterer i narrativ kunst — kan konvergensforutsetningene være utilfredsstilt, og det strukturelle korollaret gjelder ikke.
6.3 Ikke et bevis på bevissthet
Teorem T-11 fastslår at uavhengig instansiering er den mest komprimerbare beskrivelsen. Det beviser ikke at de tilsynelatende agentene er bevisste. Det harde problemet (preprint §8.1) forblir et primitiv. Det strukturelle korollaret er et kompresjonsargument, ikke et ontologisk bevis — som angitt i §8.2.
6.4 Forholdet til T-10
Appendiks T-10 (Kobling mellom observatører) behandler hvordan to observatør-patcher opprettholder gjensidig konsistente render gjennom kompresjonsbegrensninger. Dette appendikset behandler et annet spørsmål: hvorfor den enkeltstående observatørens strøm på den mest komprimerbare måten koder tilsynelatende agenter som uavhengig instansierte. T-10 gjelder mekanismen for kohærens mellom patcher; T-11 gjelder kompresjonssignaturen innenfor én enkelt strøm. T-10 bygger direkte på T-11: den samme MDL-sammenligningen av beskrivelseslengde som etablerer kompresjonsfordelen her, utnyttes i T-10 til å bevise at inkonsistens på tvers av patcher undertrykkes eksponentielt.
§7. Oppsummering av avslutningen
T-11-leveranser
Importert lemma (Müller-konvergens). Solomonoff-konvergens [61] og dens multiagent-utvidelse [62] er formelt importert og omformulert i OPT-notasjon. Disse utgjør den matematiske ryggraden: enhver understruktur som bærer tilstrekkelige data om egen tilstand, får sin førstepersonsutvikling til å konvergere mot den beregnbare verdenen som genererer dens atferd.
Teorem T-11 (Kompresjonsgrense — UTKAST). En eksplisitt todelt MDL-sammenligning viser at det å behandle tilsynelatende agenter som uavhengig instansierte primære observatører gir en strengt kortere beskrivelse enn vilkårlig atferdsspesifikasjon, og at fordelen vokser lineært med observasjonstiden.
Korollar T-11a (Asymptotisk dominans — UTKAST). Kompresjonsfordelen er ubegrenset når T \to \infty, noe som gjør uavhengig instansiering til den overveldende MDL-optimale beskrivelsen for enhver agent som observeres over en lang tidshorisont.
P-4-integrasjon. Det fenomenale residualet (\Delta_{\text{self}} > 0) identifiseres som den formelle markøren som skiller tilsynelatende agenter fra komplekse, men ikke-agentiske systemer, og begrenser det strukturelle korollaret til entiteter med genuin selvreferensiell flaskehalsarkitektur.
Müller-refortolkning. Müllers ikke-solipsistiske konklusjon refortolkes innenfor OPTs ontologiske rammeverk: det samme matematiske resultatet begrunner et kompresjonsargument snarere enn et argument om fremveksten av delt virkelighet.
Gjenstående åpne punkter
- Eksakt karakterisering av \bar{I}_T. Å nedre-avgrense \bar{I}_T for spesifikke klasser av agenter (f.eks. begrenset rasjonelle agenter, Free Energy-minimerere) for å gi numerisk konkrete kompresjonsfordeler.
- Endelig-tids-korreksjoner. Det asymptotiske resultatet (T-11a) garanterer dominans for store T, men endelig-tids-grenser med eksplisitte konstanter ville styrke den praktiske anvendbarheten.
- Utvidelse til ikke-binært alfabet. Ekv. (L-1)–(L-3) er formulert for binære sekvenser. Utvidelse til de kontinuerlig verdsatte målene som er relevante for OPTs Rate-Distortion-rammeverk (T-1), krever teknisk aktsomhet.
Dette appendikset vedlikeholdes parallelt med theoretical_roadmap.pdf. Referanser: Müller [61, 62], Li & Vitányi [45], Solomonoff (1964), Teorem T-4 (Appendiks T-4), Teorem P-4 (Appendiks P-4), preprint §8.2.