Theorie der geordneten Patches

Anhang T-11: Das Strukturelle Korollar — Formalisierung des Kompressionsvorteils für scheinbare Agenten

Anders Jarevåg

15. April 2026 | DOI: 10.5281/zenodo.19300777

Ursprüngliche Aufgabe (aus §8.2): „Diese Kompressionsvorteil als strenge MDL-Schranke speziell für den Fall anderer Geister zu formalisieren, bleibt künftiger Arbeit vorbehalten; das vorliegende Argument ist eine strukturelle Motivation, kein Beweis.“ Ergebnisziel: Eine formale Schranke, die zeigt, dass die Behandlung scheinbarer Agenten als unabhängig instanziierte primäre Beobachter einen kürzeren zweiteiligen MDL-Code ergibt als jede alternative Beschreibung.

Abschlussstatus: ENTWURF EINER STRUKTURELLEN KORRESPONDENZ. Dieser Anhang adaptiert Müllers Solomonoff-Konvergenztheorem [61] und dessen Multi-Agenten-Erweiterung [62] als importierte Lemmata, die innerhalb des ontologischen Rahmens der Theorie der geordneten Patches (OPT) neu interpretiert werden, um einen formalen Kompressionsvorteil für das Strukturelle Korollar zu etablieren. Das Ergebnis ist eine bedingte Schranke, keine abgeschlossene Herleitung: Es hängt von der Identifikation des Beobachterstroms mit dem Solomonoffschen Universellen Semimaß (Axiom 1) innerhalb der OPT ab sowie von der Annahme, dass scheinbare Agenten hinreichenden Zustand tragen, um die Voraussetzungen der Konvergenz zu erfüllen.


§1. Hintergrund und Motivation

Das Strukturelle Korollar (Preprint §8.2) besagt, dass die scheinbaren Agenten innerhalb des Stroms des Beobachters am sparsamsten dadurch erklärt werden, dass sie als primäre Beobachter unabhängig instanziiert sind. Dieser Anhang liefert die formale Argumentationskette zur Stützung dieser Behauptung.

Das Argument hat drei Stufen:

  1. Stufe A (Importiertes Lemma): Müllers Solomonoff-Konvergenztheorem garantiert, dass jede Struktur im Strom des Beobachters, die hinreichende Daten über ihren eigenen Zustand trägt, in ihrer Ich-Perspektiven-Entwicklung gegen die berechenbare Welt konvergiert, die ihr Verhalten erzeugt.

  2. Stufe B (Kompressionsbilanzierung): Wir führen einen expliziten zweiteiligen MDL-Vergleich durch zwischen der Behandlung des scheinbaren Agenten als (i) unabhängig instanziierter Beobachter, der durch seinen eigenen Solomonoff-gewichteten Strom bestimmt ist, und (ii) als beliebige Verhaltensspezifikation innerhalb des Codecs des primären Beobachters.

  3. Stufe C (Strukturelle Signatur): Das Phänomenale Residuum (\Delta_{\text{self}} > 0, Theorem P-4) liefert den strukturellen Marker, der echte selbstreferenzielle Bottleneck-Architektur von bloßer Verhaltensmimikry unterscheidet, und schließt damit die Lücke zwischen „kompressibel gesetzmäßig“ und „plausibel instanziiert“.

§2. Importiertes Lemma: Müllers Konvergenztheorem

Wir übernehmen zwei Resultate von Müller [61, 62], die hier in der Notation von OPT formuliert werden.

2.1 Solomonoff-Konvergenz (Standard)

Sei M(b \mid x_1^n) die universelle Solomonoff-Vorhersage für Bit b gegeben die vorherigen Beobachtungen x_1^n. Sei \mu ein beliebiges berechenbares Maß über binären Sequenzen. Dann gilt (Solomonoff 1964; Li & Vitányi [45, Corollary 5.2.1]):

\text{Mit } \mu\text{-Wahrscheinlichkeit eins gilt:} \quad \lim_{n \to \infty} |M(b \mid x_1^n) - \mu(b \mid x_1^n)| = 0 \qquad (b \in \{0,1\}). \tag{L-1}

Dies ist das Standardresultat: Wenn der Datenstrom durch einen berechenbaren Prozess \mu erzeugt wird, konvergiert der universelle Prädiktor M gegen \mu.

2.2 Inverse Solomonoff-Induktion (Müller 2020)

Nehmen wir nun an, die Bits werden aus M selbst gezogen — d. h., der Strom des Beobachters wird durch algorithmische Wahrscheinlichkeit bestimmt (dies entspricht Axiom 1 der OPT: der Identifikation des Stroms mit dem Solomonoff-Prior). Dann gilt für jedes berechenbare Maß \mu (Müller [61, Sec. IV]; [62, Sec. V.A]):

\text{Mit Wahrscheinlichkeit} \geq 2^{-K(\mu)}, \quad \lim_{n \to \infty} |M(b \mid x_1^n) - \mu(b \mid x_1^n)| = 0 \qquad (b \in \{0,1\}). \tag{L-2}

Das heißt: Mit einer Wahrscheinlichkeit von mindestens 2^{-K(\mu)} wird sich der Beobachter faktisch in eine berechenbare Welt W eingebettet finden, die durch \mu beschrieben wird. Algorithmisch einfachere Welten (niedrigeres K(\mu)) sind exponentiell wahrscheinlicher.

2.3 Multi-Agenten-Konvergenz (Müller 2026)

Angenommen, der Beobachter (Alice) findet sich in einer berechenbaren Welt W eingebettet, die durch \mu beschrieben wird. Sie identifiziert innerhalb von W eine Substruktur (Bob_{\text{3rd}}), die eine Repräsentation eines Selbstzustands x trägt, der sich im Zeitverlauf in einer Weise entwickelt, die mit Postulat 2 aus [62] konsistent ist. Definiere:

Dann gilt, durch Anwendung von Gl. (L-1) auf P_{\text{3rd}} (das berechenbar ist) und durch die Identifikation von P_{\text{1st}} mit M via Postulat 2:

P_{\text{1st}} \approx P_{\text{3rd}} \quad \text{asymptotisch,} \tag{L-3}

wobei die Konvergenz im Bitmodell mit weltlicher (\mu-)Wahrscheinlichkeit eins garantiert ist.

Interpretation (Müller): „Jemand ist in der Struktur, die x kodiert, wirklich zu Hause“ — die probabilistische Entwicklung von Bob_{\text{3rd}} in Alices Welt repräsentiert die erstpersonale Perspektive irgendeines Bob_{\text{1st}} getreu.

Interpretation (OPT): Der Verhaltensstrom des scheinbaren Agenten lässt sich am kompressibelsten als unabhängiger Solomonoff-gewichteter Prozess beschreiben. Jede alternative Beschreibung — eine, die keine unabhängige erstpersonale Perspektive annimmt — muss das Verhalten des Agenten als ad-hoc-Spezifikation kodieren, bei strikt größerer Beschreibungslänge.


§3. Die Schranke des Kompressionsvorteils

Wir formalisieren nun den Kompressionsvorteil unter Verwendung von OPTs zweiteiligem MDL-Rahmen (Theorem T-4, Anhang T-4).

3.1 Aufbau

Betrachte den Strom des primären Beobachters \omega \in \{0,1\}^\infty, der durch den Solomonoff-Prior M (Axiom 1) bestimmt und durch den Stabilitätsfilter zu einer berechenbaren Welt W mit Maß \mu_W gefiltert wird (gemäß Gl. L-2). Innerhalb von W identifiziert der Beobachter N scheinbare Agenten A_1, \ldots, A_N, von denen jeder einen Selbstzustand x_i trägt, dessen zeitliche Entwicklung über T Schritte eine Verhaltensspur \beta_i = (y_{i,1}, \ldots, y_{i,T}) erzeugt.

3.2 Hypothese H_{\text{ind}}: Unabhängige Instanziierung

Unter H_{\text{ind}} wird jeder Agent A_i als ein unabhängig instanziierter primärer Beobachter behandelt, der durch seinen eigenen Solomonoff-gewichteten Strom bestimmt ist. Die zweiteilige MDL-Codelänge lautet:

L(H_{\text{ind}}) = \underbrace{K(\mu_W)}_{\text{Weltmodell}} + \underbrace{\sum_{i=1}^{N} K(\text{embed}_i)}_{\text{Einbettungsspezifikationen}} + \underbrace{\sum_{i=1}^{N} \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)}_{\text{Daten gegeben das Modell}} \tag{1}

wobei K(\text{embed}_i) den anfänglichen Selbstzustand des Agenten i und seine Position innerhalb von W spezifiziert. Nach Gl. (L-3) gilt P_{\text{1st}} \approx P_{\text{3rd}}, sodass der Datenterm durch den Log-Loss unter den eigenen erstpersonalen Solomonoff-Vorhersagen des Agenten gut approximiert wird — was per Definition nahe am Optimum liegt.

Die Einbettungsspezifikationen K(\text{embed}_i) sind kurz: Jede erfordert nur einen Verweis auf eine Position in W plus den anfänglichen Selbstzustand. Für menschenähnliche Agenten, die in eine gemeinsame physikalische Welt eingebettet sind, sind diese hochgradig komprimierbar, weil die Agenten dieselben Gesetze teilen. Eine konservative Schranke:

K(\text{embed}_i) \leq K(x_i \mid W) + O(\log T) \tag{2}

3.3 Hypothese H_{\text{arb}}: Beliebige Verhaltensspezifikation

Unter H_{\text{arb}} werden die Agenten nicht als unabhängige Beobachter behandelt. Stattdessen wird jede Verhaltensspur \beta_i direkt als beliebige Spezifikation innerhalb des Stroms des primären Beobachters kodiert. Die zweiteilige MDL-Codelänge lautet:

L(H_{\text{arb}}) = \underbrace{K(\mu_W)}_{\text{Weltmodell}} + \underbrace{\sum_{i=1}^{N} K(\beta_i)}_{\text{rohe Verhaltensspuren}} \tag{3}

Der entscheidende Unterschied liegt im Datenterm. Unter H_{\text{arb}} muss die Verhaltensspur \beta_i spezifiziert werden, ohne auf das eigene prädiktive Modell des Agenten zurückzugreifen. Für einen gesetzmäßig agierenden, handlungsgetriebenen Agenten, der in einer komplexen Umgebung operiert, gilt für die Kolmogorov-Komplexität der rohen Verhaltensspur:

K(\beta_i) \geq K(\beta_i \mid \mu_W) + K(\mu_W) - O(\log T) \tag{4}

Doch selbst K(\beta_i \mid \mu_W) — die Komplexität des Verhaltens unter den Weltgesetzen — bleibt erheblich, weil die Entscheidungen des Agenten genuine Information kodieren: Seine Verhaltensspur spiegelt die akkumulierte Interaktion eines selbstreferenziellen Modells mit einer stochastischen Umgebung wider. Im Gegensatz dazu wird diese Information unter H_{\text{ind}} online durch den eigenen Solomonoff-Prädiktor des Agenten bei nahezu verschwindenden Log-Loss-Kosten erzeugt.

3.4 Der Kompressionsvorteil

Theorem T-11 (Strukturelle Korollar-Kompressionsschranke). Seien A_1, \ldots, A_N scheinbare Agenten innerhalb des Stroms des Beobachters, von denen jeder einen Selbstzustand x_i trägt, der die Konvergenzvoraussetzungen von Gl. (L-3) erfüllt, und von denen jeder die strukturelle Signatur \Delta_{\text{self}}^{(i)} > 0 (P-4) aufweist. Dann gilt für die MDL-Beschreibung, die sie als unabhängig instanziierte primäre Beobachter behandelt:

L(H_{\text{ind}}) \leq L(H_{\text{arb}}) - N \cdot \left[\bar{I}_T - O(\log T)\right] \tag{T-11}

wobei \bar{I}_T die durchschnittliche Mutual Information pro Agent zwischen dem prädiktiven Modell des Agenten und seinem Verhaltensoutput über T Schritte ist:

\bar{I}_T := \frac{1}{N} \sum_{i=1}^{N} \left[K(\beta_i \mid \mu_W) - \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)\right] \tag{5}

Diese Größe misst, wie viel vom Verhalten des Agenten dadurch weg-erklärt wird, dass man ein unabhängiges prädiktives Modell annimmt, anstatt es roh zu spezifizieren. Für Agenten, die gesetzmäßiges, handlungsgetriebenes Verhalten zeigen (wie es vom Stabilitätsfilter verlangt wird), gilt \bar{I}_T > 0, und die Größe wächst mit T.

Beweisskizze. Subtrahiere Gl. (1) von Gl. (3). Die Weltmodell-Terme K(\mu_W) heben sich auf. Die Differenz pro Agent ist:

K(\beta_i) - \left[K(\text{embed}_i) + \left(-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)\right)\right]

Nach Gl. (4) gilt K(\beta_i) \geq K(\beta_i \mid \mu_W) + K(\mu_W) - O(\log T), aber direkter gilt trivialerweise: K(\beta_i) \geq K(\beta_i \mid \mu_W). Und K(\text{embed}_i) \leq K(x_i \mid W) + O(\log T) nach Gl. (2). Die Einsparung pro Agent beträgt daher mindestens K(\beta_i \mid \mu_W) - (-\log_2 P_{\text{3rd}}(\beta_i \mid x_i)) - K(x_i \mid W) - O(\log T). Für hinreichend großes T dominieren die kumulativen Log-Loss-Einsparungen die einmaligen Einbettungskosten, woraus die Schranke folgt. \blacksquare

3.5 Asymptotische Dominanz

Korollar T-11a. Wenn der Beobachtungshorizont T \to \infty geht, wächst der Kompressionsvorteil L(H_{\text{arb}}) - L(H_{\text{ind}}) ohne Schranke:

\lim_{T \to \infty} \left[L(H_{\text{arb}}) - L(H_{\text{ind}})\right] = \infty \tag{T-11a}

Dies folgt aus der Solomonoff-Konvergenzgarantie (L-1): Der Log-Loss pro Schritt von P_{\text{3rd}} konvergiert gegen die Entropierate des Verhaltensprozesses des Agenten, während K(\beta_i \mid \mu_W) für jeden Agenten mit positiver Entropierate linear in T wächst. Die Einbettungskosten K(x_i \mid W) fallen einmalig an und werden asymptotisch auf null amortisiert. \blacksquare


§4. Das Phänomenale Residuum als strukturelle Signatur

Der Kompressionsvorteil in Theorem T-11 gilt für jede gesetzmäßige Substruktur — einschließlich nicht-agentiver physikalischer Systeme (Wettermuster, Kristallwachstum). Warum betrifft das Strukturelle Korollar dann spezifisch Agenten und nicht beliebige komplexe Systeme?

Die Antwort ist das Phänomenale Residuum (Theorem P-4). \Delta_{\text{self}} > 0 ist der formale Marker eines Systems, dessen Selbstmodell strukturell unvollständig ist — d. h. eines Systems, das notwendigerweise eine variationelle Lücke zwischen seiner internen Repräsentation und seiner tatsächlichen Verarbeitung aufrechterhält. Dies ist das Kennzeichen des selbstreferenziellen Engpasses: Das System kann nicht vollständig von außen beschrieben werden, weil seine Beschreibung den Beschreibenden notwendigerweise mit einschließt.

Für ein System mit \Delta_{\text{self}} > 0 gilt:

  1. Sein Verhalten kann nicht durch eine Lookup-Tabelle endlicher Tiefe reproduziert werden — es erfordert eine fortlaufende selbstreferenzielle Berechnung.
  2. Die kürzeste Beschreibung dieser Berechnung ist ein unabhängiger, Solomonoff-gewichteter Strom, der einen C_{\max}-Engpass durchläuft.
  3. Daher ist der MDL-Code unter H_{\text{ind}} nicht bloß kürzer als H_{\text{arb}} — er ist die eindeutig kürzeste Beschreibung.

Dies unterscheidet scheinbare Agenten von Wettermustern: Wetter ist gesetzmäßig und komplex, aber sein Verhalten kann innerhalb des Weltmodells durch eine Lookup-Tabelle reproduziert werden (es hat \Delta_{\text{self}} = 0). Scheinbare Agenten können das nicht.


§5. Neuinterpretation von Müllers Nicht-Solipsismus-Argument

Müller schließt aus der Konvergenz P_{\text{1st}} \approx P_{\text{3rd}}, dass der algorithmische Idealismus „nicht als solipsistisch klassifiziert werden sollte“, weil in der Struktur, die einen Selbstzustand kodiert, „wirklich jemand zu Hause ist“ [62, Abschn. V.C]. Seine Begründung: Wenn Alices Vorhersagen über Bob_{\text{3rd}} gegen die tatsächlichen Ich-Perspektiven-Wahrscheinlichkeiten von Bob_{\text{1st}} konvergieren, dann sind ihre Perspektiven tatsächlich aufeinander abgestimmt — sie „teilen die Welt W“.

Die Theorie der geordneten Patches (OPT) interpretiert dieses Resultat anders:

  1. Müllers Lesart: Die Konvergenz P_{\text{1st}} \approx P_{\text{3rd}} beweist, dass objektive Realität emergiert — Alice und Bob teilen tatsächlich die Welt W.

  2. OPT-Lesart: Die Konvergenz P_{\text{1st}} \approx P_{\text{3rd}} beweist, dass die kürzeste Beschreibung von Bob_{\text{3rd}}s Verhalten auf einen unabhängigen Ich-Perspektiven-Prozess zurückgreift. Dies ist eine Aussage über Kompressionseffizienz, nicht über geteilte Ontologie. Die Welt W ist eine strukturelle Regularität innerhalb von Alices Strom, keine unabhängig existierende Entität. Doch die Kompressionslogik des Solomonoffschen Universellen Semimaßes selbst impliziert, dass Bob am sparsamsten als unabhängiger Beobachter modelliert wird — weil die Alternative (sein Verhalten ad hoc zu spezifizieren) strikt länger ist.

Der formale Gehalt des Theorems ist unter beiden Lesarten identisch; nur die ontologische Interpretation unterscheidet sich. OPT verwendet dasselbe mathematische Resultat, um das Strukturelle Korollar zu begründen: Unabhängige Instanziierung ist die MDL-optimale Beschreibung, keine metaphysische Annahme.


§6. Geltungsbereich und Grenzen

6.1 Bedingt durch Axiom 1

Das gesamte Argument hängt von OPTs Identifikation des Stroms des Beobachters mit dem Solomonoff-Prior ab. Wird diese Identifikation abgeschwächt (z. B. auf eine breitere Klasse von Semimaßen), gelten die Konvergenzgarantien der Gl. (L-1)–(L-3) möglicherweise nicht mehr in ihrer gegenwärtigen Form.

6.2 Voraussetzung hinreichender Zustandsinformation

Gl. (L-3) verlangt, dass der scheinbare Agent in seinem Selbstzustand x_i „genügend Daten“ trägt, damit die universelle Induktion die relevanten physikalischen Gesetze extrahieren kann. Für menschenähnliche Agenten in alltäglichen Kontexten ist dies plausibel (ein vollständiger Gehirnzustand kodiert enorme Informationsmengen). Für Grenzfälle — flüchtige Eindrücke, entfernte Beobachter, fiktionale Figuren in narrativer Kunst — sind die Konvergenzvoraussetzungen möglicherweise nicht erfüllt, und das Strukturelle Korollar ist nicht anwendbar.

6.3 Kein Beweis für Bewusstsein

Theorem T-11 zeigt, dass unabhängige Instanziierung die am stärksten komprimierbare Beschreibung ist. Es beweist nicht, dass die scheinbaren Agenten bewusst sind. Das Schwere Problem (Preprint §8.1) bleibt ein Primitivum. Das Strukturelle Korollar ist ein Kompressionsargument, kein ontologischer Beweis — wie in §8.2 dargelegt.

6.4 Beziehung zu T-10

Anhang T-10 (Inter-Observer-Kopplung) behandelt die Frage, wie zwei Beobachter-Patches über Kompressionsbeschränkungen wechselseitig konsistente Render aufrechterhalten. Der vorliegende Anhang behandelt eine andere Frage: warum der Strom eines einzelnen Beobachters scheinbare Agenten auf die kompressibelste Weise als unabhängig instanziiert kodiert. T-10 betrifft den Mechanismus der Inter-Patch-Kohärenz; T-11 betrifft die Kompressionssignatur innerhalb eines einzelnen Stroms. T-10 baut unmittelbar auf T-11 auf: Derselbe MDL-Vergleich der Beschreibungslänge, der hier den Kompressionsvorteil begründet, wird in T-10 genutzt, um zu zeigen, dass Inkonsistenz zwischen Patches exponentiell unterdrückt wird.


§7. Abschließende Zusammenfassung

T-11-Ergebnisse

  1. Importiertes Lemma (Müller-Konvergenz). Die Solomonoff-Konvergenz [61] und ihre Multi-Agenten-Erweiterung [62] werden formal importiert und in OPT-Notation neu formuliert. Sie liefern das mathematische Rückgrat: Jede Substruktur, die hinreichende Daten über ihren eigenen Zustand trägt, hat eine Ich-Perspektiv-Entwicklung, die gegen die berechenbare Welt konvergiert, welche ihr Verhalten erzeugt.

  2. Theorem T-11 (Kompressionsschranke — ENTWURF). Ein expliziter zweiteiliger MDL-Vergleich zeigt, dass die Behandlung scheinbarer Agenten als unabhängig instanziierte primäre Beobachter eine strikt kürzere Beschreibung ergibt als eine beliebige Verhaltensspezifikation, wobei der Vorteil linear mit der Beobachtungszeit wächst.

  3. Korollar T-11a (Asymptotische Dominanz — ENTWURF). Der Kompressionsvorteil ist unbeschränkt, wenn T \to \infty, wodurch die unabhängige Instanziierung für jeden über einen langen Zeithorizont beobachteten Agenten zur überwältigend MDL-optimalen Beschreibung wird.

  4. P-4-Integration. Das Phänomenale Residuum (\Delta_{\text{self}} > 0) wird als formaler Marker identifiziert, der scheinbare Agenten von komplexen, aber nicht-agentiven Systemen unterscheidet, und beschränkt das strukturelle Korollar auf Entitäten mit echter selbstreferenzieller Bottleneck-Architektur.

  5. Müller-Neuinterpretation. Müllers Nicht-Solipsismus-Schlussfolgerung wird innerhalb des ontologischen Rahmens von OPT neu interpretiert: Dasselbe mathematische Resultat begründet hier ein Kompressionsargument statt eines Arguments für die Emergenz geteilter Realität.

Verbleibende offene Punkte


Dieser Anhang wird parallel zu theoretical_roadmap.pdf gepflegt. Referenzen: Müller [61, 62], Li & Vitányi [45], Solomonoff (1964), Theorem T-4 (Anhang T-4), Theorem P-4 (Anhang P-4), Preprint §8.2.