Theorie der geordneten Patches

Anhang P-3: Fano-beschränkte asymmetrische Holographie

Anders Jarevåg

3. April 2026 | DOI: 10.5281/zenodo.19300777


Anhang P-3: Fano-beschränkte asymmetrische Holographie

Ursprüngliche Aufgabe P-3: Fano-beschränkte asymmetrische Holographie Problem: Etablierung des Richtungspfeils holographischer Äquivalenz unter Verwendung von Fanos Ungleichung im Rahmen der Rate-Distortion-Theorie. Ergebnis: Formale Herleitung der Asymmetrie.

1. Einleitung: Die Spannung mit exakter Dualität

Standardformulierungen des holografischen Prinzips (z. B. die AdS/CFT-Dualität) postulieren einen exakten Isomorphismus zwischen einem höherdimensionalen Bulk und seinem niederdimensionalen Rand. In reinen Formulierungen der Quantengravitation sind diese Beschreibungen mathematisch vollkommen symmetrisch; der Zustand im Bulk legt den Zustand am Rand eindeutig fest, und entscheidend ist, dass der Zustand am Rand den Zustand im Bulk ebenfalls eindeutig festlegt. Keine der beiden Repräsentationen ist ontologisch vorgängig.

Die Theorie der geordneten Patches (OPT) durchbricht diese Symmetrie strukturell. OPT behauptet, dass die algorithmischen generativen Regeln (\mathcal{I}, „Substrat“) ontologische Priorität besitzen, während die phänomenologische Welt (R, „Render“) ein abgeleiteter prädiktiver Schatten ist. Diese Asymmetrie führt eine formale theoretische Spannung ein: Wenn holografische Dualitäten organisch aus informationellen Kodierungsgrenzen hervorgehen, warum bricht die Symmetrie dann in unserem lokalen kausalen Patch strikt?

Dieser Anhang löst diese Spannung durch den Einsatz der Fano-Ungleichung unter dem Solomonoffschen algorithmischen Maß. Wir leiten formal her (bedingt durch Annahme P-3.1, etabliert in §2), dass die strukturelle Erfordernis eines phänomenologischen Beobachters die Holografie inhärent von einer symmetrischen Dualität in eine asymmetrische einseitige holografische Projektion transformiert.

2. Der Stabilitätsfilter als verlustbehaftete Kompressionsabbildung

In der OPT existiert die phänomenologische Welt ausschließlich innerhalb der schmalen Bandbreitengeometrie des bewussten Integrationskanals. Der fundamentale Algorithmus \mathcal{I} operiert über einer Umgebung, die durch ein Solomonoffsches Universelles Semimaß beschrieben ist.

Wir müssen formal zeigen, dass die Transformation zum beobachterbezogenen Ziel-Render R über den Stabilitätsfilter (\Phi) eine grundlegend verlustbehaftete Abbildung ist. Um dies ohne Zirkelschluss zu tun, verwenden wir die definierende Markov-Ketten-Sequenz, die das Substrat vom Render über die Markov-Grenze X_{\partial A} des Codec trennt (gemäß der Separabilitätsbedingung der Markov-Decke, Preprint §3.4 / Gl. 8):

\mathcal{I} \to X_{\partial A} \to R

Nach der Datenverarbeitungsungleichung kann Information durch aufeinanderfolgende Transformationen nicht zunehmen. Daher skaliert die wechselseitige Information strikt wie folgt:

I_m(\mathcal{I}; R) \le I_m(X_{\partial A}; R)

Anmerkung: Die wechselseitige Information I_m ist hier formal unter einer normalisierten Version des Solomonoffschen Semimaßes definiert (p(\nu) = m(\nu) / \sum_{\nu \le K_{\max}} m(\nu)) über die endlich vielen Algorithmen, die unterhalb der Komplexitätsgrenze K_{\max} beschränkt sind.

Da der Stabilitätsfilter der Abbildung auf die Grenze (X_{\partial A} \to R) eine Kanalkapazität C_{\max} auferlegt, besagt Shannons fundamentales Theorem der Kanalkapazität, dass I_m(X_{\partial A}; R) \le T \cdot C_{\max} für jede Eingabeverteilung gilt, einschließlich des normalisierten Solomonoff-Priors. Die Verkettung dieser Ungleichung mit der Datenverarbeitungsungleichung zeigt, dass der phänomenologische Render strikt durch einen endlichen, über die Dauer T integrierten Flaschenhals begrenzt ist. Daher gilt:

I_m(\mathcal{I}; R) \le T \cdot C_{\max}

Damit eine exakte symmetrische Dualität gilt, müsste die Abbildung zwischen dem Bulk (Substrat) und der Grenze (Render) perfekt invertierbar sein (\Phi^{-1}: R \to \mathcal{I}). Sei \nu_{\text{true}} die spezifische, unbekannte Realisierung des generierenden Algorithmus, die für unser beobachtetes Universum verantwortlich ist (gezogen aus dem zugrunde liegenden algorithmischen Ensemble). Sei ferner N eine effektive Repräsentation des gewaltigen kombinatorischen Raums unterhalbstetig berechenbarer Algorithmen, die unter einer endlichen Komplexitätsschranke K_{\max} operieren.

Annahme P-3.1 (Skalierung der Substratkomplexität): Die wahre generierende Komplexität erfüllt K(\nu_{\text{true}}) \gg T \cdot C_{\max}. (Dies wird explizit durch die Sparsamkeitsargumente der Minimum Description Length in Anhang T-4 motiviert; jeder Algorithmus, der äquivalente Standardmodell-Physik kodiert, erfordert immense strukturelle Daten).

Da die Schranke der wechselseitigen Information deutlich hinter der Information zurückbleibt, die erforderlich ist, um unter Annahme P-3.1 den wahren Bulk-Zustand zu spezifizieren, ist \Phi nachdrücklich als verlustbehaftete Kompressionsabbildung etabliert.

3. Bedingte Entropie und der konditionierte Solomonoff-Prior

Um die Kosten dieser verlustbehafteten Kompression zu quantifizieren, bewerten wir die Fehlerwahrscheinlichkeit eines Beobachters O, der sich strikt innerhalb des Renders R befindet und versucht, das wahre zugrunde liegende generative Substrat-Algorithmus (\nu_{\text{true}}) eindeutig zu erschließen.

Entscheidend ist, dass die Bewertung der erwarteten Komplexität über den rohen Solomonoff-Prior ein Paradox erzeugt: Der rohe Prior wird stark vom Niedrig-K-Schwanz (triviale Programme und konstante Sequenzen) dominiert. Über die unkonditionierte universelle Verteilung ergibt sich für die erwartete Komplexität \langle K \rangle_M eine winzige, vernachlässigbare Schranke (O(100) Bit). Gälte dies für unser Universum, würde die Bedingung K(\nu_{\text{true}}) \gg T \cdot C_{\max} sofort scheitern, wodurch die entropische Grenze vollständig kollabieren würde.

Der rohe unkonditionierte Prior ist jedoch für die Erzeugung interner phänomenologischer Beobachter strukturell bedeutungslos. Um über hinreichende physikalische Mechanik, „requisite variety“ und zeitliche Dauer zu verfügen, um ein Selbstmodell der Aktiven Inferenz zu beherbergen, muss der erzeugende Algorithmus über eine immense minimale strukturelle Basis verfügen. Wie in Anhang T-4 §2.1 quantifiziert, muss der vollständige erzeugende Algorithmus \nu_{\text{true}} nicht nur die Gesetzesstruktur des Standardmodells kodieren (K(\text{laws}) \approx 1750 Bit), sondern auch die spezifischen Mikrozustands-Anfangsbedingungen, was nach Penroses Schätzung K(\text{IC}|\mathcal{M}_1) \sim 10^{123} Bit erfordert. Die kombinierte Komplexität K(\nu_{\text{true}}) \sim 10^{123} Bit setzt daher K_{\text{threshold}}. Wir müssen die Entropie daher ausschließlich über den durch den Stabilitätsfilter konditionierten Prior (M|SF) auswerten — die Teilmenge erzeugender Algorithmen, die über hinreichende Komplexität verfügen (K(\nu) \ge K_{\text{threshold}} \sim 10^{123}), um ein Universum zu erzeugen, das mit der spezifisch beobachteten Physik und den Anfangsbedingungen dieses kausalen Patchs konsistent ist. Indem wir bestätigen, dass \langle K \rangle_{M|SF} \ge K_{\text{threshold}} \gg T \cdot C_{\max}, verankern wir Annahme P-3.1 unabhängig und bestätigen über diese konditionierte Verteilung, dass die erwartete generative Komplexität korrekt durch \langle K \rangle_{M|SF} \gg T \cdot C_{\max} nach unten beschränkt wird.

Die eigentliche strukturelle Schlussfolgerung des informationellen Verhungerns wirkt in diesem eingeschränkten Parameterraum entscheidend durch die bedingte Shannon-Entropie:

H_{m|SF}(\mathcal{I} | R) = H_{m|SF}(\mathcal{I}) - I_{m|SF}(\mathcal{I}; R) \approx \langle K \rangle_{M|SF} - T \cdot C_{\max} \approx \langle K \rangle_{M|SF}

(Anmerkung: Die Kanalkapazitätsschranke T \cdot C_{\max} gilt für I_{m|SF} universell kraft genau desselben Shannon-Supremum-Theorems, das in Abschnitt 2 für jede Eingabeverteilung etabliert wurde.)

(Anmerkung: Die Identität H_m(\mathcal{I}) \approx \langle K \rangle_M ist präzise bis auf eine negative Normierungskonstante \log_2 Z, die nativ aus dem Grenzwert des abgeschnittenen Solomonoffschen Semimaßes hervorgeht. Da sich das vollständige uneingeschränkte Semimaß 1 annähert, ist |\log_2 Z| sicher direkt durch den Beschreibungs­längen-Overhead der Universellen Turingmaschine beschränkt, eine feste Konstante c_U \approx O(100) Bit. Dies etabliert die strukturelle Normierung als einen trivialen Rundungsfehler gegenüber der funktional makroskopischen Skala von \langle K \rangle_{M|SF}.)

Korollar: Kolmogorov-gewichtete Fano-Ungleichung

Während die Schranke der bedingten Entropie in überwältigendem Maße als physikalischer Beweis makroskopischer informationeller Verarmung dient, stellen wir fest, dass die Anpassung der Fano-Ungleichung unter demselben normierten, SF-konditionierten Solomonoff-gewichteten Maß den standardmäßigen uniformen Entropieterm im Zähler durch die erwartete Kolmogorov-Komplexität ersetzt und so die sekundäre statistische untere Schranke erzeugt:

P(\hat{\mathcal{I}} \neq \mathcal{I}) \ge \frac{\langle K \rangle_{M|SF} - T \cdot C_{\max} - 1}{K_{\max}}

(Anmerkung: Unter Annahme P-3.1 ist diese Untergrenze der Fehlerwahrscheinlichkeit strikt positiv, jedoch im Verhältnis zu makroskopischen Skalen mathematisch schwach; sie sollte ausschließlich als sekundäres statistisches Korollar der entropischen Grenze verstanden werden.)

4. Verbindung zu QECC-Beschränkungen und informationeller Irreversibilität

Da die Schranke bewusster Integration T \cdot C_{\max} im Vergleich zur algorithmischen Quelle nur einen vernachlässigbaren Bruchteil ausmacht, bleibt die bedingte Entropie H_{m|SF}(\mathcal{I}|R) näherungsweise identisch zu \langle K \rangle_{M|SF}. Der überwältigende Großteil der Information des generativen Substrats ist von innerhalb von R aus irreduzibel unzugänglich.

VERMUTUNG (Offene Kante): Die hier definierten Grenzen der bedingten Entropie lassen sich sauber auf den in Anhang P-2 definierten Zusammenbruch abbilden. Unter der Bulk-Boundary-Abbildung des Quantum Error Correction Code (QECC) fungiert der Stabilitätsfilter \Phi als partielle Isometrie, die die niederenergetischen Randzustände schützt. Wir vermuten, dass die spezifische MERA-Schnitttiefe \tau^* mathematisch mit dem präzisen räumlichen Kapazitätshorizont zusammenhängt, der die Schwelle des bedingten Entropie-Hungers definiert, begrenzt durch die algorithmische QECC-ADH-Rekonstruktionsbedingung. Eine formale Herleitung, die die statistischen Grenzen mit der geometrischen MERA-Schnitttiefe verbindet, wird auf zukünftige theoretische Arbeiten verschoben. Funktional jedoch ist Information, die tiefer im Bulk-Substrat liegt, durch die einseitige Kompression dauerhaft verschlüsselt.

Die interne Rekonstruktionsanstrengung des Beobachters ist mathematisch gesättigt. Die inverse Abbildung \Phi^{-1} ist auf der Skala minimalen Fehlers von innerhalb von R aus statistisch nicht invertierbar.

5. Schlussfolgerung: Phänomenologische Priorität

Daher wirkt der informationelle Pfeil überwiegend in eine Richtung: Information wird bei der Projektion vom Substrat zum Render systematisch zerstört, und sie kann innerhalb des phänomenologischen Rahmens weder kausal noch statistisch zurückgewonnen werden.

Durch diese Formulierung der Fano-Grenze zeigen wir unter Annahme P-3.1 formal, dass Asymmetrische Holographie eine strikte mathematische Konsequenz daraus ist, einen ratenbegrenzten Beobachter innerhalb des kausalen Rahmens zu platzieren.

Phänomenologisches Bewusstsein ist somit der erstpersonale innere Erfahrungszustand, strukturell auf der Ausgabeseite eines nicht invertierbaren Kompressionsalgorithmus gefangen zu sein. Dies zeigt, dass unsere lokale Physik zwar holographischen Beschränkungen gehorcht (indem sie Flächen- gegenüber Volumengrenzen optimiert), die Randrepräsentation jedoch als irreversibler epistemischer Engpass wirkt und damit formal die für die übliche exakte stringtheoretische Dualität erforderliche Symmetrie bricht.