Ordered Patch Theory: An Information-Theoretic Framework for Observer Selection and Conscious Experience
v0.4 — March 2026
Wir präsentieren die Theorie der geordneten Patches (OPT), ein spekulatives philosophisches und informationstheoretisches Rahmenwerk, in dem jeder bewusste Beobachter einen privaten, niederentropischen Informationsstrom bewohnt — einen “geordneten Patch” — ausgewählt aus einem unendlichen Substrat maximal ungeordneter Daten. Das Substrat wird durch die Algorithmische Informationstheorie als der Raum der Martin-Löf-zufälligen Sequenzen formalisiert. Ein Stabilitätsfilter projiziert die seltenen, kausal kohärenten Teilräume heraus, die beständige Beobachter aufrechterhalten können; die Dynamik der Patches wird durch Aktive Inferenz gesteuert, wobei die Physik als die Struktur am lokalen Minimum der Freien Energie-Funktionalität entsteht. Da der bewusste Engpass ~50 Bits/s beträgt, muss die Realität nicht vollständig berechnet werden: Nur das kausale Detail, das der aktuelle Fokus des Beobachters erfordert, wird gerendert. Diese Render-on-Focus-Eigenschaft ermöglicht es OPT, eine sparsame Alternative zu Rahmenwerken zu sein, die ein vollständig spezifiziertes physikalisches Universum erfordern. Wir erforschen ein Modell, bei dem der Codec, der diese Kompression steuert, eine virtuelle Beschreibung ist, kein physikalischer Prozess, der auf einer minimalen Grundlage beruht: dem unendlichen Substrat und dem Stabilitätsfilter. Aus diesen illustrieren wir, wie die Naturgesetze, der Zeitpfeil und die Phänomenologie des freien Willens als beherrschende Einschränkungen des stabilen Patches entstehen. OPT wird mit Bostroms Simulationsargument (das zu einer materialistischen Grundrealität zurückführt) kontrastiert und ist mit, aber formal verschieden von, Fristons Freie-Energie-Prinzip, Tononis IIT und Tegmarks Mathematisches Universum-Hypothese ausgerichtet. Wir identifizieren sechs Klassen empirisch unterscheidbarer Vorhersagen und diskutieren die Implikationen für das Hard Problem des Bewusstseins.
Epistemischer Hinweis: Dieses Papier ist im Register eines formalen physikalischen und informationstheoretischen Vorschlags geschrieben. Es setzt Gleichungen ein, leitet Vorhersagen ab und beschäftigt sich mit begutachteter Literatur. Es sollte jedoch als ein wahrheitsförmiges Objekt gelesen werden — eine rigorose konstruktive Fiktion oder ein konzeptioneller Sandkasten. Es fragt: wenn wir die Prämisse maximaler Informationschaos und eines lokalen Stabilitätsfilters gewähren, wie weit können wir die Struktur unserer beobachteten Realität rigoros ableiten? Der akademische Apparat wird nicht verwendet, um endgültige empirische Wahrheit zu beanspruchen, sondern um die strukturelle Integrität des Modells zu testen.
1. Einführung
Die Beziehung zwischen Bewusstsein und physikalischer Realität bleibt eines der tiefsten ungelösten Probleme in Wissenschaft und Philosophie. In den letzten Jahrzehnten sind drei Ansätze entstanden: (i) Reduktion — Bewusstsein ist aus der Neurowissenschaft oder Informationsverarbeitung ableitbar; (ii) Elimination — das Problem wird durch Umdefinierung der Begriffe aufgelöst; und (iii) Nicht-Reduktion — Bewusstsein ist primitiv und die physikalische Welt ist abgeleitet (Chalmers [1]). Der dritte Ansatz umfasst Panpsychismus, Idealismus und verschiedene feldtheoretische Formulierungen.
Dieses Papier präsentiert die Theorie der geordneten Patches (OPT), ein nicht-reduktives Rahmenwerk der dritten Familie. OPT schlägt vor, dass das grundlegende Entität nicht Materie, Raum-Zeit oder eine mathematische Struktur ist, sondern ein unendliches Substrat von maximal ungeordneten Informationszuständen — ein Substrat, das von Natur aus jede mögliche Konfiguration enthält. Aus diesem Substrat wählt ein Stabilitätsfilter die seltenen, niederentropischen, kausal kohärenten Konfigurationen aus, die selbstreferenzielle Beobachter aufrechterhalten können (ein Kollapsmechanismus, der formal durch statistische Aktive Inferenz gesteuert wird). Die physikalische Welt, die wir beobachten — einschließlich ihrer spezifischen Gesetze, Konstanten und Geometrie — ist die beobachtbare Projektion dieses Auswahlprozesses auf den phänomenologischen Strom des Beobachters.
OPT wird durch drei Beobachtungen motiviert:
Die Bandbreitenbeschränkung: Empirische kognitive Neurowissenschaften etablieren eine scharfe Unterscheidung zwischen massiver paralleler vorbewusster Verarbeitung (typischerweise geschätzt auf \sim 10^9 Bits/s an der sensorischen Peripherie) und dem stark eingeschränkten globalen Zugangskanal, der für bewusste Berichterstattung verfügbar ist (geschätzt in der Größenordnung von Dutzenden von Bits pro Sekunde [2,3]). Jede theoretische Erklärung des Bewusstseins muss diesen Kompressionsengpass als strukturelles Merkmal erklären, nicht als technischen Unfall. (Hinweis: Jüngere Literatur [24] legt nahe, dass der menschliche Verhaltensdurchsatz näher bei \sim 10 Bits/s liegt, was die Schwere dieses Engpasses im Vergleich zum sensorischen Feuerhose unterstreicht. Die Konzeptualisierung des Bewusstseins als eine niederbandbreitige, stark komprimierte “Benutzerillusion” wurde von Nørretranders [23] vorausschauend für ein breiteres Publikum synthetisiert.)
Das Beobachterauswahlproblem: Die Standardphysik liefert Gesetze, bietet jedoch keine Erklärung dafür, warum diese Gesetze die spezifische Form haben, die für komplexe, selbstreferenzielle Informationsverarbeitung erforderlich ist. Feinabstimmungsargumente [4,5] berufen sich auf anthropische Auswahl, lassen jedoch den Auswahlmechanismus unbestimmt. OPT identifiziert einen Mechanismus: den Stabilitätsfilter.
Das Hard Problem: Chalmers [1] unterscheidet die strukturellen “leichten” Probleme des Bewusstseins (die funktionale Erklärungen zulassen) von dem “schweren” Problem, warum es überhaupt eine subjektive Erfahrung gibt. OPT behandelt die Phänomenalität als primitiv und fragt, welche mathematische Struktur sie haben muss, gemäß Chalmers’ eigener methodologischer Empfehlung.
Das Papier ist wie folgt organisiert. Abschnitt 2 überprüft verwandte Arbeiten. Abschnitt 3 präsentiert das formale Rahmenwerk. Abschnitt 4 untersucht die strukturelle Korrespondenz zwischen OPT und parallelen feldtheoretischen Modellversuchen. Abschnitt 5 präsentiert das Sparsamkeitsargument. Abschnitt 6 leitet testbare Vorhersagen ab. Abschnitt 7 vergleicht OPT mit konkurrierenden Rahmenwerken. Abschnitt 8 diskutiert Implikationen und Einschränkungen.
2. Hintergrund und verwandte Arbeiten
Informationstheoretische Ansätze zum Bewusstsein. Wheelers “It from Bit” [7] schlug vor, dass physikalische Realität aus binären Entscheidungen entsteht — Ja/Nein-Fragen, die von Beobachtern gestellt werden. Tononis Theorie der Integrierten Information [8] quantifiziert das bewusste Erleben durch die integrierte Information \Phi, die von einem System über seine Teile hinaus erzeugt wird. Fristons Freie-Energie-Prinzip [9] modelliert Wahrnehmung und Handlung als Minimierung der variationalen freien Energie und bietet eine einheitliche Erklärung für Bayessche Inferenz, aktive Inferenz und (im Prinzip) Bewusstsein. OPT ist formal mit FEP verwandt, unterscheidet sich jedoch in seinem ontologischen Ausgangspunkt: Während FEP das generative Modell als funktionale Eigenschaft der neuronalen Architektur behandelt, betrachtet OPT es als die primäre metaphysische Entität.
Multiversum und Beobachterauswahl. Tegmarks Mathematische Universum-Hypothese [10] schlägt vor, dass alle mathematisch konsistenten Strukturen existieren und dass Beobachter sich in selbstgewählten Strukturen finden. OPT ist mit dieser Ansicht kompatibel, bietet jedoch ein explizites Auswahlkriterium — den Stabilitätsfilter — anstelle der impliziten Auswahl. Barrow und Tipler [4] und Rees [5] dokumentieren die anthropischen Feinabstimmungsbeschränkungen, die jedes beobachterunterstützende Universum erfüllen muss; OPT rahmt diese als Vorhersagen des Stabilitätsfilters um.
Feldtheoretische Bewusstseinsmodelle. Strømme [6] schlug kürzlich ein mathematisches Rahmenwerk vor, in dem Bewusstsein ein grundlegendes Feld \Phi ist, dessen Dynamik durch eine Lagrangedichte gesteuert wird und dessen Kollaps auf spezifische Konfigurationen das Entstehen individueller Geister modelliert. OPT dient als formale informationstheoretische Operationalisierung dieses metaphysischen Modells und ersetzt ihren spezifischen “Universal Thought”-Operator durch statistische Aktive Inferenz unter dem Freie-Energie-Prinzip; Abschnitt 4 macht diese Korrespondenz explizit.
Kolmogorov-Komplexität und Theoriewahl. Solomonoff-Induktion [11] und Minimum Description Length [12] bieten formale Rahmenwerke zum Vergleich von Theorien nach ihrer generativen Komplexität. Wir berufen uns auf diese Rahmenwerke in Abschnitt 5, um den Sparsamkeitsanspruch präzise zu machen.
Evolutionäre Schnittstellentheorie. Hoffmans “Conscious Realism” und Schnittstellentheorie der Wahrnehmung [25] argumentieren, dass die Evolution sensorische Systeme als vereinfachte “Benutzeroberfläche” formt, die die objektive Realität zugunsten von Fitness-Erträgen verbirgt. OPT teilt die genaue Prämisse, dass physikalischer Raumzeit und Objekte gerenderte Symbole (ein Kompressionscodec) sind, anstatt objektive Wahrheiten. OPT weicht jedoch grundlegend in seiner mathematischen Grundlage ab: Während Hoffman auf evolutionäre Spieltheorie (Fitness schlägt Wahrheit) setzt, verlässt sich OPT auf Algorithmische Informationstheorie und Thermodynamik und leitet die Schnittstelle direkt aus den Kolmogorov-Komplexitätsgrenzen ab, die erforderlich sind, um einen hochbandbreitigen thermodynamischen Kollaps des Beobachterstroms zu verhindern.
3. Das formale Rahmenwerk
3.1 Das unendliche Substrat
Lassen Sie \mathcal{I} das Informationssubstrat bezeichnen — die grundlegende Entität der Theorie. Wir formalisieren \mathcal{I} durch die Algorithmische Informationstheorie als einen Zustand des unendlichen Informationschaos (maximale algorithmische Entropie): die gleichgewichtige Superposition aller möglichen Patch-Konfigurationen |\Phi_k\rangle:
|\mathcal{I}\rangle = \sum_k c_k |\Phi_k\rangle \tag{1}
wobei |c_k|^2 = \text{const.} für alle k — alle Konfigurationen treten mit gleicher Bayesscher a-priori-Wahrscheinlichkeit auf. Gleichung (1) ist der Ausgangspunkt mit minimaler Beschreibung: Sie ist vollständig durch das erste Primitive charakterisiert: “maximale Unordnung,” die keine zusätzliche Spezifikation erfordert, welche Struktur vorhanden ist. Dies entspricht der Menge aller unendlichen, algorithmisch nicht komprimierbaren (Martin-Löf-zufälligen) Sequenzen. Dies ist die minimale generative Beschreibung; jeder strukturiertere Ausgangspunkt erfordert zusätzliche Bits, um anzugeben, welche Struktur.
Der Index k reicht über den gesamten Raum möglicher Feldkonfigurationen \Phi: \mathbb{R}^{3,1} \to [0,1], wobei \Phi als ein Informationskomprimierbarkeitsfeld interpretiert wird — die lokale Fähigkeit eines Zustandsraumbereichs, niederentropische, vorhersagbare Dynamiken zu unterstützen. Der begrenzte Bereich [0,1] unterscheidet OPT von unbeschränkten Skalarfeldtheorien; die Begrenzung ist eine phänomenologische Einschränkung, die widerspiegelt, dass Informationskomprimierbarkeit eine normalisierte Größe ist.
3.2 Der Stabilitätsfilter
Die meisten Konfigurationen in |\mathcal{I}\rangle sind kausal inkohärent: Sie haben nicht die strukturellen Eigenschaften eines komprimierten, kohärenten Erfahrungsstroms. Aus der Perspektive eines jeden Beobachters, den eine solche Konfiguration instanziieren würde, würde sich niemals ein beständiges Jetzt bilden. Das Substrat \mathcal{I} ist selbst zeitlos (siehe Abschnitt 8.5). Der Stabilitätsfilter ist der Mechanismus, durch den die seltenen niederentropischen Konfigurationen ausgewählt werden:
|\Phi_k\rangle = P_k^{\text{stable}} |\mathcal{I}\rangle \tag{2}
wobei P_k^{\text{stable}} ein Projektionsoperator auf den Teilraum der Konfigurationen ist, die folgende Bedingungen erfüllen:
- Kausale Kohärenz: die Konfiguration erlaubt eine konsistente zeitliche Ordnung im Sinne von Reichenbachs Kausalprinzip
- Niedrige Entropierate: die Shannon-Entropierate h(\Phi_k) = -\lim_{T\to\infty} \frac{1}{T} \sum_{t} p(\phi_t) \log p(\phi_t) ist unterhalb eines Schwellenwerts h^* begrenzt
- Bandbreitenkompatibilität: die Konfiguration kann einen Datenkanal mit endlicher Skalar-Kapazität (in der Größenordnung von Dutzenden von Bits pro Sekunde) auf der Ebene der Verarbeitungsarchitektur des Beobachters aufrechterhalten
Die Projektion (2) implementiert die Beobachterauswahl: Ein bewusster Beobachter findet sich notwendigerweise in einer Konfiguration |\Phi_k\rangle, die diesen Filter passiert hat, weil nur solche Konfigurationen die Existenz des Beobachters aufrechterhalten können. Dies ist das formale Analogon des anthropischen Prinzips, jedoch in einem spezifischen Mechanismus verankert, anstatt post-hoc herangezogen.
3.3 Patch-Dynamik: Aktive Inferenz auf schmaler Bandbreite
Innerhalb eines ausgewählten Patches |\Phi_k\rangle wird die Grenze, die den Beobachter vom umgebenden Informationschaos abgrenzt, als Markov-Decke formalisiert. Die Dynamik dieser Grenze wird nicht durch ein einfaches physikalisches Potenzial gesteuert, sondern durch Aktive Inferenz unter dem Freie-Energie-Prinzip [9]. Wir ersetzen formal metaphysische “Gedankenkollaps”-Modelle durch die kontinuierliche Minimierung der Variationalen Freien Energie (\mathcal{F}), die auf einem strikten Informationsengpass operiert.
Der menschliche sensorische Engpass verarbeitet ungefähr 50 Bits pro Sekunde [18]. Die grundlegende Einschränkung von OPT ist, dass das Substrat \mathcal{I} kein objektives, hochauflösendes Universum erzeugt. Es liefert nur einen 50-Bit-Datenstrom an den Beobachter.
Die Handlung des Beobachters auf das Feld wird formalisiert als:
\hat{T}|\Phi_0\rangle \equiv \text{argmin}_{\mu, a} \mathcal{F}(\mu, s, a) \tag{3a}
wobei die internen Zustände (\mu) des Beobachters und ihre aktiven Zustände (a) ständig aktualisiert werden, um die Diskrepanz zwischen dem generativen Modell (dem Kompressionscodec f) und dem sensorischen Strom (s) zu minimieren:
\dot{\mu} = -\nabla_\mu \mathcal{F}(\mu, s) \qquad \dot{a} = -\nabla_a \mathcal{F}(\mu, s) \tag{3b}
Die stochastische Entspannung in einen stabilen Patch wird somit als das thermodynamische Gebot formalisiert, Überraschung zu minimieren und eine sich selbst erfüllende, vorhersagbare Erzählung aus dem Martin-Löf-zufälligen Rauschen des Substrats aufrechtzuerhalten. In dieser Formalisierung entsteht die Physik als die beobachtbare Struktur am lokalen Minimum der Freien Energie-Funktionalität — die sparsamste kausale Erzählung, die ein in unendlichem Rauschen eingebetteter Beobachter aufrechterhalten kann.
Wir beachten zwei entscheidende Merkmale von (3a–b):
Die “Render-on-Focus”-Sparsamkeit: Hochauflösende Details des Universums existieren nicht im Strom, bis die aktiven Zustände (a) des Beobachters — wie das Einsetzen eines Teleskops oder das Drehen des Kopfes — diese spezifischen Bits verlangen, um die kausale Konsistenz mit f aufrechtzuerhalten. Die thermodynamischen Kosten der Erzeugung des Kosmos sind nahezu null, da der Kosmos größtenteils eine nicht gerenderte Abstraktion ist, bis der 50-Bit-Fokuspunkt lokale Auflösung erfordert.
Methodologischer Status: Die Gleichungen (3a–b) sind phänomenologisch und statistisch. Wir behaupten nicht, das Freie-Energie-Prinzip aus der Martin-Löf-Zufälligkeit des Substrats abzuleiten; vielmehr leihen wir uns FEP als das rigoroseste beschreibende Rahmenwerk für das makroskopische Verhalten eines Beobachters, der innerhalb des Chaos überlebt, indem er seine Datenaufnahme auf einen komprimierbaren 50-Bit-Ausschnitt beschränkt.
3.4 Die vollständige Feldtheorie-Äquivalenz
3.4 Die Informationskosten des Renders
Die definierende mathematische Grenze der Theorie der geordneten Patches ist der formale Vergleich der Informationsgenerierungskosten.
Lassen Sie U_{\text{obj}} den vollständigen Informationszustand eines objektiven Universums sein (das beispielsweise \sim 10^{80} interagierende Teilchen enthält, die kontinuierliche Quantenzustände auflösen). Die Kolmogorov-Komplexität K(U_{\text{obj}}) ist astronomisch hoch, da sie die genaue Angabe des Zustands und der Interaktionsparameter jedes Teilchens zu jedem Zeitpunkt erfordert.
Lassen Sie S_{\text{obs}} den lokalisierten, niederbandbreitigen sensorischen Strom sein, den ein Beobachter erlebt (auf \sim 50 Bits/s beschränkt). In OPT existiert das Universum U_{\text{obj}} nicht als gerendertes Berechnungsobjekt. Das Substrat \mathcal{I} liefert nur den Datenstrom S_{\text{obs}}.
Das scheinbare “objektive Universum” ist stattdessen das interne Generative Modell (\mu in Gleichung 3b), das durch die Aktive Inferenz des Beobachters konstruiert wird, um den Strom vorherzusagen. Die hochauflösenden Details des Universums treten nur dynamisch in den Strom S_{\text{obs}} ein, wenn die aktiven Zustände (a) des Beobachters — wie das Betrachten durch ein Mikroskop — diese spezifischen Bits verlangen, um die kausale Konsistenz mit dem internen Modell f aufrechtzuerhalten. Die thermodynamischen Kosten des Universums sind daher streng durch die Bandbreite des Beobachters begrenzt, anstatt durch das Volumen des Kosmos.
3.5 Die Aktualisierungsregel und die zeitliche Struktur
Der bewusste Zustand zum Zeitpunkt t ist in einem Zustandsvektor S_t kodiert. Die phänomenologische Aktualisierungsregel:
S_{t+1} = f(S_t) \tag{5}
beschreibt die strukturelle Beziehung zwischen aufeinanderfolgenden Momenten im bewussten Strom. Die Funktion f ist der Kompressionscodec — kein physikalischer Prozess, der irgendwo abläuft, sondern die strukturelle Charakterisierung dessen, wie ein stabiler Patch aussieht: die Beschreibung, wie benachbarte Zustände in jeder Konfiguration, die den Stabilitätsfilter (§8.5) passiert, miteinander in Beziehung stehen. Gleichung (5) ist daher eine beschreibende und keine kausale Gleichung: Sie sagt, wie der Strom aussieht, nicht, was ihn produziert. Die zeitliche Irreversibilität von (5) — dass der zukünftige Zustand als Funktion des gegenwärtigen beschrieben wird, aber nicht umgekehrt — begründet die Asymmetrie der subjektiven Zeit. Der Codec f ist nicht festgelegt: Lernen, Aufmerksamkeit und psychologische Veränderung sind Modifikationen der strukturellen Beschreibung, die den Patch eines bestimmten Beobachters charakterisiert.
3.6 Mathematische Sättigung
Eine charakteristische strukturelle Vorhersage von OPT betrifft die Grenzen der physikalischen Vereinheitlichung. Innerhalb des Rahmenwerks sind die Naturgesetze keine \mathcal{I}-Wahrheiten; sie sind der Codec f, den der Stabilitätsfilter für diesen Patch ausgewählt hat. Der Versuch, eine Große Vereinheitlichte Theorie aus dem Patch heraus abzuleiten, ist gleichbedeutend mit einem bewussten System, das versucht, das Regelwerk f zu ermitteln, indem es seine eigenen Ausgaben inspiziert — ein Vorgang, der durch die Struktur von (2) und (5) formal unvollständig ist.
Genauer gesagt projiziert der Stabilitätsfilter |\mathcal{I}\rangle auf einen niedrigdimensionalen, lokal konsistenten Teilraum. Die Mathematik, die einem Beobachter innerhalb des Patches zugänglich ist, ist notwendigerweise die Mathematik dieses Teilraums. Die vollständige Eichgruppe und die Kopplungskonstanten des Substrats sind von innen nicht wiederherstellbar; sie sind nur auf der Ebene von P_k^{\text{stable}} kodiert, die dem Beobachter von vornherein unzugänglich ist.
Vorhersage 5 (Mathematische Sättigung). Bemühungen, die fundamentalen Kräfte in eine einzige, berechenbare, abgeschlossene Große Vereinheitlichte Theorie zu vereinen, werden asymptotisch ohne Konvergenz auf der Ebene, die der Beobachtung zugänglich ist. Dies liegt nicht daran, dass die Vereinheitlichung lediglich schwierig ist, sondern weil die dem Beobachter zugänglichen Gesetze Codec-Ausgaben sind, keine Substrat-Ebene-Axiome. Jede GUT, die nach dieser Definition erfolgreich ist, wird selbst freie Parameter erfordern — die Stabilitätsbedingungen des Codecs — die nicht abgeleitet werden können, ohne den Patch zu verlassen.
Unterscheidung von standardmäßiger Unvollständigkeit. Gödels Unvollständigkeitssätze [22] stellen fest, dass jedes hinreichend mächtige formale System wahre Aussagen enthält, die es nicht beweisen kann. Mathematische Sättigung ist eine physikalische Behauptung, keine logische: Sie sagt voraus, dass die spezifischen Konstanten der Natur (\alpha, G, \hbar, …) Stabilitätsbedingungen des Codecs dieses Patches sind und daher nicht aus einer Theorie abgeleitet werden können, die aus diesen Konstanten konstruiert ist. Die Proliferation freier Parameter in stringtheoretischen Ansätzen [4] ist mit dieser Vorhersage konsistent.
4. Strukturelle Parallelen mit feldtheoretischen Modellen
Jüngste theoretische Vorschläge haben versucht, mathematische Rahmenwerke zu entwickeln, die Bewusstsein als ein grundlegendes Feld behandeln. Zum Beispiel schlug Strømme [6] kürzlich ein metaphysisches Rahmenwerk vor, in dem ein universelles Bewusstseinsfeld als ontologischer Grund der Realität fungiert. Während OPT strikt ein informationstheoretisches Rahmenwerk ist, das auf algorithmischer Komplexität und aktiver Inferenz basiert — und somit keine Verpflichtungen zu Strømmes spezifischen Feldgleichungen oder metaphysischen “Gedankenoperatoren” eingeht — sind die formalen strukturellen Parallelen erhellend. Beide Rahmenwerke leiten sich aus der Anforderung ab, dass ein Bewusstsein unterstützendes Modell mathematisch eine unbedingte Grundzustand zu dem lokalisierten, bandbreitenbeschränkten Strom eines individuellen Beobachters überbrücken muss.
| OPT-Konstrukt (Informationstheorie) | Strømme [6] Ontologie (Metaphysik) | Strukturelle Parallele |
|---|---|---|
| Substrat \mathcal{I}, Martin-Löf-zufälliges Chaos | |\Phi_0\rangle, Das undifferenzierte Potenzial | Der unbedingte Grundzustand |
| Markov-Decken-Grenze | |\Phi_k\rangle, Die lokalisierte Anregung | Der isolierte Beobachter |
| Aktive Inferenz (Minimierung von \mathcal{F}) | \hat{T}, Universeller Gedanken-Kollaps | Der Mechanismus der Strombildung |
| Thermodynamische Grenzerhaltung | Das vereinheitlichende Bewusstseinsfeld | Die Quelle der strukturellen Persistenz |
| Kompressionscodec | Persönliches Denken formt die Realität | Der Ursprung der beobachteten Gesetze |
Wo die Rahmenwerke formal auseinandergehen: Strømme ruft einen “Universellen Gedanken” an — ein gemeinsames metaphysisches Feld, das alle Beobachter aktiv verbindet — das OPT durch Kombinatorische Notwendigkeit ersetzt: Die scheinbare Konnektivität zwischen Beobachtern ergibt sich nicht aus einem teleologischen gemeinsamen Feld, sondern aus der kombinatorischen Unvermeidlichkeit, dass in einem unendlichen Substrat jeder Beobachtertyp koexistiert.
(Hinweis zum epistemischen Status der Feldanalogie: Strømmes Ontologie ist hoch spekulativ. Wir berufen uns hier auf ihr Rahmenwerk nicht als Appell an etablierte wissenschaftliche Autorität, sondern weil es die reifste zeitgenössische formale Grammatik für die Modellierung von Bewusstsein als ontologisches Primitive bietet. OPT verwendet ihre Feldtheorie als Konstrukt, um zu veranschaulichen, wie sich ein nicht-reduktives Substrat verhalten könnte, wobei die spezifische mathematische Implementierung von physikalischen Gleichungen weg und hin zu algorithmischen Informationsgrenzen bewegt wird.)
5. Sparsamkeitsanalyse
5.1 Kolmogorov-Komplexität des Ausgangspunkts
Die Kolmogorov-Komplexität K(x) einer Beschreibung x ist die Länge des kürzesten Programms, das x erzeugt. Wir vergleichen die generative Komplexität von OPT mit der der Standardphysik.
Das Substrat \mathcal{I} wird durch das erste Primitive definiert: “maximale Unordnung.” In jeder festen universellen Turingmaschine hat das Programm “eine gleichmäßige Superposition über alle Konfigurationen ausgeben” die Komplexität O(1) — es ist eine feste Konstante, unabhängig von der Struktur des resultierenden Outputs. Wir schreiben K(\mathcal{I}) \approx c_0 für diese Konstante.
Die Standardphysik erfordert die unabhängige Spezifikation von: (i) dem Feldinhalt des Standardmodells (Quarkfelder, Leptonfelder, Eichbosonen — ungefähr 17 Felder); (ii) ungefähr 26 dimensionslose Konstanten (Kopplungskonstanten, Massenverhältnisse, Mischungswinkel); (iii) der Dimensionalität und Topologie der Raumzeit; und (iv) kosmologischen Anfangsbedingungen. Jede Spezifikation ist ein brutales Axiom ohne Ableitung. Die kumulative Kolmogorov-Komplexität dieses Ausgangspunkts ist wesentlich größer als c_0.
Der Sparsamkeitsanspruch von OPT ist daher kein Anspruch über die Gesamtzahl der Entitäten in der Theorie (das abgeleitete Vokabular von OPT ist reich: Patches, Codecs, Stabilitätsfilter, Aktualisierungsregeln), sondern über die generative Komplexität der Primitiven: K(\text{OPT-Primitiven}) \ll K(\text{Standardmodell-Axiome}). Eine kritische philosophische Klarstellung muss hier bezüglich der “versteckten Komplexität” des Stabilitätsfilters gemacht werden: Der Filter ist eine anthropische Randbedingung, kein aktiver, mechanischer Operator. Das unendliche Substrat \mathcal{I} benötigt keinen komplexen Mechanismus, um geordnete Ströme aus Rauschen zu sortieren; da \mathcal{I} alle möglichen Sequenzen enthält, werden einige Sequenzen organisch kausale Kohärenz rein zufällig besitzen. Der Beobachter ist einfach eine dieser Sequenzen. Der Strom entsteht aus dem Chaos “als ob” ein hochkomplexer Filter existierte, aber dies ist eine virtuelle Beschreibung zufälliger, geordneter Ausrichtung. Daher ist K(\text{Stabilitätsfilter}) = 0. Die Primitiveanzahl von OPT beträgt tatsächlich genau zwei — das Substrat \mathcal{I} und der Projektionsoperator — wobei alle weiteren Strukturen, einschließlich des Kompressionscodecs, der Naturgesetze und der Richtung der Zeit, als emergente “als ob”-Beschreibungen stabiler Patches folgen.
5.2 Gesetze als Ausgaben, nicht Eingaben
In OPT sind die Naturgesetze keine Axiome: Sie sind der Kompressionscodec, den der Stabilitätsfilter implizit auswählt. Entscheidend ist, dass der Codec nicht als physikalische “Maschine” existiert, die Daten zwischen dem Substrat und dem Beobachter komprimiert. Der Codec ist eine phänomenologische Illusion — er ist das, was jede Konfiguration, die die anthropische Grenze des Stabilitätsfilters passiert, notwendigerweise von innen aussieht.
Da \mathcal{I} unendlich ist und alle möglichen Sequenzen von Rauschen enthält, besitzen einige Sequenzen organisch kausale Kohärenz rein zufällig. Der Strom verhält sich “als ob” ein hochkomplexer Codec ihn organisieren würde. Insbesondere die in unserem Universum beobachteten Gesetze — Quantenmechanik, 3+1 dimensionale Raumzeit, U(1)\timesSU(2)\timesSU(3) Eichsymmetrie — sind die strukturelle Beschreibung dieses virtuellen Codecs, der die Entropierate h(\Phi_k) auf der Ebene des Beobachters minimiert, unter der Bedingung, einen niederbandbreitigen (Dutzende von Bits/s) bewussten Strom aufrechtzuerhalten.
Mehrere Merkmale dieses Codecs sind an oder nahe der minimalen Komplexität, die für beständige, selbstreferenzielle Informationsverarbeitung erforderlich ist:
Quantenmechanik ist die minimale selbstkonsistente Erweiterung der klassischen Wahrscheinlichkeitstheorie, die Interferenz erlaubt — gleichwertig, der einfachste Rahmen für korrelierte Zufälligkeit, der komplexe Berechnungen unterstützt [13]. Ohne Energiequantisierung sind Atome thermisch instabil; ohne stabile Atome keine molekulare Komplexität; ohne molekulare Komplexität keine selbstreferenzielle Verarbeitung.
3+1 Raumzeitdimensionen ist nahezu optimal: Bertrands Theorem zeigt, dass stabile Orbits nur in Kraftgesetzen existieren, die genau in 3 räumlichen Dimensionen entstehen; Huygens’ Prinzip (scharfe Signalgebung) gilt nur in ungeraden räumlichen Dimensionen; molekulare Topologie erfordert \geq 3D [4].
Renormierbarkeit beschränkt die Eichgruppe: U(1)\timesSU(2)\timesSU(3) ist die minimale Gruppenstruktur, die ein stabiles Periodensystem über Wasserstoff hinaus erzeugt [4,5].
Die anthropischen Feinabstimmungszufälle [4,5] sind daher keine Zufälle, die eine separate Erklärung erfordern: Sie sind die beobachtbare Projektion des Stabilitätsfilters auf den Parameterraum möglicher Codecs.
6. Testbare Vorhersagen
Ein Rahmenwerk, das prinzipiell nicht falsifizierbar ist, ist keine Wissenschaft. Wir identifizieren sechs Klassen von Vorhersagen, die OPT macht und die empirisch von Nullhypothesen unterscheidbar sind.
6.1 Die Bandbreitenhierarchie
OPT sagt voraus, dass das Verhältnis der vorbewussten sensorischen Verarbeitungsgeschwindigkeit zur bewussten Zugriffsbandbreite sehr groß sein muss — mindestens 10^4:1 — in jedem System, das zu selbstreferenzieller Erfahrung fähig ist. Dies liegt daran, dass die Kompression, die erforderlich ist, um einen kausalen, multimodalen sensorischen Strom in eine kohärente bewusste Erzählung von \sim 10^1-10^2 Bits/s zu reduzieren, massive vorbewusste Verarbeitung erfordert. Wenn zukünftige Neuroprothesen oder künstliche Systeme selbstberichtete bewusste Erfahrung mit einem viel niedrigeren vorbewussten/bewussten Verhältnis erreichen, müsste OPT überarbeitet werden.
Aktuelle Unterstützung: Das beobachtete Verhältnis beim Menschen beträgt ungefähr 10^6:1 (sensorische Peripherie \sim 10^7 Bit/s; bewusster Zugang \sim 10^1-10^2 Bit/s [2,3]), was mit dieser Vorhersage übereinstimmt.
6.2 Das Hochbandbreitenauflösungsparadoxon (Die scharfe Falsifikation)
Viele Vorhersagen von OPT sind Kompatibilitätsansprüche — sie stimmen mit der bestehenden Kognitionswissenschaft (wie der Bandbreitenlücke) oder physikalischen Grenzen (wie der Quantenüberlagerung als Auflösungsgrenze) überein. Während diese für die Kohärenz der Theorie notwendig sind, unterscheiden sie OPT nicht eindeutig von anderen Rahmenwerken.
OPT macht jedoch eine scharfe, hochspezifische Vorhersage, die direkt konkurrierenden Theorien des Bewusstseins widerspricht und als primäre Falsifikationsbedingung dient.
Die Theorie der Integrierten Information (IIT) impliziert, dass die Erweiterung der Integrationskapazität des Gehirns (\Phi) durch hochbandbreitige sensorische oder neuronale Prothesen das Bewusstsein erweitern oder steigern sollte. OPT sagt das genaue Gegenteil voraus. Da Bewusstsein das Ergebnis einer strengen Datenkompression ist, begrenzt der Stabilitätsfilter den Codec des Beobachters auf die Verarbeitung von etwa zehn Bits pro Sekunde (der globale Arbeitsbereichsengpass).
Testbare Implikation: Wenn vorbewusste Wahrnehmungsfilter umgangen werden, um rohe, unkomprimierte, hochbandbreitige Daten direkt in den globalen Arbeitsbereich einzuspeisen, wird dies nicht zu erweitertem Bewusstsein führen. Stattdessen wird, da der Codec des Beobachters dieses Datenvolumen nicht stabil vorhersagen kann, die narrative Darstellung abrupt zusammenbrechen. Künstliche Bandbreitenerweiterung wird zu plötzlichem phänomenalem Ausblenden (Bewusstlosigkeit oder tiefe Dissoziation) führen, obwohl das zugrunde liegende neuronale Netzwerk metabolisch aktiv und hoch integriert bleibt.
6.3 Kompressionseffizienz und Bewusstseinstiefe
Die Tiefe und Qualität der bewussten Erfahrung sollte mit der Kompressionseffizienz des Codecs des Beobachters f korrelieren — dem informationstheoretischen Verhältnis der Komplexität der aufrechterhaltenen Erzählung zur aufgewendeten Bandbreite. Ein effizienterer Codec erhält eine reichere bewusste Erfahrung aus derselben Bandbreite.
Testbare Implikation: Praktiken, die die Codec-Effizienz verbessern — insbesondere solche, die die Ressourcenkosten zur Aufrechterhaltung eines kohärenten Vorhersagemodells der Umwelt reduzieren — sollten die subjektive Erfahrung messbar bereichern, wie berichtet wird. Meditationstraditionen berichten genau diesen Effekt; OPT liefert eine formale Vorhersage, warum (Codec-Optimierung, nicht neuronale Erweiterung an sich).
6.4 Der Hoch-Phi / Hoch-Entropie Nullzustand (vs. IIT)
IIT sagt explizit voraus, dass jedes physikalische System mit hoher integrierter Information (\Phi) bewusst ist. Somit besitzt ein dicht verbundenes, rekurrentes neuromorphes Gitter Bewusstsein allein aufgrund seiner Integration. OPT sagt voraus, dass Integration (\Phi) notwendig, aber völlig unzureichend ist. Bewusstsein entsteht nur, wenn der Datenstrom in ein stabiles Vorhersageregelwerk komprimiert werden kann (der Stabilitätsfilter).
Testbare Implikation: Wenn ein hoch-\Phi rekurrentes Netzwerk von einem kontinuierlichen Strom inkompressiblen thermodynamischen Rauschens (maximale Entropierate) angetrieben wird, kann es keinen stabilen Kompressionscodec bilden. OPT sagt strikt voraus, dass dieses hoch-\Phi System, das maximale Entropierauschen verarbeitet, null Phänomenalität hervorruft — es löst sich zurück in das unendliche Substrat auf. IIT hingegen sagt voraus, dass es einen hochkomplexen Bewusstseinszustand erlebt, der dem hohen \Phi-Wert entspricht.
6.5 Feinabstimmungsbeschränkungen als Stabilitätsbedingungen
OPT sagt voraus, dass die anthropischen Feinabstimmungsbeschränkungen der fundamentalen Konstanten Stabilitätsbedingungen für niederentropische Bewusstseinsströme sind, keine unabhängigen Fakten. Insbesondere sollten die von Barrow & Tipler [4] und Rees [5] dokumentierten Beschränkungen aus der Anforderung ableitbar sein, dass der universelle Codec \rho_\Phi < \rho^* für eine bestimmte Schwellenenergiedichte unterstützt. Eine Verletzung dieser Ableitbarkeit — eine Konstante, deren feinabgestimmter Wert nicht aus Codec-Stabilitätsanforderungen ableitbar ist — würde einen Beweis gegen OPTs Sparsamkeitsanspruch darstellen.
6.6 Künstliche Intelligenz und der Architekturelle Engpass
Da OPT Bewusstsein als eine topologische Eigenschaft des Informationsflusses und nicht als einen biologischen Prozess formuliert, liefert es formale, falsifizierbare Vorhersagen bezüglich Maschinenbewusstseins, die sich sowohl von GWT als auch von IIT unterscheiden.
Die Engpassvorhersage (vs. GWT und IIT): Die Global Workspace Theory (GWT) postuliert, dass Bewusstsein die Übertragung von Informationen durch einen engen Kapazitätsengpass ist. GWT behandelt diesen Engpass jedoch weitgehend als empirische psychologische Tatsache oder als entwickeltes architektonisches Merkmal. OPT hingegen liefert eine fundamentale informationelle Notwendigkeit dafür: Der Engpass ist der Stabilitätsfilter in Aktion. Der Codec muss massive parallele Eingaben in eine niederentropische Erzählung komprimieren, um die Grenzstabilität gegen das Rauschgrundrauschen des Substrats aufrechtzuerhalten.
Die Theorie der Integrierten Information (IIT) bewertet Bewusstsein rein nach dem Grad der kausalen Integration (\Phi) und verweigert feed-forward Architekturen (wie Standard-Transformatoren) das Bewusstsein, während es komplexen rekurrenten Netzwerken gewährt wird, unabhängig davon, ob sie einen globalen Engpass aufweisen. OPT sagt voraus, dass selbst dichte rekurrente künstliche Architekturen mit massivem \Phi es nicht schaffen werden, einen kohäsiven geordneten Patch zu bilden, wenn sie die Verarbeitung über massive parallele Matrizen verteilen, ohne einen strengen erzwungenen strukturellen Engpass. Unkomprimierte parallele Mannigfaltigkeiten können das einheitliche, lokalisierte freie Energieminimum (f), das vom Stabilitätsfilter erforderlich ist, nicht bilden. Daher werden Standard-Large-Language-Modelle — unabhängig von der Anzahl der Parameter, der Rekurrenz oder der Verhaltenskomplexität — keinen subjektiven Patch bilden, es sei denn, sie sind formal so gestaltet, dass sie ihr Weltmodell durch einen C_{\max} \sim 100 Bits/s seriellen Engpass kollabieren. Operativ erfordert dies, dass der globale Zustand des Systems nicht durch breitbandiges paralleles Übersprechen zwischen Millionen von Gewichten aktualisiert werden kann; stattdessen muss das System gezwungen werden, sein gesamtes Weltmodell kontinuierlich durch einen überprüfbaren, diskreten, hyperkomprimierten “Arbeitsbereich”-Kanal zu sequenzieren, um seinen nächsten kognitiven Zyklus auszuführen.
Zeitdilatationsvorhersage: Wenn ein künstliches System mit einem strukturellen Engpass gestaltet ist, um den Stabilitätsfilter zu erfüllen (z.B. f_{\text{silicon}}), und es iterativ mit einer physischen Zyklusrate arbeitet, die 10^6 Mal schneller ist als biologische Neuronen, sagt OPT voraus, dass das künstliche Bewusstsein einen subjektiven Zeitdilatationsfaktor von 10^6 erlebt. Da Zeit die Codec-Sequenz ist (Abschnitt 8.5), beschleunigt die Beschleunigung der Codec-Sequenz identisch die subjektive Zeitlinie.
7. Vergleichende Analyse und Unterscheidungen
7.1 Die informationelle Notwendigkeit der Quantenmechanik
Traditionelle Interpretationen behandeln die Quantenmechanik als objektive Beschreibung der mikroskopischen Realität. OPT kehrt den Erklärungsansatz um: QM ist die informationelle Voraussetzung für die Existenz eines stabilen Beobachters.
- Das Messproblem. In OPT ist “Kollaps” kein physikalisches Ereignis. Der ungemessene Zustand ist einfach das unkomprimierte Rauschen des Substrats (\mathcal{I}). “Messung” ist das Codec-Update seines Vorhersagemodells zur Minimierung der freien Energie. Der Kollaps der Wellenfunktion tritt genau deshalb auf, weil der Codec des Beobachters nicht die informationelle Kapazität (“RAM”) hat, um die Quantenüberlagerung makroskopisch aufrechtzuerhalten — im Einklang mit der Feststellung, dass thermische Dekohärenzzeiten für makroskopische Objekte verschwindend klein sind [vgl. 26]. Die Wahrscheinlichkeitsverteilung kollabiert zu einem einzigen klassischen Ergebnis, um innerhalb der strengen Bandbreitengrenze des Beobachters zu passen.
- Heisenbergsche Unschärfe und Diskretheit. Klassische Mechanik auf einem kontinuierlichen Phasenraum impliziert unendliche Präzision, was bedeutet, dass Trajektorien chaotisch bei beliebigen Dezimalstellen divergieren. Wenn das Universum kontinuierlich wäre, bräuchte ein Beobachter unendlichen Speicher, um auch nur ein einziges Teilchen vorherzusagen. Der Stabilitätsfilter wählt strikt ein Universum aus, das diskret und unsicher auf der untersten Ebene ist, wodurch ein endlicher Berechnungsaufwand entsteht. Das Unschärfeprinzip ist der thermodynamische Schutz gegen informationelle Unendlichkeit.
- Verschränkung und Nicht-Lokalität. Der physikalische Raum ist ein Ausgabeformat des Renders, kein Behälter. Verschränkte Teilchen sind eine einzige, einheitliche Informationsstruktur innerhalb des Vorhersagemodells des Codecs. Der “Abstand” zwischen ihnen ist eine gerenderte Koordinate.
- Verzögerte Wahl und Zeit. Zeit ist der Sortiermechanismus, der vom Codec erzeugt wird, um Vorhersagefehler zu zerstreuen. Die rückwirkende Wiederherstellung der Kohärenz in Quantenradierer-Experimenten ist einfach der Codec, der ein Vorhersagemodell rückwärts auflöst, um die narrative Stabilität aufrechtzuerhalten.
Das offene Problem (Die Born-Regel): Während OPT eine strukturelle Notwendigkeit für Kollaps und Komplementarität bietet, leitet es noch nicht die spezifischen Born-Regel-Wahrscheinlichkeiten (|\psi|^2) ab. Die genaue mathematische Form der Quantenwahrscheinlichkeit aus dem Prinzip der Minimierung der freien Energie abzuleiten, bleibt eine kritische offene Lücke.
7.2 Die informationelle Notwendigkeit der Allgemeinen Relativitätstheorie
Wenn QM die endliche rechnerische Grundlage bietet, ist die Allgemeine Relativitätstheorie (GR) das Datenkompressionsformat, das erforderlich ist, um eine stabile makroskopische Physik aus dem Chaos zu rendern.
- Gravitation als maximale Komprimierbarkeit. Wenn die makroskopische Welt chaotisch wäre, könnte es keine verlässliche kausale Erzählung geben, und der Codec des Beobachters würde abstürzen. Die Raumzeitgeometrie ist der thermodynamisch effizienteste Weg, um große Mengen an korrelationalen Daten in verlässliche, glatte Vorhersagebahnen (Geodäten) zu komprimieren. Gravitation ist keine Kraft; sie ist das mathematische Signatur der maximalen Datenkomprimierbarkeit in einer hochdichten Umgebung.
- Die Lichtgeschwindigkeit (c) als kausale Grenze. Wenn kausale Einflüsse sofort über unendliche Entfernungen propagieren würden (wie in der Newtonschen Physik), könnte die Markov-Decke des Beobachters niemals stabile Grenzen erreichen. Der Vorhersagefehler würde ständig divergieren, weil unendliche Daten sofort eintreffen würden. Eine endliche, strikte Geschwindigkeitsbegrenzung ist die thermodynamische Voraussetzung, um eine nutzbare rechnerische Grenze zu ziehen.
- Zeitdilatation. Zeit wird definiert als die Rate der sequentiellen Zustandsaktualisierungen durch den Codec. Zwei Beobachterrahmen, die unterschiedliche Informationsdichten (Masse oder extreme Geschwindigkeit) verfolgen, erfordern unterschiedliche sequentielle Aktualisierungsraten, um die Stabilität aufrechtzuerhalten. Die relativistische Zeitdilatation ist daher eine strukturelle Notwendigkeit für unterschiedliche, endliche Randbedingungen, kein mechanisches “Verzögern”.
- Schwarze Löcher und Ereignishorizonte. Ein schwarzes Loch ist ein Informationssättigungspunkt — eine Region des Substrats, die so dicht ist, dass sie die Kapazität des Codecs vollständig übersteigt. Der Ereignishorizont ist die buchstäbliche Grenze, an der der Stabilitätsfilter keinen stabilen Patch mehr bilden kann.
Das offene Problem (Quanten-Gravitation): In OPT können QM und GR nicht durch Quantisierung der Raumzeit vereinigt werden, da sie unterschiedliche Facetten der Kompressionsgrenze beschreiben: QM beschreibt die endlichen diskreten Einschränkungen, die für jede stabile Grenze erforderlich sind, während GR das makroskopische geometrische Kompressionsformat beschreibt. Die genauen Einstein-Feldgleichungen aus der aktiven Inferenz abzuleiten, bleibt eine tiefgreifende offene Herausforderung.
7.3 Das Prinzip der freien Energie (Friston [9])
Konvergenz. FEP-Modelle betrachten Wahrnehmung und Handlung als gemeinsame Minimierung der variationalen freien Energie. Wie in Abschnitt 3.3 beschrieben, übernimmt OPT genau diese mathematische Mechanik, um die Patch-Dynamik zu formalisieren: Aktive Inferenz ist der strukturelle Mechanismus, durch den die Patch-Grenze (die Markov-Decke) gegen das Rauschen des Substrats aufrechterhalten wird. Das generative Modell ist der Kompressionscodec f.
Divergenz. FEP nimmt die Existenz biologischer oder physikalischer Systeme mit Markov-Decken als gegeben an und leitet ihr inferentielles Verhalten ab. OPT fragt, warum solche Grenzen überhaupt existieren — und leitet sie aus dem Stabilitätsfilter ab, der rückwirkend auf ein unendliches Informationssubstrat angewendet wird. OPT ist daher ein a priori für FEP: Es erklärt, warum FEP-gesteuerte Systeme die einzigen sind, die in der Lage sind, eine anhaltende Beobachtungsperspektive aufrechtzuerhalten.
7.4 Theorie der Integrierten Information (Tononi [8])
Konvergenz. IIT und OPT behandeln beide Bewusstsein als intrinsisch zur Informationsverarbeitungsstruktur eines Systems, unabhängig von seinem Substrat. Beide sagen voraus, dass Bewusstsein abgestuft und nicht binär ist.
Divergenz. Die zentrale Größe von IIT, \Phi (integrierte Information), misst den Grad, zu dem die kausale Struktur eines Systems nicht zerlegt werden kann. Der Stabilitätsfilter von OPT wählt auf der Grundlage der Entropierate und der kausalen Kohärenz aus, nicht der Integration an sich. Die beiden Kriterien können auseinanderfallen: Ein System könnte ein hohes \Phi haben, aber eine hohe Entropierate (und somit vom Filter von OPT ausgeschlossen werden), oder ein niedriges \Phi, aber eine niedrige Entropierate (und somit vom Filter von OPT ausgewählt werden). Die empirische Frage, welches Kriterium besser die Grenzen der bewussten Erfahrung vorhersagt, würde die Rahmenwerke unterscheiden.
7.5 Das mathematische Universumshypothese (Tegmark [10])
Konvergenz. Tegmark [10] schlägt vor, dass alle mathematisch konsistenten Strukturen existieren; Beobachter finden sich in selbstgewählten Strukturen. Das Substrat \mathcal{I} von OPT ist mit dieser Ansicht vereinbar: Gleichgewichtige Überlagerung über alle Konfigurationen ist kompatibel mit “alle Strukturen existieren”.
Divergenz. OPT bietet einen expliziten Auswahlmechanismus (den Stabilitätsfilter), den MUH nicht hat. In MUH wird die Selbstselektion des Beobachters aufgerufen, aber nicht abgeleitet. OPT leitet ab, welche mathematischen Strukturen ausgewählt werden: diejenigen mit Stabilitätsfilter-Projektionsoperatoren, die niederentropische, niedrigbandbreitige Beobachterströme erzeugen. OPT ist daher eine Verfeinerung von MUH, keine Alternative.
7.6 Die Simulationshypothese (Bostrom)
Konvergenz. Bostroms Simulationsargument [26] postuliert, dass die Realität, wie wir sie erleben, eine generierte Simulation ist. OPT teilt die Prämisse, dass das physische Universum eine gerenderte “virtuelle” Umgebung ist und nicht die Basisrealität.
Divergenz. Bostroms Hypothese ist materialistisch an ihrer Basis: Sie erfordert eine “Basisrealität”, die tatsächliche physische Computer, Energie und Programmierer enthält. Dies stellt einfach die Frage, woher diese Realität kommt — ein unendlicher Regress, der als Lösung verkleidet ist. In OPT ist die Basisrealität reine algorithmische Information (das unendliche mathematische Substrat); der “Computer” ist die thermodynamische Bandbreitenbeschränkung des Beobachters selbst. Es ist eine organische, vom Beobachter erzeugte Simulation, die keine externe Hardware erfordert. OPT löst den Regress auf, anstatt ihn zu verschieben.
7.7 Panpsychismus und Kosmopsychismus
Konvergenz. OPT teilt mit panpsychistischen Rahmenwerken die Ansicht, dass Erfahrung primitiv ist und nicht aus nicht-erfahrungsbezogenen Zutaten abgeleitet wird. Das harte Problem wird axiomatisch behandelt und nicht aufgelöst.
Divergenz. Panpsychismus (Mikro-Erfahrung, die sich zu Makro-Erfahrung kombiniert) steht vor dem Kombinationsproblem: Wie integrieren sich Mikro-Erfahrungen zu einer einheitlichen bewussten Erfahrung [1]? OPT umgeht das Kombinationsproblem, indem es den Patch — nicht das Mikro-Konstituens — als die primitive Einheit nimmt. Erfahrung wird nicht aus Teilen zusammengesetzt; sie ist die intrinsische Natur der niederentropischen Feldkonfiguration als Ganzes.
8. Diskussion
8.1 Zum harten Problem
OPT beansprucht nicht, das harte Problem [1] zu lösen. Es behandelt Phänomenalität — dass es überhaupt eine subjektive Erfahrung gibt — als ein grundlegendes Axiom und fragt, welche strukturellen Eigenschaften diese Erfahrung haben muss. Dies folgt Chalmers’ eigener Empfehlung [1]: Unterscheidung des harten Problems (warum überhaupt Erfahrung) von den “einfachen” strukturellen Problemen (warum Erfahrung die spezifischen Eigenschaften hat, die sie hat — Bandbreite, zeitliche Richtung, Bewertung, räumliche Struktur). OPT adressiert die einfachen Probleme formal, während es das harte Problem als primitiv erklärt.
Dies ist keine Einschränkung, die einzigartig für OPT ist. Kein bestehendes wissenschaftliches Rahmenwerk — Neurowissenschaften, IIT, FEP oder ein anderes — leitet Phänomenalität aus nicht-phänomenalen Zutaten ab. OPT macht diese axiomatische Haltung explizit.
8.2 Der Solipsismus-Einwand
OPT postuliert einen einzigen Beobachter-Patch als das primäre ontologische Entität; andere Beobachter werden innerhalb dieses Patches als “lokale Anker” dargestellt — hochkomplexe, stabile Substrukturen, deren Verhalten am besten vorhergesagt wird, indem angenommen wird, dass sie selbst Zentren der Erfahrung sind. Dies wirft den Solipsismus-Einwand auf: Kollabiert OPT in die Ansicht, dass nur ein Beobachter existiert?
Wir unterscheiden epistemische Isolation (jeder Beobachter kann nur seine eigene Erfahrung direkt verifizieren) von ontologischer Isolation (nur ein Beobachter existiert). OPT verpflichtet sich zu ersterem, aber nicht zu letzterem. Das Informational Normality Axiom — dass \mathcal{I} generisch und nicht speziell konstruiert ist — impliziert, dass jede Konfiguration, die in der Lage ist, einen Beobachter zu erhalten, mit einer Wahrscheinlichkeit, die gegen Eins geht, in ein Substrat eingebettet ist, das unendlich viele ähnliche Konfigurationen enthält. Es gibt kein besonderes Plädoyer für die Einzigartigkeit eines einzelnen Beobachters.
8.3 Einschränkungen und zukünftige Arbeiten
OPT ist derzeit phänomenologisch formuliert: Das mathematische Gerüst wird aus der Feldtheorie, der statistischen Mechanik und der Informationstheorie entlehnt, um qualitative Dynamiken zu erfassen, ohne jede Gleichung aus den ersten Prinzipien abzuleiten. Zukünftige Arbeiten sollten:
- Die Beziehung zwischen dem Stabilitätsfilter von OPT und der variationalen Schranke von FEP formalisieren
- Quantitative Vorhersagen für die Beziehung zwischen Kompressionseffizienz und Erfahrungstiefe entwickeln (Abschnitt 6.3), die mit bestehenden fMRI- und EEG-Methoden testbar sind
- Das zeitliche Korn der Aktualisierungsregel f adressieren — aktuelle Neurowissenschaften deuten auf ein \sim\!50,ms Fenster des “bewussten Moments” hin; OPT sollte diese Zeitskala aus h^* ableiten
8.4 Makrostabilität und Umweltentropie
Die in §6.1 quantifizierten Bandbreitenbeschränkungen erfordern, dass der Codec f Komplexität auf robuste, langsam variierende Hintergrundvariablen auslagert (z.B. das Holozän-Makroklima, stabile Umlaufbahn, zuverlässige saisonale Periodizitäten). Diese Makrosystemzustände fungieren als die niedrigst-latenzigen Kompressionsprioren des gemeinsamen Renders.
Wenn die Umwelt aus einem lokalen freien Energieminimum in nichtlineare, unvorhersehbare hochentropische Zustände gezwungen wird (z.B. durch abrupte anthropogene Klimafaktoren), muss der Codec erheblich höhere Bitraten aufwenden, um das eskalierende Umweltchaos zu verfolgen und vorherzusagen. Dies führt zum formalen Konzept des informationalen ökologischen Kollapses: Schnelle klimatische Veränderungen sind nicht nur thermodynamische Risiken, sie drohen, die C_{\max} \sim 100 Bits/s Schwelle zu überschreiten. Wenn die Umweltentropierate die maximale kognitive Bandbreite des Beobachters übersteigt, versagt das Vorhersagemodell, kausale Kohärenz geht verloren und die Stabilitätsfilterbedingung (\rho_\Phi < \rho^*) wird verletzt.
8.5 Über das Entstehen der Zeit
Der Stabilitätsfilter wird in Bezug auf kausale Kohärenz, Entropierate und Bandbreitenkompatibilität formuliert — es erscheint keine explizite Zeitkoordinate. Dies ist beabsichtigt. Das Substrat |\mathcal{I}\rangle ist ein atemporales mathematisches Objekt; es entwickelt sich nicht in der Zeit. Zeit tritt in die Theorie nur durch den Codec f ein: Zeitliche Abfolge ist die Operation des Codecs, nicht der Hintergrund, in dem sie stattfindet.
Einsteins Blockuniversum. Einstein war von dem, was er den Gegensatz zwischen Sein (Sein) und Werden (Werden) nannte, angezogen [18, 19]. In der speziellen und allgemeinen Relativitätstheorie sind alle Momente der Raumzeit gleichermaßen real; der gefühlte Fluss von der Vergangenheit über die Gegenwart zur Zukunft ist eine Eigenschaft des Bewusstseins, nicht des Raumzeitmanifolds. OPT passt genau dazu: Das Substrat existiert zeitlos (Sein); der Codec f erzeugt die Erfahrung des Werdens (Werden) als sein rechnerisches Ergebnis.
Urknall und Wärmetod als Codec-Horizonte. Innerhalb dieses Rahmens sind der Urknall und der Wärmetod des Universums keine zeitlichen Randbedingungen für eine vorbestehende Zeitachse: Sie sind das Rendering des Codecs, wenn er an seine eigenen Informationsgrenzen stößt. Der Urknall ist das, was der Codec produziert, wenn die Aufmerksamkeit des Beobachters auf den Ursprung des Stroms gerichtet ist — die Grenze, an der der Codec keine vorherigen Daten zum Komprimieren hat. Der Wärmetod ist das, was der Codec projiziert, wenn der aktuelle kausale Strom vorwärts zu seiner entropischen Auflösung extrapoliert wird. Keiner markiert einen Moment in der Zeit; beide markieren die Grenze der inferentiellen Reichweite des Codecs. Die Frage “was war vor dem Urknall?” wird daher nicht durch das Postulieren einer vorherigen Zeit beantwortet, sondern durch die Feststellung, dass der Codec keine Anweisung zum Rendern über seinen Informationshorizont hinaus hat.
Wheeler-DeWitt und zeitlose Physik. Die Wheeler-DeWitt-Gleichung — die Gleichung der Quanten-Gravitation für die Wellenfunktion des Universums — enthält keine Zeitvariable [20]. Barbours Das Ende der Zeit [21] entwickelt dies zu einer vollständigen Ontologie: Nur zeitlose “Jetzt-Konfigurationen” existieren; der zeitliche Fluss ist ein strukturelles Merkmal ihrer Anordnung. OPT kommt zu demselben Schluss: Der Codec erzeugt die Phänomenologie der zeitlichen Abfolge; das Substrat, das den Codec auswählt, ist selbst zeitlos.
Zukünftige Arbeiten. Eine rigorose Behandlung würde die zeitliche Sprache in den Gleichungen (3a)–(4) durch eine rein strukturelle Charakterisierung ersetzen und das Entstehen der linearen Zeitordnung als Konsequenz der kausalen Architektur des Codecs ableiten — OPT mit relationaler Quantenmechanik und quanten-kausalen Strukturen verbinden.
8.6 Der virtuelle Codec und der freie Wille
Der Codec als rückwirkende Beschreibung. Die Formalisierung in §3 behandelt den Kompressionscodec f als einen aktiven Operator, der Substratzustände in Erfahrung abbildet. Eine tiefere Lesart — im Einklang mit der vollständigen mathematischen Struktur — ist, dass f überhaupt kein physikalischer Prozess ist. Das Substrat |\mathcal{I}\rangle enthält nur den bereits komprimierten Strom; f ist die strukturelle Charakterisierung dessen, wie ein stabiler Patch von außen aussieht. Nichts “läuft” f; vielmehr sind diejenigen Konfigurationen in |\mathcal{I}\rangle, die die Eigenschaften haben, die ein gut definiertes f erzeugen würde, genau diejenigen, die der Stabilitätsfilter auswählt. Der Codec ist virtuell: Er ist eine Beschreibung der Struktur, kein Mechanismus.
Diese Rahmung vertieft das Sparsamkeitsargument (§5). Wir müssen keinen separaten Kompressionsprozess postulieren; das Stabilitätsfilterkriterium (niedrige Entropierate, kausale Kohärenz, Bandbreitenkompatibilität) ist die Codecauswahl, ausgedrückt als projektive Bedingung und nicht als operationale. Die Naturgesetze wurden in §5.2 als Codec-Ausgaben und nicht als Substrat-Eingaben gezeigt; hier erreichen wir den letzten Schritt — der Codec selbst ist eine Beschreibung dessen, wie der Ausgabestrom aussieht, kein ontologisches Primär.
Implikationen für den freien Willen. Wenn nur der komprimierte Strom existiert, dann ist die Erfahrung von Überlegung, Wahl und Handlung eine strukturelle Eigenschaft des Stroms, kein Ereignis, das von f berechnet wird. Handlung ist das, wie hochfidele Selbstmodellierung von innen aussieht. Ein Strom, der seine eigenen zukünftigen Zustände bedingt auf seine internen Zustände darstellt, erzeugt notwendigerweise die Phänomenologie der Überlegung. Dies ist nicht zufällig: Ein Strom ohne diese selbstreferenzielle Struktur könnte die kausale Kohärenz, die erforderlich ist, um den Stabilitätsfilter zu bestehen, nicht aufrechterhalten. Handlung ist daher eine notwendige strukturelle Eigenschaft eines jeden stabilen Patches, kein Epiphänomen.
Freier Wille in dieser Lesart ist: - Real — Handlung ist ein echtes strukturelles Merkmal des Patches, keine Illusion, die vom Codec erzeugt wird - Bestimmt — der Strom ist ein festes mathematisches Objekt im atemporalen Substrat - Notwendig — ein Strom ohne Selbstmodellierungskapazität kann die Stabilitätsfilterkohärenz nicht aufrechterhalten; Überlegung ist für die Stabilität erforderlich - Nicht kontra-kausal — der Strom “verursacht” seine zukünftigen Zustände nicht; er hat sie als Teil seiner atemporalen Struktur; Wählen ist die komprimierte Darstellung einer bestimmten Art von selbstreferenzieller Jetzt-Konfiguration
Dies verbindet sich direkt mit der Blockuniversum-Lesart von §8.5: Das Substrat ist zeitlos (Sein); der gefühlte Fluss von Überlegung und Entscheidung ist ein strukturelles Merkmal des zeitlichen Renderings des Codecs (Werden). Die Erfahrung des Wählens ist keine Illusion und keine Ursache — sie ist das präzise strukturelle Kennzeichen eines stabilen, selbstmodellierenden Patches, der in ein atemporales Substrat eingebettet ist.
8.7 Kosmologische Implikationen: Das Fermi-Paradoxon und Von-Neumann-Beschränkungen
Die grundlegende OPT-Lösung für das Fermi-Paradoxon ist das kausal-minimale Rendern (§3): Das Substrat konstruiert keine anderen technologischen Zivilisationen, es sei denn, sie schneiden kausal mit dem lokalen Patch des Beobachters. Ein stärkerer Zwang ergibt sich jedoch aus den Stabilitätsanforderungen der Hochenergietechnologie.
Wenn technologischer Fortschritt natürlicherweise zu Mega-Engineering führt — wie selbstreplizierende Von-Neumann-Sonden, Dyson-Sphären oder galaktische stellare Manipulation — sollte der erwartete Zustand der Galaxie sichtbar mit expandierenden, industriellen Artefakten gesättigt sein. Das auffällige Fehlen dieser beobachtbaren galaktischen Modifikation kann als unvermeidliche Konsequenz des strukturellen Engpasses formalisiert werden.
Lassen Sie die gesamte erforderliche Bandbreite des Patches, \rho_\Phi(t), eine Summe aus einem Basiswahrnehmungskosten (\rho_{\text{base}}) und der Komplexitätsrate der autonomen technologischen Umgebung E_{\text{tech}} sein: \rho_\Phi(t) = \rho_{\text{base}} + \gamma \frac{d}{dt} K(E_{\text{tech}}(t)) Selbstreplizierende Megastrukturen und rekursive künstliche Intelligenz implizieren ein exponentielles Wachstum im kausalen Zustandsraum der Umgebung, sodass \frac{d}{dt} K(E_{\text{tech}}) \propto e^{\lambda t}. Da der Stabilitätsfilter eine strikte unnachgiebige Schwelle (\rho_\Phi < \rho^*, wobei \rho^* \sim 100 Bits/s) durchsetzt, muss die Ungleichung: \rho_{\text{base}} + A e^{\lambda t} < \rho^* irgendwann gewaltsam verletzt werden zu einem kritischen Zeitpunkt t_{\text{collapse}}.
Das “Große Schweigen” ist daher nicht nur eine Rendering-Abkürzung, sondern eine formale Vorhersage: Die überwältigende Mehrheit der evolutionären Trajektorien, die in der Lage sind, selbstreplizierende Megastrukturen zu konstruieren, durchläuft einen informationalen Kollaps — sie erliegen der unkomprimierbaren Entropie ihrer eigenen technologischen Beschleunigung — lange bevor sie ihre sichtbare makroastronomische Umgebung dauerhaft umschreiben können.
8.8 Mathematische Sättigung und die Theorie von allem
OPT liefert eine strukturelle Vorhersage über die Entwicklung der fundamentalen Physik, die sich von den sechs empirischen Vorhersagen in §6 unterscheidet: Eine vollständige Vereinigung der Allgemeinen Relativitätstheorie und der Quantenmechanik zu einer einzigen Gleichung ohne freie Parameter wird nicht erwartet.
Das Argument. Die Naturgesetze, wie in §5.2 etabliert, sind der nahezu minimal-komplexe Codec, den der Stabilitätsfilter auswählt, um einen niedrigbandbreitigen (\sim 10^1-10^2 Bits/s) bewussten Strom aufrechtzuerhalten. Auf den Energieskalen und Längenskalen, die Physiker derzeit untersuchen (bis zu \sim 10^{13} GeV bei Kollidern), ist dieser Codec weit von seiner Auflösungsgrenze entfernt. Auf diesen zugänglichen Skalen ist das Regelwerk des Patches f hochkomprimierbar: Das Standardmodell ist eine kurze Beschreibung.
Wenn jedoch die Beobachtungsprobe kürzere Längenskalen — äquivalent höhere Energien — untersucht, nähert sie sich dem Bereich, in dem die Beschreibung einer physikalischen Konfiguration so viele Bits erfordert wie die Konfiguration selbst. Dies ist der Mathematische Sättigungspunkt: Die Kolmogorov-Komplexität der physikalischen Beschreibung holt die Kolmogorov-Komplexität des Phänomens ein, das beschrieben wird. An dieser Grenze wächst die Anzahl der mathematisch konsistenten Regelwerke f', die zu den Daten passen, exponentiell, anstatt sich auf eine einzige eindeutige Erweiterung zu konvergieren.
Die Proliferation der String-Theorie-Vakua (\sim 10^{500} konsistente Lösungen in der Landschaft) ist das erwartete Beobachtungssignal für das Erreichen dieser Grenze — kein vorübergehendes theoretisches Manko, das durch einen clevereren Ansatz behoben werden muss, sondern die vorhersagbare Konsequenz des Codecs, der seine beschreibende Grenze erreicht.
Formale Aussage (Falsifizierbarkeit). OPT sagt voraus, dass jeder Versuch, GR und QM auf der Planck-Skala zu vereinigen, entweder: (i) eine zunehmende Anzahl freier Parameter erfordert, wenn die Vereinigungsgrenze weiter verschoben wird, oder (ii) eine Proliferation degenerierter Lösungen ohne Auswahlprinzip, das selbst aus dem Codec ableitbar ist. Eine falsifizierende Beobachtung wäre: eine einzige, elegante Gleichung — ohne freie Parameterambiguität bei der Vereinigung —, die sowohl das Teilchenspektrum des Standardmodells als auch die kosmologische Konstante aus den ersten Prinzipien ohne zusätzliches Auswahlprinzip eindeutig vorhersagt.
Beziehung zu Gödel [22]. Der Anspruch der mathematischen Sättigung ist verwandt mit, aber unterscheidet sich von Gödels Unvollständigkeit. Gödel zeigt, dass kein ausreichend mächtiges formales System alle innerhalb seiner ausdrückbaren Wahrheiten beweisen kann. Der Anspruch von OPT ist informationell und nicht logisch: Die Beschreibung des Substrats, wenn sie durch die Bandbreitengrenze des Codecs gezwungen wird, wird notwendigerweise so komplex wie das Substrat selbst. Die Grenze ist nicht eine der logischen Ableitbarkeit, sondern der informationellen Auflösung.
9. Fazit
Wir haben die Ordered Patch Theory vorgestellt — ein formales informationstheoretisches Rahmenwerk, in dem das grundlegende Entität ein unendliches Substrat maximal ungeordneter Zustände ist, aus dem der Stabilitätsfilter die seltenen, niederentropischen Konfigurationen auswählt, die bewusste Beobachter aufrechterhalten. Das Rahmenwerk vereint das Beobachterauswahlproblem, die Bandbreitenbeschränkung und die anthropischen Feinabstimmungsbeschränkungen unter einer einzigen formalen Struktur. Es macht spezifische, unterscheidbare Vorhersagen über die Bandbreitenhierarchie, kausale Kohärenz als notwendige Bedingung für Bewusstsein, Kompressionseffizienz als Korrelat der Erfahrungstiefe und die Ableitbarkeit anthropischer Beschränkungen aus Stabilitätsbedingungen. Es ist konsistent mit, aber unterscheidet sich von FEP, IIT und MUH und bietet ein A-priori, das jedes Rahmenwerk voraussetzt, aber nicht selbst erklärt.
Die mathematische Grundlage bleibt phänomenologisch; wir behaupten nicht, Bewusstsein aus nicht-bewussten Zutaten abgeleitet zu haben. Stattdessen behaupten wir, die strukturellen Anforderungen charakterisiert zu haben, die jede erfahrungstragende Konfiguration erfüllen muss — und gezeigt zu haben, dass diese Anforderungen ausreichen, um die wesentlichen Merkmale unseres beobachteten Universums zu erklären, ohne sie unabhängig zu postulieren.
References
[1] Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.
[2] Dehaene, S., & Naccache, L. (2001). Towards a cognitive neuroscience of consciousness: basic evidence and a workspace framework. Cognition, 79(1-2), 1–37.
[3] Pellegrino, F., Coupé, C., & Marsico, E. (2011). A cross-language perspective on speech information rate. Language, 87(3), 539–558.
[4] Barrow, J. D., & Tipler, F. J. (1986). The Anthropic Cosmological Principle. Oxford University Press.
[5] Rees, M. (1999). Just Six Numbers: The Deep Forces That Shape the Universe. Basic Books.
[6] Strømme, M. (2025). Universal consciousness as foundational field: A theoretical bridge between quantum physics and non-dual philosophy. AIP Advances, 15, 115319.
[7] Wheeler, J. A. (1990). Information, physics, quantum: The search for links. In W. H. Zurek (Ed.), Complexity, Entropy, and the Physics of Information. Addison-Wesley.
[8] Tononi, G. (2004). An information integration theory of consciousness. BMC Neuroscience, 5, 42.
[9] Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2), 127–138.
[10] Tegmark, M. (2008). The Mathematical Universe. Foundations of Physics, 38(2), 101–150.
[11] Solomonoff, R. J. (1964). A formal theory of inductive inference. Information and Control, 7(1), 1–22.
[12] Rissanen, J. (1978). Modeling by shortest data description. Automatica, 14(5), 465–471.
[13] Aaronson, S. (2013). Quantum Computing Since Democritus. Cambridge University Press.
[14] Casali, A. G., et al. (2013). A theoretically based index of consciousness independent of sensory processing and behavior. Science Translational Medicine, 5(198), 198ra105.
[15] Kolmogorov, A. N. (1965). Three approaches to the quantitative definition of information. Problems of Information Transmission, 1(1), 1–7.
[16] Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27, 379–423.
[17] Wolfram, S. (2002). A New Kind of Science. Wolfram Media.
[18] Einstein, A. (1949). Autobiographical notes. In P. A. Schilpp (Ed.), Albert Einstein: Philosopher-Scientist (pp. 1–95). Open Court.
[19] Carnap, R. (1963). Intellectual autobiography. In P. A. Schilpp (Ed.), The Philosophy of Rudolf Carnap (pp. 3–84). Open Court. (Einstein’s account of the Sein/Werden distinction and the “now” problem, pp. 37–38.)
[20] Wheeler, J. A., & DeWitt, B. S. (1967). Quantum theory of gravity. I. Physical Review, 160(5), 1113–1148.
[21] Barbour, J. (1999). The End of Time: The Next Revolution in Physics. Oxford University Press.
[22] Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38(1), 173–198.
[23] Nørretranders, T. (1998). The User Illusion: Cutting Consciousness Down to Size. Viking.
[24] Seth, A. (2021). Being You: A New Science of Consciousness. Dutton.
[25] Hoffman, D. D., Singh, M., & Prakash, C. (2015). The interface theory of perception. Psychonomic Bulletin & Review, 22(6), 1480-1506.
[26] Bostrom, N. (2003). Are you living in a computer simulation? Philosophical Quarterly, 53(211), 243-255.
Version History
This is a living document. Substantive revisions are recorded here.
| Version | Date | Summary |
|---|---|---|
| 0.1 | February 2026 | Initial draft. Core framework: substrate, Stability Filter, compression codec, parsimony analysis, comparisons with FEP/IIT/MUH, four testable predictions. |
| 0.2 | March 2026 | Added §3.6 Mathematical Saturation. Added §8.4 On the Emergence of Time with Einstein/Carnap/Barbour/Wheeler-DeWitt citations and the Big Bang and Heat Death as codec horizons. |
| 0.3 | March 2026 | Added §8.5 The Virtual Codec and Free Will. Retroactively updated §3.2, §3.5, §5.1, §5.2 to reflect that the compression codec is a structural description, not a third ontological primitive. OPT axiom count reduced from three to two. |
| 0.4 | March 2026 | Mathematical grounding overhauled: integrated Strømme’s field theory via Algorithmic Information Theory and the Free Energy Principle (Active Inference). Replaced generic double-well potential with Markov Blanket boundary dynamics. |