OPT Red Team — Standing Objection Log
v1.0 — April 30, 2026
OPT Red Team
Zweck. Redliche „Honest-Broker“-Hygiene für die Theorie der geordneten Patches (OPT). Dieses Dokument versammelt die stärksten Einwände gegen das Rahmenwerk — gegenwärtige, antizipierte und bereits vorgebrachte — und zwar mit ehrlichen Einschätzungen statt Verteidigungen. Es wird als Begleitdokument zu den formalen Papieren veröffentlicht, ist aber bewusst nicht auf Zitierbarkeit oder Rhetorik optimiert: Seine Aufgabe ist es, Schwächen sichtbar zu machen, nicht Argumente zu gewinnen.
Gebrauchsregel. Aktualisieren Sie diese Datei, indem Sie Einwände hinzufügen; kürzen Sie nichts. Der Sokal-Test dafür, ob ein Einwand ernst genommen wurde: Jemand, der dem Rahmenwerk feindlich gegenübersteht, sollte den Eintrag lesen und sagen: „Ja, genau das ist tatsächlich mein Punkt.“ Wenn die Person sagen würde: „Ihr habt ihn abgeschwächt,“ muss der Eintrag neu formuliert werden.
Querverweise. Falsifikationsverpflichtungen stehen
in opt-theory.md §6.8 (F1–F5). Theorien, mit denen OPT
tatsächlich unvereinbar ist, stehen in opt-theory.md §7.12.
Diese Datei geht über beides hinaus: Sie dokumentiert die spezifischen
Argumente und die ehrliche Einschätzung, wie gut OPT ihnen derzeit
standhält.
R1. Der Universalitätseinwand (Stringtheorie-Falle)
Behauptung. Solomonoffsches Universelles Semimaß \xi ist so permissiv, dass sich jede berechenbare Struktur als Posterior einbetten lässt. „OPT ist strukturell kompatibel mit X“ ist daher nahezu inhaltsleer: Das Rahmenwerk kann Dinge nicht ausschließen, sondern sie nur aufnehmen. Jede erfolgreiche „strukturelle Entsprechung“ in §7 / §IV ist damit ein Beleg für Permissivität, nicht für Einsicht. Das Muster ähnelt der Stringtheorie: eine intern reichhaltige mathematische Struktur, die alles aufnehmen kann und nichts vorhersagt.
Ehrliche Einschätzung. Dies ist derzeit der tiefgreifendste Einwand, und die Verteidigung von OPT ist eher strukturell als empirisch. Die veröffentlichte Antwort (§7.12, Eintrag 6) benennt die Sorge, entkräftet sie aber nicht. Das Einzige, was OPT von einer Weltanschauung in ein Forschungsprogramm verwandelt, sind die Vorabregistrierungs-Verpflichtungen aus §6.8 — und diese wurden bislang noch nicht getestet. Solange F1–F5 nicht mindestens eine quantitative Bestätigung eines Werts liefern, der vor der Messung spezifiziert wurde, bleibt der Universalitätseinwand unbesiegt.
Was die Einschätzung ändern würde. Eine erfolgreiche vorabregistrierte Vorhersage mit einem Wert, der enger ist als der Priorbereich konkurrierender Theorien. Bis dahin sind die Kapitel zur strukturellen Entsprechung Dekoration.
R2. Selektionsbias in der vergleichenden Analyse
Behauptung. §7 (opt-theory) und §IV (opt-philosophy) zitieren Frameworks, die passen, und setzen sich mit Frameworks, die nicht passen, nicht ernsthaft auseinander. Husserl, Merleau-Ponty, Gell-Mann, Van Raamsdonk, Wheeler sind alle dabei. Strikte Eliminativisten (Frankish), starke reduktive Physikalisten, Anti-Funktionalisten und die Kognitionswissenschaftler, die den Flaschenhals für beiläufig halten, fehlen weitgehend oder werden auf einabsätzige Erwiderungen komprimiert. Jedes Framework, das §7 hinzugefügt wird, verstärkt den Eindruck von Konvergenz; die Asymmetrie selbst ist bereits ein Beleg für den Bias.
Ehrliche Einschätzung. Im Wesentlichen korrekt. §7.12 wurde hinzugefügt, um dies teilweise aufzugreifen, aber es bleibt dennoch ein einzelner Unterabschnitt gegenüber elf Konvergenz-Unterabschnitten. Die Tabelle in §IV von opt-philosophy ist in ähnlicher Weise in Richtung Zustimmung geneigt. Das Gesprächsmuster, das §7.5 bis §7.11 im Zeitraum 2026-04 hervorgebracht hat, lautete: Lücken identifizieren → füllen → wiederholen — ohne eine gleich große Zahl von Einträgen des Typs „und hier ist, warum diese benachbarte Theorie widerspricht“.
Was die Einschätzung ändern würde. Eine Erweiterung von §7.12, sodass dort mindestens ebenso viele Positionen in derselben Tiefe behandelt werden wie in den Konvergenz-Unterabschnitten. Ein zweiter Durchgang durch §7.1–§7.11, der vermerkt, wo die konvergierende Theorie OPT spezifisch widerspricht und nicht nur, wo sie sich mit OPT überschneidet.
R3. \Delta_{\text{self}} als Jokerkarte
Behauptung. Das Phänomenale Residuum ist seiner Konstruktion nach strukturell unfalsifizierbar, was als Lokalisator des Schweren Problems angemessen ist, zugleich aber eine methodologische Gefahr erzeugt: Jede widerlegende Evidenz kann in „das lebt in \Delta_{\text{self}}“ absorbiert werden. Die formal stärkste Behauptung des Rahmens ist seine empirisch schwächste — gerade der Teil also, der vor Prüfung abgeschirmt ist.
Ehrliche Einschätzung. §6.8 versucht, dies ausdrücklich einzuhegen: \Delta_{\text{self}} wird aus dem falsifizierbaren Kern ausgeschlossen, und „die Absorption einer Falsifikation von F1–F5 in \Delta_{\text{self}}“ wird als disqualifizierende nachträgliche Umdeutung benannt. Ob diese Abgrenzung in der Praxis trägt, ist eine offene Frage — sie hängt von der disziplinierten Anwendung durch künftige Autorinnen, Autoren und Gutachtende ab, nicht vom formalen Apparat selbst. Die Gefahr wird gemindert, nicht beseitigt.
Was die Einschätzung ändern würde. Ein dokumentierter Fall, in dem der Rahmen eine Falsifikation sauber akzeptiert, ohne auf \Delta_{\text{self}} oder Substrat-Priorität als Rückzugsbewegung zurückzugreifen. Solange ein solcher Fall nicht existiert, ist diese Abgrenzung provisorisch.
R4. Anthropozentrisches Reverse Engineering von C_{\max}
Behauptung. Der numerische Wert C_{\max} \approx \mathcal{O}(10) Bit/s wird durch Rückrechnung aus der menschlichen introspektiven Bandbreite gewonnen (Nørretranders’ Schätzung der „Benutzerillusion“, Daten zum Attentional Blink, Norwich-Wong-Sättigung), statt vorwärts aus ersten Prinzipien abgeleitet zu werden. Die „informationelle Notwendigkeit“ gerade dieser spezifischen Zahl ist fragwürdig: Jede auf Rate-Distortion gegründete Theorie hätte eine andere Bandbreite festlegen und damit funktionieren können. Die Zahl ist ein Fit, keine Vorhersage.
Ehrliche Einschätzung. Größtenteils korrekt. Anhang T-1 leitet einen Bereich her, doch dieser Bereich ist weit genug, um den empirisch beobachteten Wert eher aufzunehmen als ihn vorherzusagen. F1 legt sich auf \mathcal{O}(10) mit einem Fenster von zwei Größenordnungen fest, was großzügig ist. Eine echte Präregistrierung hätte eine spezifische Zahl sein müssen, enger als der Bereich der Humandaten und ohne Rückgriff auf diese Daten hergeleitet.
Was die Einschätzung ändern würde. Eine erneute Herleitung von C_{\max} aus Beschränkungen auf Substrat-Ebene (Solomonoffsches Universelles Semimaß + Landauer + Dimensionalität der Markov-Decke), die eine spezifische Zahl ergibt — idealerweise eine, die von der menschlichen introspektiven Schätzung um einen kleinen, aber spezifischen Faktor abweicht — und anschließend die empirische Verifikation genau dieser kleinen Abweichung.
R5. Der Stabilitätsfilter ist eine Tautologie
Behauptung. „Beobachter existieren genau dann, wenn ihre prädiktive Rate innerhalb ihrer Bandbreite liegt“ ist eine Definition, keine Entdeckung. Jeder scheinbare Beobachter, der existiert, erfüllt den Filter trivial; jeder vermeintliche Beobachter, der nicht existiert, verfehlt ihn trivial. Der Filter kann nichts ein- oder ausschließen — er ist eine zirkuläre Neubeschreibung dessen, welche Konfigurationen beobachterförmig sind.
Ehrliche Einschätzung. Teilweise korrekt. Der Stabilitätsfilter hat, so wie er in §3 formuliert ist, einen definitorischen Charakter — er charakterisiert Beobachter-Kompatibilität, statt sie aus unabhängigen Gründen vorherzusagen. Die Verteidigung des Rahmenwerks lautet, dass der Filter eigenständige Vorhersagen erzeugt (§6.1–§6.7), die sich aus einer tautologischen Lesart nicht ergeben würden: die Bandbreitenhierarchie, den High-Phi-Nullzustand, die Erwartung zeitlicher Dilatation. Wäre der Filter tatsächlich rein tautologisch, hätten diese keinen empirischen Gehalt.
Was die Einschätzung ändern würde. Ein Nachweis, dass die Vorhersagen in §6 tatsächlich vom Stabilitätsfilter abhängen, statt unabhängig motiviert zu sein. Gegenwärtig wird dies behauptet; formal ist bislang nicht verifiziert worden, dass etwa der High-Phi-Nullzustand eindeutig aus dem Stabilitätsfilter folgt und nicht bereits aus einer schwächeren unabhängigen Festlegung.
R6. Die strukturellen Entsprechungen in §IV / §7 sind post hoc
Behauptung. Wenn OPT auf Hume, Husserl, Frankfurt, Merleau-Ponty, Metzinger usw. abgebildet wird, wird diese Zuordnung erst im Nachhinein konstruiert, nachdem bekannt ist, zu welchen Schlussfolgerungen die jeweiligen Traditionen gelangt sind. Das ist Reverse Engineering, nicht Vorhersage. Ein Rahmenwerk, das ohne diese Traditionen vor Augen nicht hätte aufgebaut werden können, kann nicht beanspruchen, ihre Ergebnisse herzuleiten — es kann nur beanspruchen, sie in einem anderen Vokabular zu rekonstruieren.
Ehrliche Einschätzung. Im strengen Sinne korrekt. OPT wurde in Kenntnis der Zielpositionen entwickelt, und die Kapitel §IV / §7 sind erläuternd, nicht prädiktiv. Die Verteidigung des Rahmenwerks — dass es einen tieferen strukturellen Grund dafür liefert, warum die konvergierenden Traditionen sahen, was sie sahen — ist plausibel, aber nicht beweisbar, weil es kein kontrolliertes Experiment gibt, in dem OPT die Schlussfolgerungen einer Tradition vorhersagt, bevor diese Tradition selbst zu ihnen gelangt. Die Konvergenz ist ihrer Konstruktion nach post hoc.
Was die Einschätzung ändern würde. Eine neuartige philosophische oder empirische Behauptung, die rein aus dem informationstheoretischen Apparat von OPT abgeleitet ist, zu der keine bestehende Tradition gelangt ist und die spätere Arbeiten in diesen Traditionen dann unabhängig ebenfalls erreichen. Das wäre retrospektive Evidenz für Erklärungskraft.
R7. Der Bandbreitenengpass als evolutionäre Kontingenz
Behauptung. GWT, die Standardposition der Kognitionswissenschaft, behandelt den Engpass des bewussten Zugangs als ein evolviertes Merkmal des Primatenkortex, nicht als eine strukturelle informationelle Notwendigkeit. Es gibt kein zwingendes Argument dafür, dass der Engpass notwendigerweise die Form annehmen musste, die er hat; ein hinreichend anderer evolutionärer Pfad hätte Phänomenalität in einer parallelen Architektur hervorbringen können. Die „informationelle Notwendigkeit“ der OPT etikettiert eine kontingente Tatsache lediglich als strukturelle um.
Ehrliche Einschätzung. Dies ist die stärkste, spezifizierte Version von R1. Die Antwort der Theorie der geordneten Patches (OPT) (§7.10) lautet, dass der Engpass erforderlich ist, weil inkompressible parallele Ströme die Bandbreitenbedingung verletzen — doch dies setzt den Stabilitätsfilter voraus, und genau dieser steht zur Debatte (R5). Die Dialektik läuft im Kreis. Die ehrliche Position ist, dass der Notwendigkeitsanspruch derzeit postuliert, nicht bewiesen ist; F1 in §6.8 ist die empirische Festlegung, die, falls bestätigt, das fehlende Argument liefern würde.
Was die Einschätzung ändern würde. Entweder (a) dass die F1-Messung bei sehr unterschiedlichen kognitiven Architekturen (Menschen, Cetacea, Rabenvögel, schließlich KIs) eng um \mathcal{O}(10) gruppiert ausfällt, was eher auf einen strukturellen als auf einen kontingenten Ursprung hindeuten würde; oder (b) ein sauberer theoretischer Nachweis, dass kein mit dem Stabilitätsfilter kompatibles System ohne den Engpass auskommen kann.
R8. Die Erweiterung auf „KI-Bewusstsein“ ist in der Praxis unfalsifizierbar
Behauptung. §7.8 / §6.7 legt sich auf die Behauptung fest, dass LLMs und AIXI-beschränkte Approximationen nicht bewusst sind, weil ihnen der C_{\max}-Flaschenhals fehlt. F3 (zeitliche Dilatation unter einem Flaschenhals) ist prinzipiell testbar, aber in der Praxis wird niemand einen absichtlich mit einem Flaschenhals versehenen synthetischen Agenten bei 10^4 \times Taktgeschwindigkeit bauen und ihn nach subjektiver Dauer befragen. Die Vorhersage wirkt festgelegt, ist operativ jedoch inert.
Ehrliche Einschätzung. Weitgehend korrekt, Stand 2026-04. F3 benötigt ein konkretes experimentelles Protokoll und mindestens einen finanzierten oder verbindlich zugesagten Versuch, es durchzuführen. Ohne das sind die KI-Vorhersagen in §7.8 solche, die „testbar wären, wenn es jemand versuchte“ — und das ist eine schwächere Festlegung als F2 (die High-\Phi-Null, bei der IIT-vs.-OPT-Diskriminatoren tatsächlich konstruiert werden).
Was die Einschätzung ändern würde. Eine spezifische institutionelle Verpflichtung, F3 durchzuführen (z. B. eine Forschungsgruppe, ein datierter Meilenstein, ein vor dem Bau vereinbartes experimentelles Protokoll). Ohne dies ist F3 nur eine vorläufige Präregistrierung.
R9. Die Behauptung des Substrat-Vorrangs ist intern nicht falsifizierbar
Behauptung. §3.12 argumentiert mittels eines thermodynamischen Irreversibilitätsarguments, dass das Substrat „fundamentaler“ sei als das Render, doch jeder Test dieses Vorrangs müsste innerhalb des Renders durchgeführt werden. Die Behauptung ist intern inkohärent: Wenn der Substrat-Vorrang innerhalb des Renders keinen operationalen Unterschied macht, hat er keinen Gehalt; wenn er einen operationalen Unterschied macht, dann ist dieser Unterschied selbst Teil des Renders und keine Evidenz über das Substrat.
Ehrliche Einschätzung. In §3.12 und §6.8 anerkannt (von F1–F5 ausgeschlossen). Die Verteidigung lautet, dass der Substrat-Vorrang als ontologische Festlegung angeboten wird, nicht als falsifizierbare empirische Behauptung. Ob ontologische Festlegungen, die keinem empirischen Test unterliegen, in einem wissenschaftlichen Rahmen zugelassen werden sollten, ist eine gesonderte methodologische Frage. Strenge Empiristen (R5 / §7.12 Eintrag 5) werden diese Kategorie zurückweisen; die Theorie der geordneten Patches (OPT) behält sie bei, kennzeichnet sie jedoch entsprechend.
Was die Einschätzung ändern würde. Dies ist eine stabile Meinungsverschiedenheit, keine empirische Frage. Der redliche Schritt besteht darin, den Substrat-Vorrang von F1–F5 isoliert zu halten und zu akzeptieren, dass strenge Empiristen sich davon nicht überzeugen lassen werden.
R10. Die „strukturellen Abschaltkriterien“ selbst sind strukturell leicht zu umgehen
Behauptung. Das Fenster von zwei Größenordnungen in F1, F2s „vereinbartes Protokoll vor der Konstruktion“, F3s „über k \in [10, 10^4] hinweg“ lassen jeweils genügend Interpretationsspielraum, sodass motiviertes Schlussfolgern Wege finden kann, Beinahe-Falsifikationen nicht als Falsifikationen gelten zu lassen. Die Abschaltkriterien wirken streng, können in der Praxis jedoch durch engere Definitionen, das Bestreiten von Messungen oder den Verweis auf experimentelle Störfaktoren umgangen werden.
Ehrliche Einschätzung. Dies ist der Meta-Einwand: Präregistrierung ist nur so verbindlich wie die Disziplin derjenigen, die sie interpretieren. OPT kann seine Falsifikationsverpflichtungen nicht selbst durchsetzen. Die Gegenmaßnahme in §6.8 ist die Anforderung, dass jede Abschwächung in der Versionsgeschichte als erneute Registrierung kenntlich gemacht werden muss, wodurch frühere Tests ungültig werden — doch ein künftiger Autor könnte genau dies einfach tun und die Kosten in Kauf nehmen. Das Vertrauen in die Abschaltkriterien hängt von der Prüfung durch Dritte ab, nicht allein von der formalen Verpflichtung.
Was die Einschätzung ändern würde. Externe adversariale Begutachtung durch Fachkollegen, die sich darauf verpflichtet, die Formulierungen von F1–F5 auf strategisch ausnutzbare Vagheit zu prüfen und sie zu präzisieren. Eine Präregistrierung bei einer Drittpartei (OSF, AsPredicted) statt ausschließlich in der Versionsgeschichte.
R11. Die CMB trägt Quantensignaturen, die der Codec nicht erfinden musste
Behauptung. Der kosmische Mikrowellenhintergrund
zeigt spezifische quantenmechanische Signaturen — ein nahezu
skaleninvariantes Leistungsspektrum, nahezu gaußsche Fluktuationen,
Tensor-zu-Skalar-Schranken sowie statistische Merkmale, die mit den
Vorhersagen der inflationären Quantenfeldtheorie bis zur Präzision des
Planck-Satelliten übereinstimmen. Diese werden konventionell als
Abdrücke von Quanten-Vakuumfluktuationen interpretiert, die auf
kosmologischen Skalen etwa 13,8 Gyr existierten, bevor irgendein
Beobachter existierte. Wenn QM „ein Auflösungsartefakt“ des Codecs eines
bandbreitenbegrenzten Beobachters ist (opt-theory.md §7.1
Punkte 1–2), warum trägt dann die tiefe kosmologische Vergangenheit —
aggregiert beobachtet, ohne feinkörnige Messung — Quantensignaturen
statt Signaturen klassischen thermischen Rauschens? Dies ist ein
konkreter kosmologischer Fall von R1 und ein scharfer Belastungspunkt
für die Lesart von QM als Codec-Merkmal.
Ehrliche Einschätzung. Die Theorie der geordneten Patches (OPT) kann die CMB-Beobachtungen nur aufnehmen, wenn sie sich auf die starke statt auf die lockere Lesart festlegt. Die lockere Lesart — „QM ist beobachterseitige Buchführung während der Messung“ — kollidiert mit den kosmologischen Daten. Die starke Lesart — Codec-Kompression ist global hilbertraumstrukturiert, wird in der gerenderten Zeit vorwärts wie rückwärts einheitlich angewandt, und die am stärksten komprimierbare Vergangenheit wird durch Solomonoff-Parsimony ausgewählt — ist intern konsistent: Eine inflationär-quantische Vergangenheit ist die Erklärung minimaler Beschreibungslänge für das beobachtete CMB-Muster, und der Codec ist daher durch Parsimony gezwungen, sie zu rendern. Diese Antwort wird durch §8.5 (atemporales Substrat), §7.1 Punkt 4 (verallgemeinerte Delayed Choice) und die QECC-Kette in Anhang P-2 gestützt. Der Preis besteht darin, OPT auf eine stärkere und besser falsifizierbare Behauptung festzulegen als die lockere Lesart: Die Hilbert-Struktur des Codecs wirkt auf die gesamte gerenderte Zeitlinie, und jeder bandbreitenbegrenzte Beobachter mit einer kohärenten kosmologischen Vergangenheit wird darin Quantensignaturen sehen. Der Verpflichtungsabsatz in §7.1 (hinzugefügt in v3.4.0) macht diese Position öffentlich.
Was die Einschätzung ändern würde. Merkmale der kosmologischen Geschichte, deren minimale Beschreibungslänge das übersteigt, was ein inflationär-quantischer Standardfall hervorbringt — also Merkmale, die der Codec unter dem Druck der Parsimony nicht erfinden würde, die aber dennoch in den Daten existieren. Konkrete Kandidaten: persistente Nicht-Gaußianitäten hoher algorithmischer Komplexität, die sich jedem inflationären Modell kurzer Beschreibung entziehen; CMB-Anisotropien, die einer Prüfung standhalten, ohne dass es irgendeine komprimierbare inflationäre Erklärung gibt; Signaturen primordialer Gravitationswellen spezifischer Quantenereignis-Herkunft, die ein inferentieller Hilbert-Codec, der rückwärts durch die Zeit läuft, nicht reproduzieren kann. Jede solche Beobachtung, von Dritten bestätigt und resistent gegen alternative komprimierte Erklärungen, würde einen Überschuss an Beschreibungslänge gegen den Mechanismus der am stärksten komprimierbaren Vergangenheit darstellen und die starke Lesart falsifizieren. Operational würde dies als die Art von „unabhängiger Demonstration“ gelten, die in den Project-Shutdown-Kriterien von §6.8 genannt wird, auch wenn es nicht unmittelbar zu F1–F5 gehört.
R12. Die Festlegung auf die starke Lesart wirkt wie motivierte nachträgliche Immunisierung
Behauptung. Der Absatz zur Festlegung auf die Codec-Geometrie in §7.1 (hinzugefügt in v3.4.0, 30. April 2026) wurde als direkte Reaktion auf die in derselben Sitzung vorgebrachte CMB-QM-Herausforderung ergänzt. Er verschärft die QM-Lesart der OPT von einer lockeren „beobachterseitigen Buchführung zum Zeitpunkt der Messung“ zu einer starken „Hilbert-Struktur über die gesamte gerenderte Zeitlinie hinweg“ und macht die CMB-QM-Beobachtungen damit auf bequeme Weise zu einer Vorhersage statt zu einem Falsifikator. Der benannte Falsifikator — „Überschuss an Beschreibungslänge in der kosmologischen Geschichte“ — ist technisch definiert, aber praktisch schwer nachzuweisen. Strukturell ist dies genau das, was Forschungsprogramme unter Druck tun: Sie ziehen den Rahmen enger, um die Herausforderung zu absorbieren, erklären, dies sei immer schon implizit gewesen, und benennen einen Falsifikator auf einem so abstrakten Niveau, dass keine kurzfristige Beobachtung ihn erfüllen könnte. R1 wirft der OPT vor, alles zu akkommodieren; R12 wirft der OPT vor, in Echtzeit zu lernen, zu akkommodieren. R11 wird dann zu Evidenz für R12 statt zu einer unabhängigen Bestätigung der OPT.
Ehrliche Einschätzung. Teilweise richtig und teilweise vertretbar.
In der Form richtig. Die Festlegung wurde als Reaktion auf eine spezifische Herausforderung hinzugefügt. Auch wenn §8.5 (atemporales Substrat), §7.1 Punkt 4 (verallgemeinerte Delayed-Choice) und Anhang P-2 (QECC-Kette) die starke Lesart bereits stützten, war die öffentliche Festlegung auf diese Lesart als OPT-kanonische Interpretation in v3.4.0 neu. Von außen wirkt das wie ein Verschieben der Torpfosten; von innen wie eine Klarstellung. Kein externer Test unterscheidet zwischen beidem.
Teilweise vertretbar. Die starke Lesart ist ein Preis, kein Gratisgewinn — sie schneidet den Rückzug auf die lockere Lesart ab, der sonst gegen künftige Herausforderungen derselben Form verfügbar wäre. OPT v3.4.0 ist stärker falsifizierbar als OPT v3.3.0, nicht weniger. Der benannte Falsifikator (Überschuss an Beschreibungslänge / Minimum Description Length) hat definierbaren mathematischen Gehalt, auch wenn seine Operationalisierung schwierig ist; er bedeutet also nicht einfach „alles, von dem wir entscheiden, dass es nicht zählt“.
Die ehrliche Position. Die Festlegung in v3.4.0 zählt nicht als Evidenz für die OPT. Sie ist eine Präzisierung, die die Beweislast des Rahmens verschiebt. Die CMB-Beobachtungen, die diese Festlegung ausgelöst haben, können nicht als Bestätigung angeführt werden, weil sie die auslösende Evidenz waren. Nur unabhängige zukünftige Tests der Vorhersage von v3.4.0 — Beobachtungen oder Analysen, die nach dem 30. April 2026 von Akteuren erstellt wurden, die an der Rahmung nicht beteiligt waren — sind für den empirischen Status der OPT unter der starken Lesart relevant.
Was die Einschätzung ändern würde. Entweder (a) eine nach dem 30. April 2026 gemachte kosmologische Beobachtung, die durch die Festlegung in v3.4.0 spezifisch vorhergesagt wird und die konkurrierende Rahmen weniger sauber vorhersagen — als Evidenz dafür, dass die Festlegung eine reale vorwegnehmende Einschränkung statt einer nachträglichen Absorption war; oder (b) externer Kommentar, der unausgesprochene Implikationen der starken Lesart identifiziert, die zum Zeitpunkt der Festlegung nicht antizipiert wurden — was die Verteidigung „immer schon implizit“ schwächen und die post-hoc-Lesart stärken würde; oder (c) eine Präzisierung der Formulierung des Falsifikators durch Dritte zu einer spezifischen Klasse messbarer Observablen, wodurch „Überschuss an Beschreibungslänge“ operational von bloß abstrakt unterschieden würde.
R13. Die der F1 zugrunde liegende Zahl von 10 Bit/s ist selbst umstritten
Behauptung. F1 (§6.8) stützt sich auf eine „menschliche subjektive prädiktive Bandbreite C_{\max} \approx \mathcal{O}(10) Bit/s“, abgeleitet aus Zheng & Meister 2024 [23] und vier Jahrzehnten konvergenter Psychophysik. Doch die Zahl von 10 Bit/s ist in der Literatur von 2025 in Frage gestellt worden — etwa in „The brain works at more than 10 bits per second“ (PMC12320479) — mit dem Argument, dass Kanäle des bewussten Zugangs breiter sind als die kanonische Schätzung, wenn die Messmethodik verändert wird. Wenn die kanonische Zahl um einen kleinen Faktor falsch ist, wird die zentrale empirische Festlegung der OPT neu kalibriert; wenn sie um Größenordnungen falsch ist, wird das Fenster von F1 selbst zum Problem.
Ehrliche Einschätzung. Das Fenster von F1 wurde bewusst weit gesetzt (2 Größenordnungen in beide Richtungen), gerade weil die zugrunde liegende empirische Zahl umstritten und methodensensitiv ist. Der umstrittene Status des 10-Bit/s-Ankers widerlegt F1 für sich genommen nicht — Werte von \sim 10^{-1} bis \sim 10^3 Bit/s lägen alle innerhalb des F1-Fensters, und \sim 100 Bit/s würden nicht einmal als Beinahe-Falsifikation zählen. Was dies jedoch bedeutet, ist, dass F1 nicht so dargestellt werden kann, als beruhe es auf einer gesicherten Messung. Die strukturelle Anforderung, von der die OPT tatsächlich abhängt, ist die Existenz eines seriellen Engpasses mit geringer Bandbreite, nicht die genaue Zahl — und die Unterscheidung in §7.8 zwischen dem strukturellen Kriterium und der biologischen Konstante (hinzugefügt in v3.4.0) macht dies ausdrücklich. F1 bleibt eine nützliche vorab registrierte Festlegung für menschliche Beobachter, aber sein empirischer Anker ist vorläufig, nicht gesichert.
Was die Einschätzung ändern würde. Entweder (a) eine Reproduktion der Bandbreite des bewussten Zugangs durch Dritte, die auf einen Wert mit deutlich kleineren Fehlerbalken als in der gegenwärtigen Literatur konvergiert und damit erlaubt, F1 zu einem schärferen Test zu präzisieren; oder (b) ein glaubwürdiges methodologisches Argument, dass das Konstrukt des Engpasses selbst Variationen des Messschemas nicht überlebt — was eine tiefere Herausforderung als R13 wäre und in R5 münden würde (Stabilitätsfilter als Tautologie). Der Zwischenzustand ist der aktuell maßgebliche: F1 wie geschrieben beibehalten, mit dem Vorbehalt, dass sein empirischer Anker nicht abschließend geklärt ist.
R14. Beobachtungen der kosmologischen Geschichte sind prinzipiell testbar, aber kein kurzfristiges Ergebnis ist entscheidend
Behauptung. R11 benennt einen „Überschuss an Beschreibungslänge in Merkmalen der kosmologischen Geschichte jenseits des inflationär-quantenmechanischen Standards“ als Falsifikator der in §7.1 formulierten Festlegung auf die Codec-Geometrie. Mit Stand 2026-04 schließen die aktuellen CMB-Beschränkungen starke Nicht-Gaußianität aus, sind aber nicht streng genug, um den inflationär-quantenmechanischen Standard auszuschließen; die Beschränkungen für primordiale Gravitationswellen werden weiterhin enger, ohne dass eine Detektion vorliegt. Keine Beobachtung des Jahres 2026 hat das Bild zugunsten oder zulasten der starken Lesart von OPT verschoben. Die nächste Runde — Simons Observatory, LiteBIRD, CMB-S4 — dürfte die Beschränkungen um ungefähr eine Größenordnung verschärfen, jedoch auf Zeitskalen von Jahren, nicht von Wochen.
Ehrliche Einschätzung. Der Falsifikator von R11 ist prinzipiell tatsächlich operationalisierbar, derzeit jedoch nicht aktiv. Das ist der richtige Zustand für eine strukturelle Festlegung dieser Art: Das Rahmenwerk hat benannt, was es widerlegen würde, die experimentelle Gemeinschaft bewegt sich auf strengere Tests zu, und ein positives Ergebnis in die eine oder andere Richtung liegt bislang nicht vor. Der redliche Schritt besteht darin, R11 unverändert zu lassen und diesen Eintrag jährlich erneut zu prüfen, sobald neue kosmologische Daten eintreffen.
Was die Einschätzung ändern würde. Ein formales Ergebnis von Simons / LiteBIRD / CMB-S4, das entweder (a) Merkmale detektiert, deren minimale Beschreibungslänge unter dem inflationär-quantenmechanischen Standard die konkurrierender komprimierter Darstellungen übersteigt — womit die starke Lesart falsifiziert und die in §6.8 vorgesehene Prüfung einer Projekteinstellung ausgelöst würde; oder (b) die bestehenden Beschränkungen hinreichend verschärft, um den Falsifikator von R11 von „prinzipiell“ in „derzeit überstanden“ mit deutlich kleineren Fehlerbalken zu überführen — wodurch die starke Lesart gestärkt, aber nicht bestätigt würde. Beide Entwicklungen rechtfertigen eine ausdrückliche, annotierte Aktualisierung von R11.
Betriebshinweise
- Wenn ein neuer Einwand eingeht, füge ihn als nächsten R-Eintrag mit derselben Struktur hinzu: Behauptung, ehrliche Einschätzung, was die Einschätzung ändern würde.
- Wenn die Bedingung „was die Einschätzung ändern würde“ eines Eintrags erfüllt ist, lösche den Eintrag nicht — versehe ihn mit Datum und Ergebnis und aktualisiere die Einschätzung.
- Überprüfe die Einträge vierteljährlich erneut. Wenn das Rahmenwerk erheblich neue Inhalte angesammelt hat, prüfe, ob ein bestehender R-Eintrag durch die neuen Inhalte stillschweigend geschwächt wurde (z. B. „OPT behauptet jetzt X, was R3 verschärft“).
- Der Autor sollte dem Impuls widerstehen, in dieser Datei defensiv zu formulieren. Die Aufgabe hier ist es, zu verlieren, nicht zu gewinnen.