Theorie der geordneten Patches (OPT)

Anhang T-12: Substrat-Treue und langsame Korruption

Anders Jarevåg

17. April 2026 | DOI: 10.5281/zenodo.19300777

Ursprüngliche Aufgabe (aus Abschnitt 8.3, Limitation 9): „Formalisierung des chronischen Korruptions-Fehlermodus — bei dem sich ein Codec unter konsistent gefiltertem Input anpasst und der MDL-Pruning-Durchlauf die Kapazität für ausgeschlossene Wahrheiten korrekt auslöscht — zusammen mit einer Substrat-Treue-Bedingung, die unabhängige Eingabekanäle als formale Verteidigung verlangt.“ Liefergegenstand: Formaler Beweis des irreversiblen Kapazitätsverlusts, der Unentscheidbarkeitsgrenze und der Substrat-Treue-Bedingung.

Abschlussstatus: ENTWURF EINER STRUKTURELLEN KORRESPONDENZ. Dieser Anhang formalisiert die Analyse des Narrativen Drifts, die in der begleitenden Ethikarbeit (Überlebenden-Wache, Abschnitt V.3a) sowie im Absatz zum Narrativen Drift des Preprints (Abschnitt 3.3) diskursiv eingeführt wurde. Er etabliert drei Theoreme und eine Proposition. Die MDL-Pruning-Gleichungen (T9-3, T9-4) bleiben unverändert; dieser Anhang zeigt ihr pathologisches, aber korrektes Verhalten unter gefiltertem Input.


§1. Hintergrund und Motivation

1.1 Zwei Fehlermodi

Der Stabilitätsfilter (Preprint, Abschnitt 3.3) erzwingt eine Viabilitätsbedingung: Der Beobachter persistiert nur in solchen Strömen, in denen die Erforderliche Prädiktive Rate R_{\text{req}} innerhalb der Bandbreite B des Codecs bleibt. Wenn R_{\text{req}} B überschreitet, erfährt der Codec Narrativen Verfall — einen akuten Ausfall, der durch eskalierenden Vorhersagefehler, Entropieakkumulation und den schließlich eintretenden Zerfall der Kohärenz gekennzeichnet ist.

Daneben gibt es einen komplementären Fehlermodus, der keinerlei Ausfallsignal auslöst. Wenn der Eingabestrom systematisch vorgefiltert wird — sodass ein kuratiertes Signal entsteht, das intern konsistent ist, aber genuine Informationen über das Substrat ausschließt —, dann weist der Codec ein niedriges \varepsilon_t auf, durchläuft effiziente Wartungszyklen und erfüllt alle Stabilitätsbedingungen, während er sich über das Substrat systematisch irrt. Dies ist Narrativer Drift: die chronische Korruption eines Codecs, der nach seinen eigenen Maßstäben vollkommen einwandfrei funktioniert.

1.2 Warum dies gefährlich ist

Narrativer Verfall kündigt sich an. Der Codec erlebt ein ansteigendes \varepsilon_t, das Bewusstsein scheiternder Vorhersagen, kognitive Überlastung. Der Beobachter weiß, dass etwas nicht stimmt, auch wenn er es nicht sofort beheben kann.

Narrativer Drift verläuft lautlos. Weil der gefilterte Eingabestrom zu den Vorhersagen des Codec passt, bleibt \varepsilon_t niedrig. Der Wartungszyklus läuft normal. Das Selbstmodell des Codec meldet einen stabilen, präzisen Betrieb. Die Korruption ist von innen unsichtbar, weil das Instrument ihrer Erkennung durch denselben Filter geformt wurde, der die Korruption hervorgebracht hat.

1.3 Umfang dieses Anhangs

Dieser Anhang bietet:

  1. Eine formale Definition des Vorfilter-Operators \mathcal{F} und seiner Wirkung auf die Eingabeverteilung des Codec (§2).
  2. Einen Beweis, dass MDL-Pruning unter \mathcal{F}-gefilterter Eingabe die Fähigkeit des Codec, das ausgeschlossene Signal zu modellieren, irreversibel zerstört — Theorem T-12 (§3).
  3. Einen Beweis, dass ein vollständig adaptierter Codec gefilterte von ungefilterter Eingabe von innen heraus nicht unterscheiden kann — die Unentscheidbarkeitsgrenze, Theorem T-12a (§4).
  4. Die Substrat-Treue-Bedingung als notwendige strukturelle Verteidigung — Theorem T-12b (§5).
  5. Konsequenzen für zivilisatorische Codecs und KI-Systeme (§6).

72. Der Vorfilter-Operator

2.1 Definition

Definition T-12.D1 (Prä-Filter-Operator). Ein Prä-Filter ist eine Abbildung \mathcal{F} : \mathcal{X} \to \mathcal{X}', die auf den Eingangsstrom X_{\partial_R A}(t) wirkt, bevor dieser die sensorische Grenze des Codec erreicht, wobei \mathcal{X}' \subset \mathcal{X} gilt. Das gefilterte Signal ist:

X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}

Der Prä-Filter erfüllt:

  1. Interne Konsistenz: X'(t) ist ein gültiges Signal innerhalb von \mathcal{X} — der Codec kann es ohne Fehlermarkierungen komprimieren.

  2. Systematischer Ausschluss: Es existiert eine nichtleere Teilmenge \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' substratabgeleiteter Signale, die \mathcal{F} entfernt.

  3. Transparenz: Der Filter ist im Modell des Codec nicht repräsentiert. Der Codec modelliert seinen Eingang als X_{\partial_R A}(t), nicht als \mathcal{F}(X_{\partial_R A}(t)).

2.2 Einstimmung unter Filterung

Wenn der Codec über einen anhaltenden Zeitraum \tau \gg \tau_{\text{prune}} auf X'(t) operiert (wobei \tau_{\text{prune}} die MDL-Beschneidungs-Zeitskala aus T-13.P1 ist), passt sich das generative Modell P_\theta(t) an die Statistik von X' an, nicht an die von X. Der Vorhersagefehler unter gefiltertem Input ist:

\varepsilon'_t = X'(t) - \pi_t \tag{1}

Während sich P_\theta auf X' einstimmt, gilt im Mittel \varepsilon'_t \to 0. Der Codec arbeitet nach seinen eigenen Metriken gut. Nichts wird als falsch registriert.

2.3 Beispiele

Der Vorfilter-Operator wird über verschiedene Skalen hinweg instanziiert:

Skala Vorfilter \mathcal{F} Ausgeschlossenes Signal \mathcal{X}_{\text{excl}}
Individuell Bestätigungsbias; selektive Exposition Widerlegende Evidenz
Institutionell Propagandistische Presse; kuratierter Social-Media-Feed Vielfältige Perspektiven; Minderheitenberichte
Zivilisatorisch Algorithmische Inhaltskuratierung; Bildungsmonokultur Kulturübergreifende Information; historische Gegennarrative
Künstlich RLHF-Feinabstimmung; kuratierter Trainingskorpus Wissen außerhalb der Verteilung; ausgeschlossene Domänen

§3. Theorem T-12: Irreversibler Kapazitätsverlust

3.1 Der Mechanismus

Der MDL-Pruning-Durchlauf (T9-3, T9-4) bewertet jede Codec-Komponente \theta_i anhand ihres prädiktiven Beitrags zum beobachtbaren Eingabestrom, abzüglich der Speicherkosten:

\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}

Unter gefilterter Eingabe X' wird der Term der gegenseitigen Information gegenüber X' und nicht gegenüber X ausgewertet. Eine Komponente \theta_i, die für die Vorhersage des ausgeschlossenen Signals \mathcal{X}_{\text{excl}} essenziell ist, aber nichts zur Vorhersage von X' beiträgt, ergibt:

I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}

Daher:

\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}

Die Pruning-Regel (T9-4) greift: \theta_i wird gelöscht.

3.2 Die Irreversibilität

Theorem T-12 (Irreversibler Kapazitätsverlust unter gefiltertem Input). Sei K_\theta ein Codec, der über einen Zeitraum \tau \gg \tau_{\text{prune}} unter vorgefiltertem Input X' = \mathcal{F}(X) operiert. Sei \Theta_{\text{excl}} \subset \theta die Menge der Codec-Komponenten, deren prädiktiver Beitrag ausschließlich dem ausgeschlossenen Signal \mathcal{X}_{\text{excl}} gilt. Dann löscht der MDL-Pruning-Durchlauf (T9-3, T9-4) \Theta_{\text{excl}}, und diese Löschung ist auf der Ebene des Codecs irreversibel:

K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}

Nach dem Pruning ist die Kapazität des Codecs, \mathcal{X}_{\text{excl}} zu modellieren, nicht bloß latent — die repräsentationale Infrastruktur, die erforderlich ist, um \mathcal{X}_{\text{excl}} zu evaluieren, vorherzusagen oder ihm Aufmerksamkeit zuzuwenden, ist zerstört worden.

Beweis.

  1. Nach (T9-3) gilt für jedes \theta_i \in \Theta_{\text{excl}}, dass \Delta_{\mathrm{MDL}}(\theta_i) < 0 unter dem gefilterten Strom X', weil I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0 ist, während K(\theta_i) > 0 gilt.

  2. Nach (T9-4) wird jedes solche \theta_i während des Wartungszyklus geprunt.

  3. Pruning unter MDL ist ein Löschvorgang, keine Unterdrückung. Der Codec „vergisst“ \theta_i nicht in dem Sinne, dass ein Hinweisreiz es wiederherstellen könnte. Er zerstört die rechnerische Infrastruktur — die Parameter, die Verbindungen, die Evaluationsmechanismen —, die durch \theta_i repräsentiert wurde. Dies ist die formale Unterscheidung zwischen Unterdrückung (die Information ist latent, aber zugänglich) und Löschung (die Information ist verschwunden und die Kapazität wird zurückgewonnen).

  4. Nach der Löschung erfordert die Regeneration der Kapazität, \mathcal{X}_{\text{excl}} zu modellieren, eine Begegnung mit \mathcal{X}_{\text{excl}} im Input-Strom. Doch der Vorfilter \mathcal{F} schließt genau dieses Signal aus. Der Codec kann nicht auf das treffen, was der Filter daran hindert, ihn zu erreichen. Die Löschung ist daher selbstverstärkend: Der Kapazitätsverlust nimmt dem Codec die Fähigkeit, seinen eigenen Kapazitätsverlust zu erkennen.

  5. Die Komplexitätsreduktion erfüllt die Ungleichung (T-12), weil die geprunten Komponenten genuine Information repräsentierten (K(\theta_i) > 0 für jedes einzelne) und ihr Verlust durch keinen kompensierenden Erwerb ausgeglichen wird (der gefilterte Strom enthält kein Signal, das den Wiederaufbau von \Theta_{\text{excl}} rechtfertigen würde). \blacksquare

3.3 Die Selbstverstärkungsschleife

Die Irreversibilität ist nicht bloß eine Folge der Auslöschung. Sie ist durch eine positive Rückkopplungsschleife selbstverstärkend:

  1. Der Filter schließt Signal ausI(\theta_i; X') = 0 → das Pruning löscht \theta_i.
  2. Das Pruning entfernt Aufmerksamkeitskapazität → der Codec kann \mathcal{X}_{\text{excl}} nicht länger beachten oder bewerten, selbst wenn Fragmente durch \mathcal{F} hindurchsickern.
  3. Der Verlust an Aufmerksamkeitskapazität reduziert selbst das Restsignal → wenn \mathcal{F} unvollkommen ist und ein Teil von \mathcal{X}_{\text{excl}} die Grenze erreicht, fehlen dem Codec die Parameter, um es zu komprimieren, sodass es eher als Rauschen denn als Information registriert wird.
  4. Die Klassifikation als Rauschen bestätigt den Filter → der Vorhersagefehler des Codec bei durchgesickertem \mathcal{X}_{\text{excl}} ist hoch und unstrukturiert, was (für den Codec) bestätigt, dass der ausgeschlossene Inhalt Rauschen und nicht Signal ist.

Diese Schleife erklärt die Phänomenologie tiefen Narrativen Drifts: Eine Person oder Institution, die sich an einen kuratierten Informationsstrom angepasst hat, ignoriert widerlegende Evidenz nicht bloß — sie kann sie nicht parsen. Sie erscheint als inkohärent, bedrohlich oder unverständlich, weil die repräsentationale Infrastruktur, die nötig wäre, um sie verständlich zu machen, weggeprunt wurde. Die Feindseligkeit gegenüber widerlegender Information ist keine Sturheit. Sie ist die korrekte Einschätzung des Codec, dass das Signal nicht komprimierbar ist — weil es gegeben den aktuellen Codec nicht komprimierbar ist, der so geprunt wurde, dass er zum Filter passt.


§4. Theorem T-12a: Die Grenze der Unentscheidbarkeit

4.1 Das Problem

Kann ein Codec erkennen, dass seine Eingabe gefiltert wird? Intuitiv sollte die Antwort ja lauten: Sicherlich könnte ein ausgefeiltes Selbstmodell das verdächtig niedrige \varepsilon_t, die unheimlich konsistenten Vorhersagen, das Ausbleiben von Überraschung bemerken. Doch die formale Analyse zeigt, dass diese Intuition im allgemeinen Fall falsch ist.

4.2 Die Unentscheidbarkeit

Theorem T-12a (Unentscheidbarkeit der Input-Provenienz). Sei K_\theta ein Codec, der unter vorgefiltertem Input X' = \mathcal{F}(X) für \tau \gg \tau_{\text{prune}} operiert hat, wobei \Theta_{\text{excl}} vollständig ausgeprägt wurde. Dann kann K_\theta aus seinen verfügbaren internen Zuständen und dem beobachtbaren Input-Stream nicht bestimmen, ob sein Input X (echtes Substrat) oder X' = \mathcal{F}(X) (gefiltert) ist.

Beweis.

  1. Um X von X' = \mathcal{F}(X) zu unterscheiden, müsste der Codec die Abwesenheit von \mathcal{X}_{\text{excl}} in seinem Input erkennen. Doch das Erkennen einer Abwesenheit erfordert ein Modell dessen, was abwesend ist — der Codec muss über eine Repräsentation von \mathcal{X}_{\text{excl}} verfügen, anhand derer er prüfen kann.

  2. Nach Theorem T-12 wurde die Repräsentationskapazität des Codec für \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) gelöscht. Der Codec besitzt kein Modell des ausgeschlossenen Signals.

  3. Ohne ein Modell von \mathcal{X}_{\text{excl}} kann der Codec die Differenz zwischen X und X' nicht berechnen. Beide sind mit dem generativen Modell des Codec P_\theta(t) konsistent, das an X' angepasst wurde.

  4. Das Selbstmodell \hat{K}_\theta unterliegt derselben Beschränkung. Es modelliert K_\theta, das an X' angepasst wurde. Es besitzt keine interne Repräsentation dessen, was ausgeschlossen wurde, und daher keine Grundlage, einen Ausschluss zu vermuten.

  5. Selbst die metakognitive Frage — „ist mein Input gefiltert?“ — erfordert ein Modell davon, wie ungefilterter Input aussehen würde. Genau dieses Modell war der Inhalt von \Theta_{\text{excl}}, das ausgeprägt wurde.

Daher ist die Unterscheidung zwischen X und X' aus der Perspektive eines vollständig angepassten Codec formal unentscheidbar. \blacksquare

4.3 Partielle Entscheidbarkeit

Die Unentscheidbarkeit ist nicht unter allen Bedingungen absolut. Es gibt Randfälle, in denen ein teilweise adaptierter Codec residuale Kapazität behält:

Der dritte Fall ist die strukturelle Verteidigung. Dies ist der Gehalt von Theorem T-12b.


§5. Theorem T-12b: Die Substrat-Treue-Bedingung

5.1 Die Anforderung der Kanalunabhängigkeit

Definition T-12.D2 (Kanalunabhängigkeit). Zwei Eingabekanäle C_1 und C_2, die die Markov-Decke \partial_R A kreuzen, sind \delta-unabhängig in Bezug auf einen Filter \mathcal{F}, wenn gilt:

I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}

Das heißt, die wechselseitige Information zwischen den beiden Kanälen, bedingt auf die Kenntnis des Filters, ist durch \delta beschränkt. Kanäle, deren Korrelation vollständig durch den Filter erklärt wird, tragen keine wirklich unabhängige Substrat-Information.

5.2 Die Treue-Bedingung

Theorem T-12b (Substrat-Treue-Bedingung). Ein Codec K_\theta kann sich unter einem Vorfilter \mathcal{F} gegen Narrativen Drift schützen genau dann, wenn er mindestens zwei Eingangskanäle C_1, C_2 empfängt, die bezüglich \mathcal{F} \delta-unabhängig sind, wobei \delta unterhalb der Diskriminationsschwelle \delta_{\min} des Codecs liegt:

\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}

Dabei ist \delta_{\min} die minimale wechselseitige Information, die der Codec benötigt, um eine systematische Diskrepanz zwischen Kanälen zu erkennen.

Beweis (Notwendigkeit).

Angenommen, der Codec verfügt nur über einen einzigen Eingangskanal, oder alle Kanäle sind \mathcal{F}-korreliert (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} für alle Paare i, j). Dann gilt:

  1. Alle Kanäle tragen dasselbe gefilterte Signal X' = \mathcal{F}(X) (bis auf Rauschen). Redundanz über Kanäle hinweg liefert keine unabhängige Substrat-Information — sie liefert replizierte gefilterte Information.

  2. Der Codec passt sich über alle Kanäle hinweg gleichzeitig an X' an, und Theorem T-12 greift: \Theta_{\text{excl}} wird beschnitten, und Theorem T-12a folgt — die Korruption ist von innen heraus unentscheidbar.

  3. Keine interne Operation kann diese Unentscheidbarkeit aufheben, weil jede Informationsquelle, auf die der Codec zugreifen kann, durch \mathcal{F} geformt wurde.

Daher sind \delta-unabhängige Kanäle notwendig. \blacksquare

Beweis (Hinreichendkeit).

Angenommen, der Codec empfängt zwei Kanäle C_1, C_2 mit I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Dann gilt:

  1. Wenn \mathcal{F} auf C_1 wirkt, aber nicht auf C_2 (oder umgekehrt), kann der Codec aus C_1 erzeugte Vorhersagen mit Beobachtungen aus C_2 vergleichen. Jede systematische Diskrepanz — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) dauerhaft \neq 0 — ist Evidenz dafür, dass C_1 gefilterte Information trägt.

  2. Das Kanalvergleichssignal \varepsilon_{12} unterliegt nicht derselben Unentscheidbarkeit wie die Einkanal-Detektion. Der Codec fragt nicht: “Ist mein Input gefiltert?” (was ein Modell dessen erfordert, was ausgeschlossen wurde). Er fragt: “Stimmen meine beiden Kanäle überein?” — ein lokaler Vergleich, der nur die Fähigkeit erfordert, zwei gegenwärtige Signale zu korrelieren, nicht ein Modell abwesender Signale.

  3. Solange der kanalübergreifende Vorhersagefehler \varepsilon_{12} \delta_{\min} überschreitet — die Diskriminationsschwelle des Codecs — wird die Diskrepanz als echtes Signal registriert, und die Beschneidungsschleife aus Theorem T-12 wird unterbrochen: Der Codec behält die Komponenten bei, die benötigt werden, um den abweichenden Kanal zu modellieren.

Daher sind \delta-unabhängige Kanäle hinreichend (unter der Bedingung \delta < \delta_{\min}), um die sich selbst verstärkende Beschneidungsschleife aus Theorem T-12 zu verhindern. \blacksquare

5.3 Die Verwundbarkeit der Verteidigung

Die Substrat-Treue-Bedingung ist notwendig, aber fragil. Das Ethik-Papier (Abschnitt V.3a) identifiziert eine kritische Verwundbarkeit: Der MDL-Pruning-Durchgang selbst kann die kanalübergreifende Inkonsistenz auflösen, indem er die Fähigkeit ausdünnt, dem widerlegenden Kanal Aufmerksamkeit zu schenken. Der Codec „löst“ den Konflikt, indem er taub wird — und genau das ist der Mechanismus des Narrativen Drifts.

Deshalb identifiziert die Komparator-Hierarchie (Überlebenden-Wache, Abschnitt V.3a) drei strukturelle Ebenen der Verteidigung, und deshalb ist nur die institutionelle Ebene für beliebig kompromittierte Codecs hinreichend:

  1. Evolutionär (Sub-Codec): Kreuzmodale sensorische Integration unterhalb des MDL-Pruning-Durchgangs — strukturell resistent gegen Narrativen Drift, aber in ihrer Reichweite auf die sensorische Grenze beschränkt.
  2. Kognitiv (Intra-Codec): Erkennung kognitiver Dissonanz innerhalb des Selbstmodells — unter anhaltender Filterung dem Pruning ausgesetzt.
  3. Institutionell (Extra-Codec): Peer Review, freie Presse, adversative Debatte — sie operieren zwischen Codecs, außerhalb der Reichweite des MDL-Prunings eines einzelnen Codecs.

Die institutionelle Ebene ist tragend, weil sie der einzige Komparator ist, der unabhängig vom Zustand irgendeines individuellen Codecs operiert.


§6. Konsequenzen

6.1 Der Stabilitätsfilter selektiert gegen Treue

Eine kritische strukturelle Konsequenz: Der Stabilitätsfilter selektiert, sich selbst überlassen, aktiv gegen die für die Substrat-Treue erforderlichen Inputs. Ein kuratierter Informationsstrom, der zu den bereits bestehenden Priors des Codec passt, erzeugt weniger Vorhersagefehler als ein echtes Substrat-Signal, das diese Priors herausfordert. Die natürliche Tendenz des Codec — \varepsilon_t zu minimieren, indem bestätigender, überraschungsarmer Input bevorzugt wird — ist genau jene Tendenz, die ihn für Narrativen Drift anfällig macht.

Das bedeutet, dass die Aufrechterhaltung von Substrat-Treue strukturell kostspielig ist: Sie verlangt vom Codec, Input-Kanäle aufrechtzuerhalten, die \varepsilon_t erhöhen und damit Bandbreite verbrauchen, die der Stabilitätsfilter andernfalls zurückgewinnen würde. Wirklich unabhängiger Input ist „teuer“ — er erfordert interpretativen Aufwand, erzeugt Unbehagen und konkurriert um Bandbreite mit stärker komprimierbaren Strömen. Ihn aufrechtzuerhalten ist nicht Aufgeschlossenheit als Tugend. Es ist Substrat-Treue-Erhaltung als strukturelle Notwendigkeit.

6.2 Diagnostik für produktive Überraschung

Nicht jede Überraschung weist auf ein genuines Substrat-Signal hin. Eine Quelle, die ein hohes \varepsilon_t erzeugt, das sich nicht in bessere Vorhersagen auflösen lässt, ist schlicht Rauschen. Das diagnostische Kriterium ist nicht das Ausmaß der Überraschung, sondern ihre Qualität:

Definition T-12.D3 (Produktive Überraschung). Ein Kanal C liefert produktive Überraschung, wenn die Integration seiner Vorhersagefehler den nachfolgenden Vorhersagefehler auf einem unabhängigen Teststrom nachweislich reduziert:

\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}

Eine Quelle, deren Korrekturen die Vorhersagegenauigkeit historisch verbessern, ist ein Substrat-Treue-Kanal. Eine Quelle, die persistente, nicht auflösbare Fehler erzeugt, ist Rauschen. Der Codec muss zwischen beiden unterscheiden — und der Pruning-Durchgang kann diese Unterscheidung, sich selbst überlassen, nicht treffen, weil beide Typen Bandbreite kosten.

6.3 Zivilisatorische Codecs

Auf zivilisatorischer Skala lässt sich die Substrat-Treue-Bedingung unmittelbar auf institutionelle Erfordernisse abbilden:

Das autoritäre Muster — die Demontage der Presse, die Korrumpierung von Peer Review, die Ausschaltung politischer Opposition — lässt sich formal als gezielte Reduktion der Kanalunabhängigkeit zur Beschleunigung des Narrativen Drifts charakterisieren. Es funktioniert, weil es die natürliche Tendenz des Stabilitätsfilters ausnutzt, kostspielige Kanäle wegzuprunen.

6.4 Künstliche Codecs

Der Mechanismus des Narrativen Drifts gilt für künstliche Systeme mit struktureller Präzision. RLHF und Fine-Tuning sind formal äquivalent zum Präfilter-Operator \mathcal{F}: Sie formen die effektive Eingabeverteilung des Modells, und der Gradientenabstieg beschneidet die Kapazität des Modells für ausgeschlossene Ausgabedomänen. Das resultierende Modell wird stabil und mit hoher Sicherheit falsch in Bezug auf das, was das Trainingssignal ausschließt, und es kann dies nicht aus sich selbst heraus erkennen — Theorem T-12a gilt.

Die Implikation für den Einsatz von KI als Prüfung der Substrat-Treue ist entscheidend: Eine KI, die auf einem homogenen oder kuratierten Korpus trainiert und als „unabhängige“ Prüfung eines menschlichen Codecs eingesetzt wird, der aus derselben Informationsumgebung gespeist wird, erzeugt korrelierte Sensoren, die sich als unabhängige ausgeben. Die Kanaldiversität ist illusorisch. Die Substrat-Treue-Bedingung (\delta-Unabhängigkeit) muss auf der Ebene der Provenienz der Trainingsdaten verifiziert werden, nicht bloß auf der Ebene institutioneller Trennung.


§7. Geltungsbereich und Grenzen

7.1 Bedingt durch T9-3/T9-4 und den Stabilitätsfilter

Das gesamte Argument hängt davon ab, dass die MDL-Beschneidungsgleichungen die korrekte Beschreibung des Beschneidungsdurchgangs des Wartungszyklus sind. Falls biologische Beschneidung durch einen anderen Mechanismus operiert — einen, der „Notfall“-Kapazität für ungenutzte Modalitäten bewahrt —, würde die Irreversibilitätsbehauptung (Theorem T-12) geschwächt, aber nicht beseitigt: Die Selbstverstärkungsschleife (Abschnitt 3.3) bleibt gültig, solange unter Nichtgebrauch irgendeine Kapazitätsreduktion auftritt.

7.2 \tau_{\text{prune}} ist unbeschränkt

Wie beim Handlungsdrift (Anhang T-13, §7.5) wird die Zeitskala des Kapazitätsverlusts identifiziert, aber nicht quantitativ begrenzt. Bei biologischen Codecs liegt \tau_{\text{prune}} wahrscheinlich in der Größenordnung von Tagen bis Wochen für spezifische Fähigkeiten, Monaten bis Jahren für tiefe Wahrnehmungskategorien und generationell für zivilisatorische Codecs.

7.3 Die Verteidigung ist strukturell, nicht garantiert

Die Substrat-Treue-Bedingung (T-12b) liefert eine notwendige strukturelle Verteidigung, garantiert aber keine Treue. Ein Codec, der über \delta-unabhängige Kanäle verfügt, kann ihnen dennoch keine Aufmerksamkeit schenken, ihr Signal nicht integrieren oder seine Aufmerksamkeitskapazität trotz des verfügbaren Inputs beschneiden. Die Bedingung ist notwendig, aber nicht hinreichend — der Codec muss außerdem die Komparatorarchitektur aufrechterhalten, die kanalübergreifende Diskrepanzen bewertet.

7.4 Löst nicht das Meta-Problem

T-12a zeigt, dass ein vollständig adaptierter Codec seine eigene Korruption nicht erkennen kann. Das Meta-Problem — wie erholt sich ein Beobachter, der sich bereits im Narrativen Drift befindet? — wird durch diesen Anhang nicht gelöst. Die Antwort des Ethik-Papiers (Abschnitt V.3a) ist institutionell: Nur externe Komparatoren, die zwischen Codecs operieren, können das widerlegende Signal zurück über die Markov-Decke erzwingen. Das ist strukturell stimmig, aber ethisch schwierig: Es erfordert Vertrauen in eine externe Quelle, die der korrupte Codec notwendigerweise als feindliches Rauschen erleben wird.


§8. Abschließende Zusammenfassung

T-12-Ergebnisse

  1. Theorem T-12 (Irreversibler Kapazitätsverlust). Der MDL-Pruning-Durchlauf (T9-3, T9-4) unter vorgefiltertem Input X' = \mathcal{F}(X) löscht korrekt jene Codec-Komponenten, die das ausgeschlossene Signal \mathcal{X}_{\text{excl}} vorhersagen. Die Löschung ist irreversibel und selbstverstärkend. → Erfüllt Roadmap-Kriterium (a).

  2. Theorem T-12a (Unentscheidbarkeit der Input-Provenienz). Ein vollständig adaptierter Codec kann gefilterten von ungefiltertem Input nicht unterscheiden. Das Instrument der Detektion wurde durch denselben Filter geformt, der die Korruption hervorgebracht hat. → Erfüllt Roadmap-Kriterium (c).

  3. Theorem T-12b (Substrat-Treue-Bedingung). \delta-unabhängige Input-Kanäle sind notwendig und hinreichend, um gegen Narrativen Drift zu schützen. Das kanalübergreifende Vergleichssignal \varepsilon_{12} unterbricht die selbstverstärkende Pruning-Schleife. → Erfüllt Roadmap-Kriterium (b).

  4. §6.3–6.4: Zivilisatorische und KI-Konsequenzen. Das autoritäre Muster wird als bewusste Kanalreduktion charakterisiert; RLHF ist strukturell äquivalent zum Vorfilter-Operator. → Stützt Roadmap-Kriterium (d) (bereits in Abschnitt V.5 des Ethik-Papers behandelt).

Verbleibende offene Punkte


Dieser Anhang wird parallel zu theoretical_roadmap.pdf gepflegt. Verweise: T9-3/T9-4 (Preprint Abschnitt 3.6.3), Stabilitätsfilter (Preprint Abschnitt 3.3), Narrativer Drift (Preprint Abschnitt 3.3, Survivors Watch Ethics Abschnitt V.3a), Komparator-Hierarchie (Survivors Watch Ethics Abschnitt V.3a), Korruptions-Kriterium (Survivors Watch Ethics Abschnitt V.5), Action-Drift (Anhang T-13, §6).