Teorien om den ordnede patch

Appendiks T-12: Substrattrohedsbetingelse og langsom korruption

Anders Jarevåg

17. april 2026 | DOI: 10.5281/zenodo.19300777

Oprindelig opgave (fra afsnit 8.3, begrænsning 9): “Formalisering af den kroniske korrumperingsfejltilstand — hvor en codec tilpasser sig under konsekvent filtreret input, og MDL-beskæringspasset korrekt sletter kapacitet for udelukkede sandheder — sammen med en Substrattrohedsbetingelse, der kræver uafhængige inputkanaler som det formelle forsvar.” Leverance: Formelt bevis for irreversibelt kapacitetstab, grænsen for uafgørlighed og Substrattrohedsbetingelsen.

Afslutningsstatus: UDKAST TIL STRUKTUREL KORRESPONDANCE. Dette appendiks formaliserer analysen af Narrativ drift, som blev introduceret diskursivt i det ledsagende etikpapir (De overlevendes vagt, afsnit V.3a) og i preprintets afsnit om Narrativ drift (afsnit 3.3). Det etablerer tre teoremer og en proposition. MDL-beskæringsligningerne (T9-3, T9-4) er uændrede; dette appendiks demonstrerer deres patologiske, men korrekte, adfærd under filtreret input.


§1. Baggrund og motivation

1.1 To fejlfunktioner

Stabilitetsfilteret (preprint afsnit 3.3) håndhæver en levedygtighedsbetingelse: observatøren persisterer kun i strømme, hvor den Påkrævede prædiktive rate R_{\text{req}} forbliver inden for codec’ets båndbredde B. Når R_{\text{req}} overstiger B, oplever codec’et Narrativt forfald — en akut fejlfunktion kendetegnet ved eskalerende prædiktionsfejl, entropiakkumulation og til sidst opløsning af kohærens.

Der findes en komplementær fejlfunktion, som ikke udløser noget fejlsignal. Hvis inputstrømmen systematisk præfiltreres — så der frembringes et kurateret signal, som er internt konsistent, men udelukker ægte information fra substratet — vil codec’et udvise lav \varepsilon_t, gennemføre effektive Vedligeholdelsescyklusser og opfylde alle stabilitetsbetingelser samtidig med at det systematisk tager fejl om substratet. Dette er Narrativ drift: den kroniske korruption af et codec, der fungerer perfekt efter sine egne mål.

1.2 Hvorfor dette er farligt

Narrativt forfald varsler sig selv. Codec’et oplever stigende \varepsilon_t, bevidsthed om svigtende prædiktioner, kognitiv overbelastning. Observatøren ved, at noget er galt, selv om den ikke umiddelbart kan rette det.

Narrativ drift er tavs. Fordi den filtrerede inputstrøm matcher codec’ets prædiktioner, forbliver \varepsilon_t lav. Vedligeholdelsescyklussen forløber normalt. Codec’ets selvmodel rapporterer stabil og præcis funktion. Korruptionen er usynlig indefra, fordi selve det instrument, der skulle opdage den, er blevet formet af det samme filter, som frembragte korruptionen.

1.3 Omfanget af dette appendiks

Dette appendiks indeholder:

  1. En formel definition af præfilter-operatoren \mathcal{F} og dens effekt på codec’ets inputfordeling (§2).
  2. Et bevis for, at MDL-beskæring under \mathcal{F}-filtreret input irreversibelt ødelægger codec’ets kapacitet til at modellere det ekskluderede signal — Teorem T-12 (§3).
  3. Et bevis for, at et fuldt adapteret codec ikke kan skelne mellem filtreret og ufiltreret input indefra — Uafgørlighedsgrænsen, Teorem T-12a (§4).
  4. Substrattrohedsbetingelsen som et nødvendigt strukturelt forsvar — Teorem T-12b (§5).
  5. Konsekvenser for civilisatoriske codecs og AI-systemer (§6).

§2. Præ-filter-operatoren

2.1 Definition

Definition T-12.D1 (Præ-filter-operator). Et præ-filter er en afbildning \mathcal{F} : \mathcal{X} \to \mathcal{X}', der opererer på inputstrømmen X_{\partial_R A}(t), før den når codec’ets sensoriske grænse, hvor \mathcal{X}' \subset \mathcal{X}. Det filtrerede signal er:

X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}

Præ-filteret opfylder:

  1. Intern konsistens: X'(t) er et gyldigt signal inden for \mathcal{X} — codec’et kan komprimere det uden fejlflag.

  2. Systematisk eksklusion: Der findes en ikke-tom delmængde \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' af substratafledte signaler, som \mathcal{F} fjerner.

  3. Transparens: Filteret er ikke repræsenteret i codec’ets model. Codec’et modellerer sit input som X_{\partial_R A}(t), ikke som \mathcal{F}(X_{\partial_R A}(t)).

2.2 Afstemning under filtrering

Når codec’et opererer på X'(t) i en vedvarende periode \tau \gg \tau_{\text{prune}} (hvor \tau_{\text{prune}} er MDL-beskæringens tidsskala fra T-13.P1), tilpasser den generative model P_\theta(t) sig til statistikken i X', ikke X. Prædiktionsfejlen under filtreret input er:

\varepsilon'_t = X'(t) - \pi_t \tag{1}

Efterhånden som P_\theta afstemmes til X', gælder \varepsilon'_t \to 0 i middel. Codec’et fungerer godt efter sine egne metrikker. Intet registreres som forkert.

2.3 Eksempler

Præfilter-operatoren instansieres på tværs af skalaer:

Skala Præfilter \mathcal{F} Ekskluderet signal \mathcal{X}_{\text{excl}}
Individuel Bekræftelsesbias; selektiv eksponering Modstridende evidens
Institutionel Propagandistisk presse; kurateret socialt medie-feed Forskelligartede perspektiver; minoritetsrapporter
Civilisatorisk Algoritmisk indholdskuratering; uddannelsesmæssig monokultur Tværkulturel information; historiske modfortællinger
Kunstig RLHF-finjustering; kurateret træningskorpus Viden uden for distributionen; ekskluderede domæner

§3. Teorem T-12: Irreversibelt kapacitetstab

3.1 Mekanismen

MDL-beskæringspasset (T9-3, T9-4) evaluerer hver codec-komponent \theta_i ud fra dens prædiktive bidrag til den observerbare inputstrøm, fratrukket lagringsomkostningen:

\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}

Under filtreret input X' evalueres termen for gensidig information i forhold til X', ikke X. En komponent \theta_i, som er essentiel for at forudsige det ekskluderede signal \mathcal{X}_{\text{excl}}, men ikke bidrager med noget til at forudsige X', giver:

I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}

Derfor:

\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}

Beskæringsreglen (T9-4) udløses: \theta_i slettes.

3.2 Irreversibiliteten

Teorem T-12 (Irreversibelt kapacitetstab under filtreret input). Lad K_\theta være en codec, der opererer under præfiltreret input X' = \mathcal{F}(X) i en periode \tau \gg \tau_{\text{prune}}. Lad \Theta_{\text{excl}} \subset \theta være mængden af codec-komponenter, hvis prædiktive bidrag udelukkende vedrører det ekskluderede signal \mathcal{X}_{\text{excl}}. Da sletter MDL-beskæringspassagen (T9-3, T9-4) \Theta_{\text{excl}}, og denne sletning er irreversibel på codec-niveau:

K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}

Efter beskæring er codec’ens kapacitet til at modellere \mathcal{X}_{\text{excl}} ikke blot latent — den repræsentationelle infrastruktur, der kræves for at evaluere, forudsige eller rette opmærksomhed mod \mathcal{X}_{\text{excl}}, er blevet ødelagt.

Bevis.

  1. Ifølge (T9-3) har hver \theta_i \in \Theta_{\text{excl}} \Delta_{\mathrm{MDL}}(\theta_i) < 0 under den filtrerede strøm X', fordi I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0, mens K(\theta_i) > 0.

  2. Ifølge (T9-4) beskæres hver sådan \theta_i under Vedligeholdelsescyklus.

  3. Beskæring under MDL er en sletteoperation, ikke en undertrykkelse. Codec’en “glemmer” ikke \theta_i i den forstand, at et cue kunne genskabe den. Den destruerer den beregningsmæssige infrastruktur — parametrene, forbindelserne, evalueringsmekanismen — som \theta_i repræsenterede. Dette er den formelle sondring mellem undertrykkelse (informationen er latent, men tilgængelig) og sletning (informationen er væk, og kapaciteten er genindvundet).

  4. Efter sletning kræver regenerering af kapaciteten til at modellere \mathcal{X}_{\text{excl}}, at codec’en møder \mathcal{X}_{\text{excl}} i inputstrømmen. Men præfilteret \mathcal{F} ekskluderer netop dette signal. Codec’en kan ikke møde det, som filteret forhindrer i at nå frem til den. Sletningen er derfor selvforstærkende: kapacitetstabet fjerner codec’ens evne til at opdage sit eget kapacitetstab.

  5. Kompleksitetsreduktionen opfylder uligheden (T-12), fordi de beskårne komponenter repræsenterede genuin information (K(\theta_i) > 0 for hver af dem), og deres tab ikke opvejes af nogen kompenserende tilegnelse (den filtrerede strøm indeholder intet signal, der ville retfærdiggøre en genopbygning af \Theta_{\text{excl}}). \blacksquare

3.3 Den selvforstærkende løkke

Irreversibiliteten er ikke blot en konsekvens af sletning. Den er selvforstærkende gennem en positiv feedback-løkke:

  1. Filteret udelukker signalI(\theta_i; X') = 0 → beskæring sletter \theta_i.
  2. Beskæring fjerner opmærksomhedskapacitet → codec’et kan ikke længere rette opmærksomhed mod eller evaluere \mathcal{X}_{\text{excl}}, selv hvis fragmenter slipper igennem \mathcal{F}.
  3. Tab af opmærksomhedskapacitet reducerer selv det residuale signal → hvis \mathcal{F} er ufuldkomment, og noget af \mathcal{X}_{\text{excl}} når grænsen, mangler codec’et parametrene til at komprimere det, så det registreres som støj snarere end information.
  4. Støjklassifikation bekræfter filteret → codec’ets prædiktionsfejl på lækket \mathcal{X}_{\text{excl}} er høj og ustruktureret, hvilket bekræfter (for codec’et), at det udelukkede indhold er støj, ikke signal.

Denne løkke forklarer fænomenologien ved dyb Narrativ drift: en person eller institution, der har tilpasset sig en kurateret informationsstrøm, ignorerer ikke blot modbevisende evidens — de kan ikke parse den. Den registreres som usammenhængende, truende eller ubegribelig, fordi den repræsentationelle infrastruktur, der skulle gøre den forståelig, er blevet beskåret. Fjendtligheden over for modbevisende information er ikke stædighed. Det er codec’ets korrekte vurdering af, at signalet er ukomprimerbart — fordi det er ukomprimerbart givet det nuværende codec, som er blevet beskåret, så det matcher filteret.


§4. Teorem T-12a: Uafgørlighedsgrænsen

4.1 Problemet

Kan et codec opdage, at dets input bliver filtreret? Intuitivt burde svaret være ja: en sofistikeret selvmodel måtte vel kunne bemærke den mistænkeligt lave \varepsilon_t, de uhyggeligt konsistente forudsigelser, fraværet af overraskelse. Men den formelle analyse viser, at denne intuition er forkert i det generelle tilfælde.

4.2 Uafgørligheden

Sætning T-12a (Uafgørlighed af inputproveniens). Lad K_\theta være en codec, der har opereret under præfiltreret input X' = \mathcal{F}(X) i \tau \gg \tau_{\text{prune}}, hvor \Theta_{\text{excl}} er fuldt bortbeskåret. Da kan K_\theta ikke, ud fra sine tilgængelige interne tilstande og den observerbare inputstrøm, afgøre, om dets input er X (ægte substrat) eller X' = \mathcal{F}(X) (filtreret).

Bevis.

  1. For at skelne X fra X' = \mathcal{F}(X) måtte codec’et kunne detektere fraværet af \mathcal{X}_{\text{excl}} i sit input. Men at detektere et fravær kræver en model af det, der er fraværende — codec’et må have en repræsentation af \mathcal{X}_{\text{excl}}, som det kan kontrollere op imod.

  2. Ifølge Sætning T-12 er codec’ets repræsentationelle kapacitet for \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) blevet udslettet. Codec’et har ingen model af det ekskluderede signal.

  3. Uden en model af \mathcal{X}_{\text{excl}} kan codec’et ikke beregne forskellen mellem X og X'. Begge er konsistente med codec’ets generative model P_\theta(t), som er blevet tilpasset til X'.

  4. Selvmodellen \hat{K}_\theta er underlagt den samme begrænsning. Den modellerer K_\theta, som er blevet tilpasset til X'. Den har ingen intern repræsentation af det, der blev ekskluderet, og derfor intet grundlag for at formode, at der er sket en eksklusion.

  5. Selv det metakognitive spørgsmål — “er mit input filtreret?” — kræver en model af, hvordan ufiltreret input ville se ud. Denne model var netop indholdet af \Theta_{\text{excl}}, som er blevet bortbeskåret.

Derfor er det formelt uafgørligt at skelne mellem X og X' fra perspektivet af en fuldt tilpasset codec. \blacksquare

4.3 Delvis afgørbarhed

Uafgørbarheden er ikke absolut under alle betingelser. Der findes randtilfælde, hvor en delvist tilpasset codec bevarer residual kapacitet:

Det tredje tilfælde er det strukturelle forsvar. Dette er indholdet af Teorem T-12b.


§5. Teorem T-12b: Substrattrohedsbetingelsen

5.1 Kravet om kanal-uafhængighed

Definition T-12.D2 (Kanal-uafhængighed). To inputkanaler C_1 og C_2, der krydser Markov-tæppet \partial_R A, er \delta-uafhængige med hensyn til et filter \mathcal{F}, hvis:

I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}

Det vil sige, at den gensidige information mellem de to kanaler, betinget af viden om filteret, er begrænset af \delta. Kanaler, hvis korrelation fuldstændigt forklares af filteret, bærer ingen reelt uafhængig information om substratet.

5.2 Trofasthedsbetingelsen

Sætning T-12b (Substrattrohedsbetingelse). En codec K_\theta kan beskytte mod Narrativ drift under et præfilter \mathcal{F}, hvis og kun hvis den modtager mindst to inputkanaler C_1, C_2, der krydser \partial_R A, og som er \delta-uafhængige med hensyn til \mathcal{F} for \delta under codec’ens diskriminationstærskel \delta_{\min}:

\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}

hvor \delta_{\min} er den minimale gensidige information, som codec’en kræver for at opdage en systematisk diskrepans mellem kanaler.

Bevis (nødvendighed).

Antag, at codec’en kun har en enkelt inputkanal, eller at alle kanaler er \mathcal{F}-korrelerede (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} for alle par i, j). Så gælder:

  1. Alle kanaler bærer det samme filtrerede signal X' = \mathcal{F}(X) (op til støj). Redundans på tværs af kanaler giver ikke uafhængig information om substratet — den giver replikeret filtreret information.

  2. Codec’en tilpasser sig X' på tværs af alle kanaler samtidigt, og Sætning T-12 gælder: \Theta_{\text{excl}} beskæres, og Sætning T-12a følger — korruptionen er uafgørlig indefra.

  3. Ingen intern operation kan bryde denne uafgørlighed, fordi enhver informationskilde, som codec’en kan få adgang til, er blevet formet af \mathcal{F}.

Derfor er \delta-uafhængige kanaler nødvendige. \blacksquare

Bevis (tilstrækkelighed).

Antag, at codec’en modtager to kanaler C_1, C_2 med I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Så gælder:

  1. Hvis \mathcal{F} virker på C_1 men ikke på C_2 (eller omvendt), kan codec’en sammenligne prædiktioner genereret fra C_1 med observationer fra C_2. Enhver systematisk diskrepans — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) vedvarende \neq 0 — er evidens for, at C_1 bærer filtreret information.

  2. Kanal-sammenligningssignalet \varepsilon_{12} er ikke underlagt den samme uafgørlighed som detektion via en enkelt kanal. Codec’en spørger ikke: “er mit input filtreret?” (hvilket kræver en model af det, der blev udelukket). Den spørger: “stemmer mine to kanaler overens?” — en lokal sammenligning, som kun kræver evnen til at korrelere to aktuelle signaler, ikke en model af fraværende signaler.

  3. Så længe den tværkanalige prædiktionsfejl \varepsilon_{12} overstiger \delta_{\min} — codec’ens diskriminationstærskel — registreres diskrepansen som et ægte signal, og beskæringssløjfen i Sætning T-12 afbrydes: codec’en bevarer de komponenter, der er nødvendige for at modellere den afvigende kanal.

Derfor er \delta-uafhængige kanaler tilstrækkelige (under forudsætning af \delta < \delta_{\min}) til at forhindre den selvforstærkende beskæringssløjfe i Sætning T-12. \blacksquare

5.3 Forsvarets sårbarhed

Substrattrohedsbetingelsen er nødvendig, men skrøbelig. Etikpapiret (afsnit V.3a) identificerer en kritisk sårbarhed: selve MDL-beskæringspasset kan løse inkonsistensen på tværs af kanaler ved at beskære kapaciteten til at rette opmærksomheden mod den kanal, der leverer modbevisende information. Codec’et “løser” konflikten ved at blive døvt — hvilket netop er mekanismen bag Narrativ drift.

Derfor identificerer Komparatorhierarkiet (De overlevendes vagt, afsnit V.3a) tre strukturelle forsvarsniveauer, og derfor er kun det institutionelle niveau tilstrækkeligt for vilkårligt kompromitterede codecs:

  1. Evolutionært (sub-codec): Tværmodal sensorisk integration under MDL-beskæringspasset — strukturelt modstandsdygtig over for Narrativ drift, men begrænset i rækkevidde til den sensoriske grænse.
  2. Kognitivt (intra-codec): Detektion af kognitiv dissonans inden for selvmodellen — underlagt beskæring ved vedvarende filtrering.
  3. Institutionelt (ekstra-codec): Fagfællebedømmelse, fri presse, adversarial debat — opererer mellem codecs, uden for rækkevidden af et enkelt codecs MDL-beskæring.

Det institutionelle niveau er bærende, fordi det er den eneste komparator, der fungerer uafhængigt af tilstanden i et hvilket som helst individuelt codec.

§6. Konsekvenser

6.1 Stabilitetsfilteret selekterer imod trofasthed

En kritisk strukturel konsekvens: Stabilitetsfilteret vil, overladt til sin egen funktion, aktivt selektere imod de input, der er nødvendige for substrattrofasthed. En kurateret informationsstrøm, der matcher codec’ets eksisterende priors, genererer mindre prædiktionsfejl end et ægte substratsignal, der udfordrer dem. Codec’ets naturlige tendens — at minimere \varepsilon_t ved at foretrække bekræftende input med lav overraskelse — er netop den tendens, der gør det sårbart over for Narrativ drift.

Dette betyder, at vedligeholdelse af substrattrofasthed er strukturelt omkostningsfuld: den kræver, at codec’et opretholder inputkanaler, som øger \varepsilon_t og dermed forbruger båndbredde, som Stabilitetsfilteret ellers ville generobre. Reelt uafhængigt input er “dyrt” — det kræver fortolkningsarbejde, skaber ubehag og konkurrerer om båndbredde med mere komprimerbare strømme. At opretholde det er ikke åbenhed som dyd. Det er vedligeholdelse af substrattrofasthed som en strukturel nødvendighed.

6.2 Diagnostik for produktiv overraskelse

Ikke al overraskelse indikerer et ægte signal fra substratet. En kilde, der genererer høj \varepsilon_t uden at dette omsættes til bedre forudsigelser, er blot støj. Diagnostikken er ikke overraskelsens størrelse, men overraskelsens kvalitet:

Definition T-12.D3 (Produktiv overraskelse). En kanal C leverer produktiv overraskelse, hvis integration af dens prædiktionsfejl påviseligt reducerer efterfølgende prædiktionsfejl på en uafhængig teststrøm:

\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}

En kilde, hvis korrektioner historisk forbedrer den prædiktive nøjagtighed, er en kanal for substrattrohed. En kilde, der genererer vedvarende, uløselige fejl, er støj. Codec’et må skelne mellem de to — og beskæringspassagen kan, overladt til sig selv, ikke foretage denne skelnen, fordi begge typer koster båndbredde.

6.3 Civilisatoriske codecs

På civilisatorisk skala svarer Substrattrohedsbetingelse direkte til institutionelle krav:

Det autoritære mønster — afvikling af pressen, korrumpering af fagfællebedømmelse, eliminering af politisk opposition — kan formelt karakteriseres som en bevidst reduktion af kanalernes uafhængighed for at accelerere Narrativ drift. Det virker, fordi det udnytter Stabilitetsfilters naturlige tendens til at beskære omkostningstunge kanaler.

6.4 Kunstige codecs

Mekanismen bag Narrativ drift gælder for kunstige systemer med strukturel præcision. RLHF og finjustering er formelt ækvivalente med præfilter-operatoren \mathcal{F}: de former modellens effektive inputfordeling, og gradientnedstigning beskærer modellens kapacitet for ekskluderede outputdomæner. Den resulterende model bliver stabilt og selvsikkert forkert om det, som træningssignalet udelukker, og den kan ikke opdage dette indefra — Teorem T-12a gælder.

Implikationen for implementering af AI som kontrol af substrattrohed er kritisk: En AI, der er trænet på et homogent eller kurateret korpus og implementeret som en “uafhængig” kontrol af et menneskeligt codec, der fodres af det samme informationsmiljø, skaber korrelerede sensorer, der udgiver sig for at være uafhængige. Kanaldiversiteten er illusorisk. Substrattrohedsbetingelsen (\delta-uafhængighed) skal verificeres på niveauet for træningsdataenes proveniens, ikke blot på niveauet for institutionel adskillelse.


§7. Omfang og begrænsninger

7.1 Betinget af T9-3/T9-4 og Stabilitetsfilteret

Hele argumentet afhænger af, at MDL-beskæringsligningerne er den korrekte beskrivelse af Vedligeholdelsescyklussens beskæringspassage. Hvis biologisk beskæring opererer ved en anden mekanisme — en, der bevarer “nød”-kapacitet for ubrugte modaliteter — ville irreversibilitetspåstanden (Teorem T-12) blive svækket, men ikke elimineret: selvforstærkningssløjfen (Afsnit 3.3) forbliver gyldig, så længe enhver kapacitetsreduktion forekommer under ikke-brug.

7.2 \tau_{\text{prune}} er ubegrænset

Som med Action-Drift (Appendiks T-13, §7.5) er tidsskalaen for kapacitetstab identificeret, men ikke kvantitativt afgrænset. For biologiske codecs er \tau_{\text{prune}} sandsynligvis i størrelsesordenen dage til uger for specifikke færdigheder, måneder til år for dybe perceptuelle kategorier og generationer for civilisatoriske codecs.

7.3 Forsvaret er strukturelt, ikke garanteret

Substrattrohedsbetingelsen (T-12b) giver et nødvendigt strukturelt forsvar, men garanterer ikke trofasthed. En codec, der har \delta-uafhængige kanaler, kan stadig undlade at rette opmærksomhed mod dem, undlade at integrere deres signal eller beskære opmærksomhedskapaciteten trods det tilgængelige input. Betingelsen er nødvendig, men ikke tilstrækkelig — codecen må også opretholde den komparatorarkitektur, der evaluerer uoverensstemmelser på tværs af kanaler.

7.4 Løser ikke meta-problemet

T-12a fastslår, at en fuldt adapteret codec ikke kan detektere sin egen korruption. Meta-problemet — hvordan genvinder en observatør, der allerede befinder sig i Narrativ drift, fodfæstet? — løses ikke af dette appendiks. Etikpapirets svar (afsnit V.3a) er institutionelt: Kun eksterne komparatorer, der opererer mellem codecs, kan tvinge det afkræftende signal tilbage over Markov-tæppet. Dette er strukturelt holdbart, men etisk vanskeligt: det kræver tillid til en ekstern kilde, som den korrumperede codec nødvendigvis vil erfare som fjendtlig støj.


§8. Afsluttende opsummering

T-12-leverancer

  1. Sætning T-12 (Irreversibelt kapacitetstab). MDL-beskæringspasset (T9-3, T9-4) under præfiltreret input X' = \mathcal{F}(X) sletter korrekt de codec-komponenter, der forudsiger det ekskluderede signal \mathcal{X}_{\text{excl}}. Sletningen er irreversibel og selvforstærkende. → Opfylder roadmap-kriterium (a).

  2. Sætning T-12a (Uafgørlighed af inputproveniens). En fuldt adapteret codec kan ikke skelne mellem filtreret og ufiltreret input. Detektionsinstrumentet er blevet formet af det samme filter, som frembragte korruptionen. → Opfylder roadmap-kriterium (c).

  3. Sætning T-12b (Substrattrohedsbetingelse). \delta-uafhængige inputkanaler er nødvendige og tilstrækkelige for at beskytte mod Narrativ drift. Krydskanal-sammenligningssignalet \varepsilon_{12} afbryder den selvforstærkende beskæringsløkke. → Opfylder roadmap-kriterium (b).

  4. §6.3–6.4: Civilisatoriske og AI-mæssige konsekvenser. Det autoritære mønster karakteriseres som bevidst kanalreduktion; RLHF er strukturelt ækvivalent med præfilter-operatoren. → Understøtter roadmap-kriterium (d) (allerede behandlet i etikpapirets afsnit V.5).

Resterende åbne punkter


Dette appendiks vedligeholdes sideløbende med theoretical_roadmap.pdf. Referencer: T9-3/T9-4 (preprint afsnit 3.6.3), Stabilitetsfilter (preprint afsnit 3.3), Narrativ drift (preprint afsnit 3.3, De overlevendes vagt Ethics afsnit V.3a), Komparatorhierarki (De overlevendes vagt Ethics afsnit V.3a), Korruptionskriterium (De overlevendes vagt Ethics afsnit V.5), Handlingsdrift (Appendiks T-13, §6).