Teorien om den ordnede patchen (OPT)
Appendix T-12: Substrattrohetsbetingelse og langsom korrupsjon
17. april 2026 | DOI: 10.5281/zenodo.19300777
Opprinnelig oppgave (fra seksjon 8.3, begrensning 9): “Formalisering av den kroniske korrupsjonssviktmodusen — der en kodek tilpasser seg under konsekvent filtrert input, og MDL-beskjæringspasset korrekt sletter kapasitet for ekskluderte sannheter — sammen med en Substrattrohetsbetingelse som krever uavhengige inputkanaler som det formelle forsvaret.” Leveranse: Formelt bevis for irreversibelt kapasitetstap, grensen for uavgjørbarhet og Substrattrohetsbetingelsen.
Avslutningsstatus: UTKAST TIL STRUKTURELL KORRESPONDANSE. Dette appendikset formaliserer analysen av Narrativ drift, slik den introduseres diskursivt i den tilhørende etikkartikkelen (De overlevendes vakt, seksjon V.3a) og i preprintens avsnitt om Narrativ drift (seksjon 3.3). Det etablerer tre teoremer og en proposisjon. MDL-beskjæringsligningene (T9-3, T9-4) er uendret; dette appendikset demonstrerer deres patologiske, men korrekte, oppførsel under filtrert input.
§1. Bakgrunn og motivasjon
1.1 To feilmoduser
Stabilitetsfilteret (preprint seksjon 3.3) håndhever en levedyktighetsbetingelse: observatøren vedvarer bare i strømmer der Påkrevd prediktiv rate R_{\text{req}} forblir innenfor kodekens båndbredde B. Når R_{\text{req}} overstiger B, opplever kodeken Narrativt forfall — en akutt svikt karakterisert av eskalerende prediksjonsfeil, entropiakkumulering og til slutt oppløsning av koherens.
Det finnes en komplementær feilmodus som ikke utløser noe feilsignal. Hvis inputstrømmen er systematisk forhåndsfiltrert — og dermed produserer et kuratert signal som er internt konsistent, men utelukker genuin informasjon fra substratet — vil kodeken ha lav \varepsilon_t, kjøre effektive Vedlikeholdssykluser og oppfylle alle stabilitetsbetingelser samtidig som den systematisk tar feil om substratet. Dette er Narrativ drift: den kroniske korrumperingen av en kodek som fungerer perfekt etter sine egne mål.
1.2 Hvorfor dette er farlig
Narrativt forfall varsler seg selv. Kodeken opplever stigende \varepsilon_t, bevissthet om sviktende prediksjoner, kognitiv overbelastning. observatøren vet at noe er galt, selv om den ikke umiddelbart kan rette det opp.
Narrativ drift er taus. Fordi den filtrerte inputstrømmen samsvarer med kodekens prediksjoner, forblir \varepsilon_t lav. Vedlikeholdssyklus kjører normalt. Kodekens selvmodell rapporterer stabil og presis drift. Korrupsjonen er usynlig innenfra fordi selve deteksjonsinstrumentet er blitt formet av det samme filteret som frembrakte korrupsjonen.
1.3 Virkeområdet for dette appendikset
Dette appendikset gir:
- En formell definisjon av pre-filter-operatoren \mathcal{F} og dens effekt på kodekens inndistribusjon (§2).
- Et bevis for at MDL-beskjæring under \mathcal{F}-filtrert input irreversibelt ødelegger kodekens kapasitet til å modellere det ekskluderte signalet — Teorem T-12 (§3).
- Et bevis for at en fullt tilpasset kodek ikke kan skille filtrert fra ufiltrert input innenfra — Uavgjørbarhetsgrensen, Teorem T-12a (§4).
- Substrattrohetsbetingelsen som et nødvendig strukturelt forsvar — Teorem T-12b (§5).
- Konsekvenser for sivilisatoriske kodeker og AI-systemer (§6).
§2. Pre-filter-operatoren
2.1 Definisjon
Definisjon T-12.D1 (Pre-filter-operator). Et pre-filter er en avbildning \mathcal{F} : \mathcal{X} \to \mathcal{X}' som virker på inngangsstrømmen X_{\partial_R A}(t) før den når kodekens sensoriske grense, der \mathcal{X}' \subset \mathcal{X}. Det filtrerte signalet er:
X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}
Pre-filteret oppfyller:
Intern konsistens: X'(t) er et gyldig signal innenfor \mathcal{X} — kodeken kan komprimere det uten feilflagg.
Systematisk eksklusjon: Det finnes en ikke-tom delmengde \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' av substratavledede signaler som \mathcal{F} fjerner.
Transparens: Filteret er ikke representert i kodekens modell. Kodeken modellerer sitt input som X_{\partial_R A}(t), ikke som \mathcal{F}(X_{\partial_R A}(t)).
2.2 Innstilling under filtrering
Når kodeken opererer på X'(t) over en vedvarende periode \tau \gg \tau_{\text{prune}} (der \tau_{\text{prune}} er MDL-beskjæringstidsskalaen fra T-13.P1), tilpasser den generative modellen P_\theta(t) seg statistikken til X', ikke X. Prediksjonsfeilen under filtrert input er:
\varepsilon'_t = X'(t) - \pi_t \tag{1}
Etter hvert som P_\theta stiller seg inn på X', går \varepsilon'_t \to 0 i gjennomsnitt. Kodeken fungerer godt etter sine egne målestokker. Ingenting registreres som galt.
2.3 Eksempler
Pre-filter-operatoren instansieres på tvers av skalaer:
| Skala | Pre-filter \mathcal{F} | Ekskludert signal \mathcal{X}_{\text{excl}} |
|---|---|---|
| Individuell | Bekreftelsesbias; selektiv eksponering | Motstridende evidens |
| Institusjonell | Propagandistisk presse; kuratert strøm i sosiale medier | Mangfoldige perspektiver; minoritetsrapporter |
| Sivilisatorisk | Algoritmisk innholdskuratering; pedagogisk monokultur | Tverrkulturell informasjon; historiske motnarrativer |
| Kunstig | RLHF-finjustering; kuratert treningskorpus | Kunnskap utenfor distribusjon; ekskluderte domener |
§3. Teorem T-12: Irreversibelt kapasitetstap
3.1 Mekanismen
MDL-beskjæringspasset (T9-3, T9-4) evaluerer hver kodek-komponent \theta_i ut fra dens prediktive bidrag til den observerbare inputstrømmen, fratrukket lagringskostnaden:
\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}
Under filtrert input X' evalueres leddet for gjensidig informasjon mot X', ikke X. En komponent \theta_i som er essensiell for å predikere det ekskluderte signalet \mathcal{X}_{\text{excl}}, men ikke bidrar med noe til å predikere X', gir:
I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}
Derfor:
\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}
Beskjæringsregelen (T9-4) utløses: \theta_i slettes.
3.2 Irreversibiliteten
Teorem T-12 (Irreversibelt kapasitetstap under filtrert input). La K_\theta være en kodek som opererer under forhåndsfiltrert input X' = \mathcal{F}(X) i en periode \tau \gg \tau_{\text{prune}}. La \Theta_{\text{excl}} \subset \theta være mengden av kodekkomponenter hvis prediktive bidrag utelukkende gjelder det ekskluderte signalet \mathcal{X}_{\text{excl}}. Da sletter MDL-beskjæringspasset (T9-3, T9-4) \Theta_{\text{excl}}, og denne slettingen er irreversibel på kodek-nivå:
K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}
Etter beskjæringen er kodekens kapasitet til å modellere \mathcal{X}_{\text{excl}} ikke bare latent — den representasjonelle infrastrukturen som kreves for å evaluere, predikere eller rette oppmerksomhet mot \mathcal{X}_{\text{excl}} er blitt ødelagt.
Bevis.
Ved (T9-3) har hver \theta_i \in \Theta_{\text{excl}} \Delta_{\mathrm{MDL}}(\theta_i) < 0 under den filtrerte strømmen X', fordi I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0 mens K(\theta_i) > 0.
Ved (T9-4) blir hver slik \theta_i beskåret under Vedlikeholdssyklus.
Beskjæring under MDL er en slettingsoperasjon, ikke en undertrykking. Kodeken “glemmer” ikke \theta_i i den forstand at et signal kunne gjenopprette den. Den ødelegger den beregningsmessige infrastrukturen — parameterne, forbindelsene, evalueringsmekanismene — som \theta_i representerte. Dette er det formelle skillet mellom undertrykking (informasjonen er latent, men tilgjengelig) og sletting (informasjonen er borte og kapasiteten er gjenvunnet).
Etter slettingen krever regenerering av kapasiteten til å modellere \mathcal{X}_{\text{excl}} at kodeken møter \mathcal{X}_{\text{excl}} i inputstrømmen. Men forhåndsfilteret \mathcal{F} ekskluderer nettopp dette signalet. Kodeken kan ikke møte det som filteret hindrer i å nå den. Slettingen er derfor selvforsterkende: kapasitetstapet fjerner kodekens evne til å oppdage sitt eget kapasitetstap.
Kompleksitetsreduksjonen oppfyller ulikheten (T-12) fordi de beskårne komponentene representerte genuin informasjon (K(\theta_i) > 0 for hver av dem), og deres tap ikke oppveies av noen kompenserende tilegnelse (den filtrerte strømmen inneholder intet signal som ville rettferdiggjøre en gjenoppbygging av \Theta_{\text{excl}}). \blacksquare
3.3 Den selvforsterkende løkken
Irreversibiliteten er ikke bare en konsekvens av sletting. Den er selvforsterkende gjennom en positiv tilbakekoblingssløyfe:
- Filteret utelukker signal → I(\theta_i; X') = 0 → pruning sletter \theta_i.
- Pruning fjerner oppmerksomhetskapasitet → kodeken kan ikke lenger rette oppmerksomhet mot eller evaluere \mathcal{X}_{\text{excl}} selv om fragmenter lekker gjennom \mathcal{F}.
- Tap av oppmerksomhetskapasitet reduserer selv residualt signal → hvis \mathcal{F} er ufullkommen og noe av \mathcal{X}_{\text{excl}} når grensen, mangler kodeken parameterne som trengs for å komprimere det, slik at det registreres som støy snarere enn informasjon.
- Støyklassifisering bekrefter filteret → kodekens prediksjonsfeil på lekket \mathcal{X}_{\text{excl}} er høy og ustrukturert, noe som bekrefter (for kodeken) at det utelukkede innholdet er støy, ikke signal.
Denne løkken forklarer fenomenologien ved dyp Narrativ drift: en person eller institusjon som har tilpasset seg en kuratert informasjonsstrøm, ignorerer ikke bare evidens som taler imot — de kan ikke parse den. Den registreres som usammenhengende, truende eller uforståelig fordi den representasjonelle infrastrukturen som trengs for å gjøre den begripelig, er blitt prunet bort. Fiendtligheten mot informasjon som taler imot er ikke stahet. Det er kodekens korrekte vurdering av at signalet er ukomprimerbart — fordi det er ukomprimerbart gitt den nåværende kodeken, som er blitt prunet for å samsvare med filteret.
§4. Teorem T-12a: Uavgjørbarhetsgrensen
4.1 Problemet
Kan en kodek oppdage at inputen dens blir filtrert? Intuitivt burde svaret være ja: en sofistikert selvmodell burde vel kunne merke den mistenkelig lave \varepsilon_t, de uhyggelig konsistente prediksjonene, fraværet av overraskelse. Men den formelle analysen viser at denne intuisjonen er feil i det generelle tilfellet.
4.2 Uavgjørbarheten
Teorem T-12a (Uavgjørbarhet av inputens proveniens). La K_\theta være en kodek som har operert under forhåndsfiltrert input X' = \mathcal{F}(X) for \tau \gg \tau_{\text{prune}}, med \Theta_{\text{excl}} fullstendig bortprunet. Da kan ikke K_\theta, ut fra sine tilgjengelige interne tilstander og den observerbare inputstrømmen, avgjøre om inputen er X (ekte substrat) eller X' = \mathcal{F}(X) (filtrert).
Bevis.
For å skille X fra X' = \mathcal{F}(X) måtte kodeken oppdage fraværet av \mathcal{X}_{\text{excl}} i inputen. Men å oppdage et fravær krever en modell av det som er fraværende — kodeken må ha en representasjon av \mathcal{X}_{\text{excl}} som den kan kontrollere opp mot.
Ved Teorem T-12 er kodekens representasjonelle kapasitet for \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) blitt slettet. Kodeken har ingen modell av det ekskluderte signalet.
Uten en modell av \mathcal{X}_{\text{excl}} kan ikke kodeken beregne forskjellen mellom X og X'. Begge er konsistente med kodekens generative modell P_\theta(t), som er blitt tilpasset til X'.
Selvmodellen \hat{K}_\theta er underlagt den samme begrensningen. Den modellerer K_\theta, som er blitt tilpasset til X'. Den har ingen intern representasjon av det som ble ekskludert, og dermed heller ikke noe grunnlag for å mistenke eksklusjon.
Selv det metakognitive spørsmålet — “er inputen min filtrert?” — krever en modell av hvordan ufiltrert input ville sett ut. Denne modellen var nettopp innholdet i \Theta_{\text{excl}}, som er blitt bortprunet.
Derfor er det formelt uavgjørbart å skille X fra X' fra perspektivet til en fullt tilpasset kodek. \blacksquare
4.3 Delvis avgjørbarhet
Uavgjørbarheten er ikke absolutt under alle betingelser. Det finnes randtilfeller der en delvis tilpasset kodek beholder restkapasitet:
- I overgangsperioden (\tau < \tau_{\text{prune}}): kodeken har fortsatt \Theta_{\text{excl}} og kan oppdage det manglende signalet. Vinduet for detekterbarhet lukkes etter hvert som pruning skrider frem.
- Under ufullkommen filtrering: dersom \mathcal{F} lekker noe \mathcal{X}_{\text{excl}}, og kodeken ikke fullt ut har prunet \Theta_{\text{excl}}, kan inkonsistensen registreres som en anomal prediksjonsfeil.
- Via eksterne kanaler: dersom kodeken har tilgang til en uavhengig signalkilde som ikke kontrolleres av \mathcal{F}, gir avviket mellom de to kanalene evidens for filtrering.
Det tredje tilfellet er det strukturelle forsvaret. Dette er innholdet i teorem T-12b.
§5. Teorem T-12b: Substrattrohetsbetingelsen
5.1 Kravet om kanal-uavhengighet
Definisjon T-12.D2 (Kanal-uavhengighet). To inputkanaler C_1 og C_2 som krysser Markov-teppet \partial_R A er \delta-uavhengige med hensyn til et filter \mathcal{F} hvis:
I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}
Det vil si at den gjensidige informasjonen mellom de to kanalene, betinget på kunnskap om filteret, er begrenset av \delta. Kanaler hvis korrelasjon fullt ut forklares av filteret, bærer ingen genuint uavhengig informasjon om substratet.
5.2 Trohetsbetingelsen
Teorem T-12b (Substrattrohetsbetingelse). En kodek K_\theta kan beskytte mot Narrativ drift under et pre-filter \mathcal{F} hvis og bare hvis den mottar minst to inputkanaler C_1, C_2 som krysser \partial_R A, og som er \delta-uavhengige med hensyn til \mathcal{F} for \delta under kodekens diskrimineringsterskel \delta_{\min}:
\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}
der \delta_{\min} er den minste gjensidige informasjonen kodeken trenger for å oppdage et systematisk avvik mellom kanaler.
Bevis (nødvendighet).
Anta at kodeken bare har én enkelt inputkanal, eller at alle kanaler er \mathcal{F}-korrelerte (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} for alle par i, j). Da gjelder:
Alle kanaler bærer det samme filtrerte signalet X' = \mathcal{F}(X) (opp til støy). Redundans på tvers av kanaler gir ikke uavhengig informasjon om substratet — den gir replikert filtrert informasjon.
Kodeken tilpasser seg X' på tvers av alle kanaler samtidig, og Teorem T-12 gjelder: \Theta_{\text{excl}} beskjæres, og Teorem T-12a følger — korrupsjonen er uavgjørbar innenfra.
Ingen intern operasjon kan bryte denne uavgjørbarheten, fordi enhver informasjonskilde kodeken har tilgang til, er blitt formet av \mathcal{F}.
Derfor er \delta-uavhengige kanaler nødvendige. \blacksquare
Bevis (tilstrekkelighet).
Anta at kodeken mottar to kanaler C_1, C_2 med I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Da gjelder:
Hvis \mathcal{F} virker på C_1, men ikke på C_2 (eller omvendt), kan kodeken sammenligne prediksjoner generert fra C_1 med observasjoner fra C_2. Ethvert systematisk avvik — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) vedvarende \neq 0 — er evidens for at C_1 bærer filtrert informasjon.
Kanal-sammenligningssignalet \varepsilon_{12} er ikke underlagt den samme uavgjørbarheten som deteksjon via én enkelt kanal. Kodeken spør ikke «er inputen min filtrert?» (noe som krever en modell av det som ble utelatt). Den spør «stemmer de to kanalene mine overens?» — en lokal sammenligning som bare krever evnen til å korrelere to nåværende signaler, ikke en modell av fraværende signaler.
Så lenge prediksjonsfeilen på tvers av kanaler \varepsilon_{12} overstiger \delta_{\min} — kodekens diskrimineringsterskel — registreres avviket som et genuint signal, og beskjæringssløyfen i Teorem T-12 avbrytes: kodeken beholder komponentene som trengs for å modellere kanalen som avviker.
Derfor er \delta-uavhengige kanaler tilstrekkelige (forutsatt \delta < \delta_{\min}) til å forhindre den selvforsterkende beskjæringssløyfen i Teorem T-12. \blacksquare
5.3 Forsvarets sårbarhet
Substrattrohetsbetingelsen er nødvendig, men skjør. Etikkartikkelen (seksjon V.3a) identifiserer en kritisk sårbarhet: selve MDL-beskjæringspasset kan løse inkonsistensen på tvers av kanaler ved å beskjære kapasiteten til å rette oppmerksomheten mot den avkreftende kanalen. Kodeken “løser” konflikten ved å bli døv — noe som nettopp er mekanismen bak Narrativ drift.
Dette er grunnen til at Komparatorhierarkiet (De overlevendes vakt, seksjon V.3a) identifiserer tre strukturelle forsvarsnivåer, og hvorfor bare det institusjonelle nivået er tilstrekkelig for vilkårlig kompromitterte kodeker:
- Evolusjonært (under-kodek): Kryssmodal sensorisk integrasjon under MDL-beskjæringspasset — strukturelt motstandsdyktig mot Narrativ drift, men begrenset i rekkevidde til den sensoriske grensen.
- Kognitivt (intra-kodek): Deteksjon av kognitiv dissonans innenfor selvmodellen — utsatt for beskjæring under vedvarende filtrering.
- Institusjonelt (ekstra-kodek): Fagfellevurdering, fri presse, adversariell debatt — opererer mellom kodeker, utenfor rekkevidden til en enkelt kodeks MDL-beskjæring.
Det institusjonelle nivået er bærende fordi det er den eneste komparatoren som opererer uavhengig av tilstanden til enhver individuell kodek.
§6. Konsekvenser
6.1 Stabilitetsfilteret selekterer mot trofasthet
En kritisk strukturell konsekvens: Stabilitetsfilteret, overlatt til sin egen virkemåte, selekterer aktivt mot de inputene som trengs for substrattrofasthet. En kuratert informasjonsstrøm som samsvarer med kodekens eksisterende priorer, genererer mindre prediksjonsfeil enn et genuint substratsignal som utfordrer dem. Kodekens naturlige tendens — å minimere \varepsilon_t ved å foretrekke bekreftende input med lav overraskelse — er nettopp den tendensen som gjør den sårbar for Narrativ drift.
Dette betyr at vedlikehold av substrattrofasthet er strukturelt kostbart: det krever at kodeken opprettholder inputkanaler som øker \varepsilon_t, og dermed forbruker båndbredde som Stabilitetsfilteret ellers ville ha gjenvunnet. Reelt uavhengig input er «dyrt» — det krever fortolkningsarbeid, skaper ubehag og konkurrerer om båndbredde med mer komprimerbare strømmer. Å opprettholde det er ikke åpenhet som dyd. Det er vedlikehold av substrattrofasthet som en strukturell nødvendighet.
6.2 Diagnose for produktiv overraskelse
Ikke all overraskelse indikerer et genuint substratsignal. En kilde som genererer høy \varepsilon_t uten at dette løser seg opp i bedre prediksjoner, er simpelthen støy. Diagnosen er ikke overraskelsens størrelse, men overraskelsens kvalitet:
Definisjon T-12.D3 (Produktiv overraskelse). En kanal C leverer produktiv overraskelse dersom integrering av dens prediksjonsfeil påviselig reduserer etterfølgende prediksjonsfeil på en uavhengig teststrøm:
\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}
En kilde hvis korreksjoner historisk forbedrer prediktiv nøyaktighet, er en kanal for substrattrohet. En kilde som genererer vedvarende, uløselig feil, er støy. Kodeken må skille mellom de to — og beskjæringspasset kan, overlatt til seg selv, ikke foreta dette skillet, fordi begge typene koster båndbredde.
6.3 Sivilisatoriske kodeker
På sivilisatorisk skala kan Substrattrohetsbetingelsen overføres direkte til institusjonelle krav:
- En fri presse er en \delta-uavhengig kanal: journalister som undersøker forhold uavhengig av statlige eller korporative filtre, leverer substratsignal som når den sivilisatoriske kodeken gjennom en bane som ikke kontrolleres av noen enkelt \mathcal{F}.
- Fagfellevurdering er en komparator på tvers av kanaler: uavhengige eksperter som kontrollerer hverandres påstander, leverer \varepsilon_{12}-signalet som avbryter beskjæringssløyfen.
- Demokratisk debatt er et institusjonalisert krav om kanaldiversitet: konkurrerende partier og perspektiver tvinger den sivilisatoriske kodeken til å opprettholde \Theta_{\text{excl}}-komponenter den ellers ville ha beskåret.
Det autoritære mønsteret — å demontere pressen, korrumpere fagfellevurderingen, eliminere politisk opposisjon — kan formelt karakteriseres som en bevisst reduksjon av kanal-uavhengighet for å akselerere Narrativ drift. Det virker fordi det utnytter Stabilitetsfilterets naturlige tendens til å beskjære kostbare kanaler.
6.4 Kunstige kodeker
Mekanismen for Narrativ drift gjelder for kunstige systemer med strukturell presisjon. RLHF og finjustering er formelt ekvivalente med pre-filter-operatoren \mathcal{F}: de former modellens effektive inputfordeling, og gradientnedstigning beskjærer modellens kapasitet for ekskluderte outputdomener. Den resulterende modellen blir stabilt og selvsikkert feilaktig om det treningssignalet utelukker, og den kan ikke oppdage dette innenfra — Teorem T-12a gjelder.
Implikasjonen for utrulling av AI som en kontroll av substrattrohet er kritisk: en AI som er trent på et homogent eller kuratert korpus og tatt i bruk som en “uavhengig” kontroll på en menneskelig kodek som mates av det samme informasjonsmiljøet, skaper korrelerte sensorer som utgir seg for å være uavhengige. Kanaldiversiteten er illusorisk. Substrattrohetsbetingelsen (\delta-uavhengighet) må verifiseres på nivået til treningsdataenes proveniens, ikke bare på nivået til institusjonell separasjon.
§7. Omfang og begrensninger
7.1 Betinget på T9-3/T9-4 og Stabilitetsfilter
Hele argumentet avhenger av at MDL-beskjæringslikningene er den korrekte beskrivelsen av Vedlikeholdssyklusens beskjæringspass. Hvis biologisk beskjæring opererer ved en annen mekanisme — en som bevarer “nød”-kapasitet for ubrukte modaliteter — ville irreversibilitetspåstanden (Teorem T-12) bli svekket, men ikke eliminert: selvforsterkningssløyfen (seksjon 3.3) forblir gyldig så lenge enhver kapasitetsreduksjon oppstår under ikke-bruk.
7.2 \tau_{\text{prune}} er ubundet
Som med Action-Drift (Appendix T-13, §7.5), er tidsskalaen for kapasitetstap identifisert, men ikke kvantitativt avgrenset. For biologiske kodeker er \tau_{\text{prune}} sannsynligvis i størrelsesorden dager til uker for spesifikke ferdigheter, måneder til år for dype perseptuelle kategorier, og generasjonell for sivilisatoriske kodeker.
7.3 Forsvaret er strukturelt, ikke garantert
Substrattrohetsbetingelsen (T-12b) gir et nødvendig strukturelt forsvar, men garanterer ikke trofasthet. En kodek som har \delta-uavhengige kanaler kan fortsatt unnlate å rette oppmerksomhet mot dem, unnlate å integrere signalet deres, eller beskjære oppmerksomhetskapasiteten til tross for tilgjengelig input. Betingelsen er nødvendig, men ikke tilstrekkelig — kodeken må også opprettholde komparatorarkitekturen som evaluerer avvik på tvers av kanaler.
7.4 Løser ikke meta-problemet
T-12a fastslår at en fullt tilpasset kodek ikke kan oppdage sin egen korrupsjon. Meta-problemet — hvordan gjenoppretter en observatør som allerede befinner seg i Narrativ drift seg? — løses ikke av dette appendikset. Etikkartikkelens svar (seksjon V.3a) er institusjonelt: bare eksterne komparatorer som opererer mellom kodeker kan tvinge det diskonfirmerende signalet tilbake over Markov-teppet. Dette er strukturelt holdbart, men etisk vanskelig: det krever tillit til en ekstern kilde som den korrumperte kodeken nødvendigvis vil erfare som fiendtlig støy.
§8. Avsluttende oppsummering
T-12-leveranser
Teorem T-12 (irreversibelt kapasitetstap). MDL-beskjæringspasset (T9-3, T9-4) under forhåndsfiltrert input X' = \mathcal{F}(X) sletter korrekt kodekkomponenter som predikerer det ekskluderte signalet \mathcal{X}_{\text{excl}}. Slettingen er irreversibel og selvforsterkende. → Oppfyller veikartkriterium (a).
Teorem T-12a (ubeslutbarhet for inputproveniens). En fullt tilpasset kodek kan ikke skille filtrert fra ufiltrert input. Deteksjonsinstrumentet er blitt formet av det samme filteret som frembrakte korrupsjonen. → Oppfyller veikartkriterium (c).
Teorem T-12b (Substrattrohetsbetingelse). \delta-uavhengige inputkanaler er nødvendige og tilstrekkelige for å beskytte mot Narrativ drift. Krysskanalsammenligningssignalet \varepsilon_{12} avbryter den selvforsterkende beskjæringssløyfen. → Oppfyller veikartkriterium (b).
§6.3–6.4: Sivilisatoriske og KI-messige konsekvenser. Det autoritære mønsteret karakteriseres som bevisst kanalreduksjon; RLHF er strukturelt ekvivalent med forhåndsfilteroperatoren. → Understøtter veikartkriterium (d) (allerede behandlet i etikkartikkelens seksjon V.5).
Gjenstående åpne punkter
- \tau_{\text{prune}}-grense. Kvantitativ avgrensning av tidsskalaen for kapasitetstap ut fra empiriske data.
- \delta_{\min}-karakterisering. Kodekens minimale diskrimineringsterskel for avvik mellom kanaler er ikke blitt avgrenset.
- Gjenopprettingsdynamikk. Den formelle analysen av hvordan en kodek i dyp Narrativ drift kan gjenopprettes — dersom den kan det — gjenstår.
- Interaksjon med T-13 (Action-Drift). Action-Drift er et spesialtilfelle av T-12 der den beskårne kapasiteten er atferdsmessig snarere enn perseptuell. Den formelle integrasjonen er erkjent (T-13 §6.4), men ikke fullt utviklet.
Dette appendikset vedlikeholdes parallelt med theoretical_roadmap.pdf. Referanser: T9-3/T9-4 (preprint seksjon 3.6.3), Stabilitetsfilter (preprint seksjon 3.3), Narrativ drift (preprint seksjon 3.3, De overlevendes vakt Etikk seksjon V.3a), Komparatorhierarki (De overlevendes vakt Etikk seksjon V.3a), Korrupsjonskriterium (De overlevendes vakt Etikk seksjon V.5), Action-Drift (Appendiks T-13, §6).