Ordered Patch Theory
Appendix T-12: Substrattrohetsvillkor och långsam korruption
17 april 2026 | DOI: 10.5281/zenodo.19300777
Ursprunglig uppgift (från avsnitt 8.3, begränsning 9): “Att formalisera det kroniska korruptionsfelmodet — där en kodek anpassar sig under konsekvent filtrerad indata, och MDL-beskärningspasset korrekt raderar kapacitet för uteslutna sanningar — tillsammans med ett Substrattrohetsvillkor som kräver oberoende indatakanaler som det formella försvaret.” Leverabel: Formellt bevis för irreversibel kapacitetsförlust, gränsen för oavgörbarhet och Substrattrohetsvillkoret.
Avslutsstatus: UTKAST TILL STRUKTURELL KORRESPONDENS. Detta appendix formaliserar analysen av Narrativ drift som introducerades diskursivt i den kompletterande etikartikeln (De överlevandes vaka, avsnitt V.3a) och i preprintens stycke om Narrativ drift (avsnitt 3.3). Det etablerar tre satser och en proposition. MDL-beskärningsekvationerna (T9-3, T9-4) är oförändrade; detta appendix demonstrerar deras patologiska men korrekta beteende under filtrerad indata.
§1. Bakgrund och motivation
1.1 Två felmoder
Stabilitetsfiltret (preprint avsnitt 3.3) upprätthåller ett livsduglighetsvillkor: observatören består endast i strömmar där den Krävda prediktiva takten R_{\text{req}} förblir inom kodekens bandbredd B. När R_{\text{req}} överskrider B drabbas kodeken av Narrativt förfall — en akut felmod som kännetecknas av eskalerande prediktionsfel, entropiackumulation och slutligen upplösning av koherens.
Det finns en komplementär felmod som inte utlöser någon felsignal. Om inströmmen systematiskt förfiltreras — så att den producerar en kuraterad signal som är internt konsistent men utesluter genuin information från substratet — kommer kodeken att uppvisa låg \varepsilon_t, genomföra effektiva Underhållscykler och uppfylla alla stabilitetsvillkor samtidigt som den systematiskt har fel om substratet. Detta är Narrativ drift: den kroniska korruptionen av en kodek som fungerar perfekt enligt sina egna mått.
1.2 Varför detta är farligt
Narrativt förfall tillkännager sig självt. Kodeken upplever stigande \varepsilon_t, medvetenhet om misslyckade prediktioner och kognitiv överbelastning. Observatören vet att något är fel, även om den inte omedelbart kan åtgärda det.
Narrativ drift är tyst. Eftersom den filtrerade indataströmmen överensstämmer med kodekens prediktioner förblir \varepsilon_t låg. Underhållscykeln löper normalt. Kodekens självmodell rapporterar stabil och korrekt funktion. Korruptionen är osynlig inifrån, eftersom det instrument som skulle upptäcka den har formats av samma filter som frambringade korruptionen.
1.3 Omfattningen av detta appendix
Detta appendix tillhandahåller:
- En formell definition av förfilteroperatorn \mathcal{F} och dess effekt på kodekens indatafördelning (§2).
- Ett bevis för att MDL-beskärning under \mathcal{F}-filtrerad indata irreversibelt förstör kodekens kapacitet att modellera den exkluderade signalen — Teorem T-12 (§3).
- Ett bevis för att en fullt adapterad kodek inte kan skilja filtrerad från ofiltrerad indata inifrån — Oavgörbarhetsgränsen, Teorem T-12a (§4).
- Substrattrohetsvillkoret som ett nödvändigt strukturellt försvar — Teorem T-12b (§5).
- Konsekvenser för civilisatoriska kodekar och AI-system (§6).
§2. Förfilteroperatorn
2.1 Definition
Definition T-12.D1 (Pre-filteroperator). Ett förfilter är en avbildning \mathcal{F} : \mathcal{X} \to \mathcal{X}' som verkar på inströmmen X_{\partial_R A}(t) innan den når kodekens sensoriska gräns, där \mathcal{X}' \subset \mathcal{X}. Den filtrerade signalen är:
X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}
Förfiltret uppfyller:
Intern konsistens: X'(t) är en giltig signal inom \mathcal{X} — kodeken kan komprimera den utan felmarkeringar.
Systematisk exkludering: Det finns en icke-tom delmängd \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' av substrathärledda signaler som \mathcal{F} avlägsnar.
Transparens: Filtret är inte representerat i kodekens modell. Kodeken modellerar sin indata som X_{\partial_R A}(t), inte som \mathcal{F}(X_{\partial_R A}(t)).
2.2 Anpassning under filtrering
När kodeken verkar på X'(t) under en varaktig period \tau \gg \tau_{\text{prune}} (där \tau_{\text{prune}} är MDL-beskärningens tidsskala från T-13.P1), anpassas den generativa modellen P_\theta(t) till statistiken hos X', inte X. Prediktionsfelet under filtrerad indata är:
\varepsilon'_t = X'(t) - \pi_t \tag{1}
När P_\theta anpassas till X' gäller att \varepsilon'_t \to 0 i medelvärde. Kodeken fungerar väl enligt sina egna mått. Ingenting registreras som fel.
2.3 Exempel
Pre-filteroperatorn instansieras över olika skalor:
| Skala | Pre-filter \mathcal{F} | Exkluderad signal \mathcal{X}_{\text{excl}} |
|---|---|---|
| Individuell | Bekräftelsebias; selektiv exponering | Evidens som motsäger den egna uppfattningen |
| Institutionell | Propagandistisk press; kurerat flöde i sociala medier | Mångfald av perspektiv; minoritetsrapporter |
| Civilisatorisk | Algoritmisk innehållskurering; pedagogisk monokultur | Tvärkulturell information; historiska motberättelser |
| Artificiell | RLHF-finjustering; kurerad träningskorpus | Kunskap utanför distributionen; exkluderade domäner |
§3. Teorem T-12: Irreversibel kapacitetsförlust
3.1 Mekanismen
MDL-beskärningspasset (T9-3, T9-4) utvärderar varje kodekkomponent \theta_i utifrån dess prediktiva bidrag till den observerbara inströmmen, netto efter lagringskostnad:
\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}
Under filtrerad input X' utvärderas termen för ömsesidig information mot X', inte X. En komponent \theta_i som är väsentlig för att predicera den exkluderade signalen \mathcal{X}_{\text{excl}} men inte bidrar alls till att predicera X' ger:
I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}
Alltså:
\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}
Beskärningsregeln (T9-4) utlöses: \theta_i raderas.
3.2 Irreversibiliteten
Sats T-12 (Irreversibel kapacitetsförlust under filtrerad input). Låt K_\theta vara en kodek som verkar under förfiltrerad input X' = \mathcal{F}(X) under en period \tau \gg \tau_{\text{prune}}. Låt \Theta_{\text{excl}} \subset \theta vara mängden av kodekkomponenter vars prediktiva bidrag uteslutande gäller den exkluderade signalen \mathcal{X}_{\text{excl}}. Då raderar MDL-beskärningspasset (T9-3, T9-4) \Theta_{\text{excl}}, och denna radering är irreversibel på kodeknivå:
K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}
Efter beskärningen är kodekens kapacitet att modellera \mathcal{X}_{\text{excl}} inte bara vilande — den representativa infrastruktur som krävs för att utvärdera, predicera eller rikta uppmärksamhet mot \mathcal{X}_{\text{excl}} har förstörts.
Bevis.
Enligt (T9-3) har varje \theta_i \in \Theta_{\text{excl}} \Delta_{\mathrm{MDL}}(\theta_i) < 0 under den filtrerade strömmen X', eftersom I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0 medan K(\theta_i) > 0.
Enligt (T9-4) beskärs varje sådan \theta_i under Underhållscykeln.
Beskärning under MDL är en raderingsoperation, inte en undertryckning. Kodeken “glömmer” inte \theta_i i den meningen att en ledtråd skulle kunna återställa den. Den förstör den beräkningsmässiga infrastrukturen — parametrarna, kopplingarna, utvärderingsmekanismen — som \theta_i representerade. Detta är den formella distinktionen mellan undertryckning (informationen är latent men åtkomlig) och radering (informationen är borta och kapaciteten har återtagits).
Efter radering kräver en återuppbyggnad av kapaciteten att modellera \mathcal{X}_{\text{excl}} att kodeken möter \mathcal{X}_{\text{excl}} i inputströmmen. Men förfiltret \mathcal{F} exkluderar just denna signal. Kodeken kan inte möta det som filtret hindrar från att nå den. Raderingen blir därför självförstärkande: kapacitetsförlusten berövar kodeken förmågan att upptäcka sin egen kapacitetsförlust.
Komplexitetsreduktionen uppfyller olikheten (T-12), eftersom de beskurna komponenterna representerade genuin information (K(\theta_i) > 0 för var och en) och deras förlust inte kompenseras av något motsvarande nytillskott (den filtrerade strömmen innehåller ingen signal som skulle motivera en återuppbyggnad av \Theta_{\text{excl}}). \blacksquare
3.3 Den självförstärkande loopen
Irreversibiliteten är inte bara en följd av radering. Den är självförstärkande genom en positiv återkopplingsloop:
- Filtret utesluter signal → I(\theta_i; X') = 0 → beskärning raderar \theta_i.
- Beskärning avlägsnar uppmärksamhetskapacitet → kodeken kan inte längre rikta uppmärksamhet mot eller utvärdera \mathcal{X}_{\text{excl}} även om fragment läcker igenom \mathcal{F}.
- Förlust av uppmärksamhetskapacitet reducerar även kvarvarande signal → om \mathcal{F} är imperfekt och viss \mathcal{X}_{\text{excl}} når gränsen, saknar kodeken parametrarna för att komprimera den, så den registreras som brus snarare än information.
- Brusklassificeringen bekräftar filtret → kodekens prediktionsfel på läckt \mathcal{X}_{\text{excl}} är högt och ostrukturerat, vilket bekräftar (för kodeken) att det uteslutna innehållet är brus, inte signal.
Denna loop förklarar fenomenologin bakom djup Narrativ drift: en person eller institution som har anpassat sig till en kurerad informationsström ignorerar inte bara evidens som talar emot den — den kan inte tolka den. Den registreras som osammanhängande, hotfull eller obegriplig eftersom den representativa infrastruktur som krävs för att göra den begriplig har beskurits. Fientligheten mot motstridig information är inte envishet. Det är kodekens korrekta bedömning att signalen är okomprimerbar — eftersom den är okomprimerbar givet den nuvarande kodeken, som har beskurits för att matcha filtret.
§4. Sats T-12a: Oavgörbarhetsgränsen
4.1 Problemet
Kan en kodek upptäcka att dess indata filtreras? Intuitivt borde svaret vara ja: en sofistikerad självmodell borde rimligen kunna märka det misstänkt låga \varepsilon_t, de kusligt konsekventa prediktionerna, frånvaron av överraskning. Men den formella analysen visar att denna intuition är fel i det allmänna fallet.
4.2 Oavgörbarheten
Sats T-12a (Oavgörbarhet hos inputens proveniens). Låt K_\theta vara en kodek som har opererat under förfiltrerad input X' = \mathcal{F}(X) under \tau \gg \tau_{\text{prune}}, där \Theta_{\text{excl}} har gallrats bort fullständigt. Då kan K_\theta inte avgöra, utifrån sina tillgängliga interna tillstånd och den observerbara inputströmmen, huruvida dess input är X (genuint substrat) eller X' = \mathcal{F}(X) (filtrerad).
Bevis.
För att skilja X från X' = \mathcal{F}(X) skulle kodeken behöva upptäcka frånvaron av \mathcal{X}_{\text{excl}} i sin input. Men att upptäcka en frånvaro kräver en modell av det som saknas — kodeken måste ha en representation av \mathcal{X}_{\text{excl}} mot vilken den kan kontrollera.
Enligt sats T-12 har kodekens representationskapacitet för \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) utplånats. Kodeken har ingen modell av den exkluderade signalen.
Utan en modell av \mathcal{X}_{\text{excl}} kan kodeken inte beräkna skillnaden mellan X och X'. Båda är förenliga med kodekens generativa modell P_\theta(t), som har anpassats till X'.
Självmodellen \hat{K}_\theta är underkastad samma begränsning. Den modellerar K_\theta, som har anpassats till X'. Den har ingen intern representation av det som exkluderades, och därmed ingen grund för att misstänka exklusion.
Till och med den metakognitiva frågan — “är min input filtrerad?” — kräver en modell av hur ofiltrerad input skulle se ut. Denna modell var just innehållet i \Theta_{\text{excl}}, som har gallrats bort.
Därför är det formellt oavgörbart att skilja X från X' ur perspektivet hos en fullt anpassad kodek. \blacksquare
4.3 Partiell avgörbarhet
Oavgörbarheten är inte absolut under alla förhållanden. Det finns gränsfall där en delvis anpassad kodek behåller en residual kapacitet:
- Under övergångsperioden (\tau < \tau_{\text{prune}}): kodeken har fortfarande \Theta_{\text{excl}} och kan upptäcka den saknade signalen. Fönstret för detekterbarhet stängs i takt med att bortgallringen fortskrider.
- Vid imperfekt filtrering: om \mathcal{F} släpper igenom en del av \mathcal{X}_{\text{excl}}, och kodeken ännu inte helt har gallrat bort \Theta_{\text{excl}}, kan inkonsistensen registreras som ett anomalt prediktionsfel.
- Via externa kanaler: om kodeken har tillgång till en oberoende signalkälla som inte kontrolleras av \mathcal{F}, utgör diskrepansen mellan de två kanalerna evidens för filtrering.
Det tredje fallet är det strukturella försvaret. Detta är innehållet i sats T-12b.
§5. Sats T-12b: Substrattrohetsvillkoret
5.1 Kravet på kanaloberoende
Definition T-12.D2 (Kanaloberoende). Två inkanaler C_1 och C_2 som korsar Markovtäcket \partial_R A är \delta-oberoende med avseende på ett filter \mathcal{F} om:
I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}
Det vill säga: den ömsesidiga informationen mellan de två kanalerna, villkorad på kunskap om filtret, är begränsad av \delta. Kanaler vars korrelation helt förklaras av filtret bär ingen verkligt oberoende information från substratet.
5.2 Trohetsvillkoret
Sats T-12b (Substrattrohetsvillkor). En kodek K_\theta kan skydda mot Narrativ drift under ett förfilter \mathcal{F} om och endast om den tar emot minst två inkanaler C_1, C_2 som korsar \partial_R A och är \delta-oberoende med avseende på \mathcal{F} för \delta under kodekens diskrimineringströskel \delta_{\min}:
\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}
där \delta_{\min} är den minsta ömsesidiga information som kodeken kräver för att upptäcka en systematisk diskrepans mellan kanaler.
Bevis (nödvändighet).
Anta att kodeken endast har en enda inkanal, eller att alla kanaler är \mathcal{F}-korrelerade (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} för alla par i, j). Då gäller:
Alla kanaler bär samma filtrerade signal X' = \mathcal{F}(X) (upp till brus). Redundans mellan kanaler ger inte oberoende information om substratet — den ger replikerad filtrerad information.
Kodeken anpassar sig till X' över alla kanaler samtidigt, och sats T-12 gäller: \Theta_{\text{excl}} beskärs, och sats T-12a följer — korruptionen är oavgörbar inifrån.
Ingen intern operation kan bryta denna oavgörbarhet, eftersom varje informationskälla som kodeken kan få tillgång till har formats av \mathcal{F}.
Alltså är \delta-oberoende kanaler nödvändiga. \blacksquare
Bevis (tillräcklighet).
Anta att kodeken tar emot två kanaler C_1, C_2 med I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Då gäller:
Om \mathcal{F} verkar på C_1 men inte på C_2 (eller vice versa), kan kodeken jämföra prediktioner genererade från C_1 med observationer från C_2. Varje systematisk diskrepans — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) ihållande \neq 0 — är evidens för att C_1 bär filtrerad information.
Kanaljämförelsesignalen \varepsilon_{12} är inte underkastad samma oavgörbarhet som detektion via en enda kanal. Kodeken frågar inte “är min indata filtrerad?” (vilket kräver en modell av det som uteslöts). Den frågar “överensstämmer mina två kanaler?” — en lokal jämförelse som endast kräver förmågan att korrelera två närvarande signaler, inte en modell av frånvarande sådana.
Så länge prediktionsfelet mellan kanalerna \varepsilon_{12} överstiger \delta_{\min} — kodekens diskrimineringströskel — registreras diskrepansen som en genuin signal, och beskärningsloopen i sats T-12 avbryts: kodeken behåller de komponenter som behövs för att modellera den avvikande kanalen.
Alltså är \delta-oberoende kanaler tillräckliga (under villkoret \delta < \delta_{\min}) för att förhindra den självförstärkande beskärningsloop som anges i sats T-12. \blacksquare
5.3 Försvarets sårbarhet
Substrattrohetsvillkoret är nödvändigt men skört. Etikartikeln (avsnitt V.3a) identifierar en kritisk sårbarhet: själva MDL-beskärningspasset kan lösa inkonsistensen mellan kanaler genom att beskära förmågan att rikta uppmärksamhet mot den motbevisande kanalen. Kodeken “löser” konflikten genom att bli döv — vilket är just mekanismen bakom Narrativ drift.
Detta är skälet till att Komparatorhierarkin (De överlevandes vaka, avsnitt V.3a) identifierar tre strukturella försvarsnivåer, och till att endast den institutionella nivån är tillräcklig för godtyckligt komprometterade kodekar:
- Evolutionär (sub-kodek): Korsmodal sensorisk integration under MDL-beskärningspasset — strukturellt motståndskraftig mot Narrativ drift men begränsad i räckvidd till den sensoriska gränsen.
- Kognitiv (intra-kodek): Detektion av kognitiv dissonans inom självmodellen — föremål för beskärning under ihållande filtrering.
- Institutionell (extra-kodek): Kollegial granskning, fri press, kontradiktorisk debatt — verkar mellan kodekar, utom räckhåll för en enskild kodeks MDL-beskärning.
Den institutionella nivån är bärande eftersom den är den enda komparator som verkar oberoende av tillståndet hos någon enskild kodek.
§6. Konsekvenser
6.1 Stabilitetsfiltret selekterar mot trohet
En kritisk strukturell konsekvens: Stabilitetsfiltret, lämnat åt sin egen funktion, selekterar aktivt bort de indata som krävs för substrattrohet. En kuraterad informationsström som överensstämmer med kodekens redan existerande priorer genererar mindre prediktionsfel än en genuin substratsignal som utmanar dem. Kodekens naturliga tendens — att minimera \varepsilon_t genom att föredra bekräftande indata med låg överraskningsgrad — är just den tendens som gör den sårbar för Narrativ drift.
Detta innebär att upprätthållandet av substrattrohet är strukturellt kostsamt: det kräver att kodeken upprätthåller indatakanaler som höjer \varepsilon_t och därmed förbrukar bandbredd som Stabilitetsfiltret annars skulle återvinna. Verkligt oberoende indata är “dyrt” — det kräver tolkningsarbete, skapar obehag och konkurrerar om bandbredd med mer komprimerbara strömmar. Att upprätthålla det är inte öppenhet som dygd. Det är upprätthållande av substrattrohet som en strukturell nödvändighet.
6.2 Diagnostik för produktiv överraskning
Inte all överraskning indikerar en genuin signal från substratet. En källa som genererar hög \varepsilon_t utan att detta upplöses i bättre prediktioner är helt enkelt brus. Diagnostiken gäller inte överraskningens magnitud utan dess överraskningskvalitet:
Definition T-12.D3 (Produktiv överraskning). En kanal C levererar produktiv överraskning om integrering av dess prediktionsfel påvisbart minskar efterföljande prediktionsfel i en oberoende testström:
\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}
En källa vars korrektioner historiskt förbättrar den prediktiva träffsäkerheten är en kanal för substrattrohet. En källa som genererar ihållande, olösliga fel är brus. Kodeken måste skilja mellan de två — och beskärningspasset kan, lämnat åt sig självt, inte göra denna åtskillnad eftersom båda typerna kostar bandbredd.
6.3 Civilisatoriska kodekar
På civilisatorisk skala motsvarar Substrattrohetsvillkoret direkt institutionella krav:
- En fri press är en \delta-oberoende kanal: journalister som undersöker oberoende av statliga eller företagsmässiga filter tillhandahåller en substratsignal som når den civilisatoriska kodeken via en väg som inte kontrolleras av någon enskild \mathcal{F}.
- Kollegial granskning är en komparator mellan kanaler: oberoende experter som granskar varandras påståenden tillhandahåller den \varepsilon_{12}-signal som avbryter beskärningsloopen.
- Demokratisk debatt är ett institutionaliserat krav på kanaldiversitet: konkurrerande partier och perspektiv tvingar den civilisatoriska kodeken att upprätthålla \Theta_{\text{excl}}-komponenter som den annars skulle beskära.
Det auktoritära mönstret — att montera ned pressen, korrumpera den kollegiala granskningen och eliminera politisk opposition — kan formellt karakteriseras som avsiktlig reduktion av kanaloberoende för att påskynda Narrativ drift. Det fungerar eftersom det utnyttjar Stabilitetsfiltrets naturliga tendens att beskära kostsamma kanaler.
6.4 Artificiella kodekar
Mekanismen för Narrativ drift gäller artificiella system med strukturell precision. RLHF och finjustering är formellt ekvivalenta med förfilteroperatorn \mathcal{F}: de formar modellens effektiva indatafördelning, och gradientnedstigning beskär modellens kapacitet för exkluderade utdomäner. Den resulterande modellen blir stabilt och självsäkert felaktig om det som träningssignalen utesluter, och den kan inte upptäcka detta inifrån — sats T-12a gäller.
Implikationen för AI-driftsättning som kontroll av substrattrohet är avgörande: en AI som tränats på en homogen eller kurerad korpus och driftsätts som en “oberoende” kontroll av en mänsklig kodek som matas av samma informationsmiljö skapar korrelerade sensorer som utger sig för att vara oberoende. Kanaldiversiteten är illusorisk. Substrattrohetsvillkoret (\delta-oberoende) måste verifieras på nivån för träningsdatans proveniens, inte enbart på nivån för institutionell åtskillnad.
§7. Omfattning och begränsningar
7.1 Villkorat på T9-3/T9-4 och Stabilitetsfilter
Hela argumentet beror på att MDL-beskärningsekvationerna är den korrekta beskrivningen av Underhållscykelns beskärningspass. Om biologisk beskärning verkar genom en annan mekanism — en som bevarar “nöd”-kapacitet för oanvända modaliteter — skulle irreversibilitetsanspråket (Sats T-12) försvagas men inte elimineras: självförstärkningsslingan (Avsnitt 3.3) förblir giltig så länge någon kapacitetsreduktion sker under icke-användning.
7.2 \tau_{\text{prune}} är obegränsad
Liksom för Action-Drift (Appendix T-13, §7.5) identifieras tidsskalan för kapacitetsförlust men begränsas inte kvantitativt. För biologiska kodekar är \tau_{\text{prune}} sannolikt i storleksordningen dagar till veckor för specifika färdigheter, månader till år för djupa perceptuella kategorier och generationer för civilisatoriska kodekar.
7.3 Försvaret är strukturellt, inte garanterat
Substrattrohetsvillkoret (T-12b) ger ett nödvändigt strukturellt försvar men garanterar inte trohet. En kodek som har \delta-oberoende kanaler kan fortfarande misslyckas med att uppmärksamma dem, misslyckas med att integrera deras signal eller beskära uppmärksamhetskapaciteten trots tillgänglig input. Villkoret är nödvändigt men inte tillräckligt — kodeken måste också upprätthålla den komparatorarkitektur som utvärderar diskrepans mellan kanaler.
7.4 Löser inte metaproblemet
T-12a fastställer att en fullt adapterad kodek inte kan upptäcka sin egen korruption. Metaproblemet — hur återhämtar sig en observatör som redan befinner sig i Narrativ drift? — löses inte av detta appendix. Etiktextens svar (avsnitt V.3a) är institutionellt: endast externa komparatorer som verkar mellan kodekar kan tvinga den vederläggande signalen tillbaka över Markovtäcket. Detta är strukturellt hållbart men etiskt svårt: det kräver tillit till en extern källa som den korrumperade kodeken med nödvändighet kommer att uppleva som fientligt brus.
§8. Sammanfattande avslutning
T-12:s leverabler
Sats T-12 (irreversibel kapacitetsförlust). MDL-beskärningspasset (T9-3, T9-4) under förfiltrerad indata X' = \mathcal{F}(X) raderar korrekt de kodekkomponenter som predikterar den exkluderade signalen \mathcal{X}_{\text{excl}}. Raderingen är irreversibel och självförstärkande. → Uppfyller vägkartans kriterium (a).
Sats T-12a (obeslutbarhet hos indatans proveniens). En fullt adapterad kodek kan inte skilja filtrerad från ofiltrerad indata. Detektionsinstrumentet har formats av samma filter som producerade korruptionen. → Uppfyller vägkartans kriterium (c).
Sats T-12b (Substrattrohetsvillkor). \delta-oberoende indatakanaler är nödvändiga och tillräckliga för att skydda mot Narrativ drift. Jämförelsesignalen mellan kanalerna \varepsilon_{12} avbryter den självförstärkande beskärningsloopen. → Uppfyller vägkartans kriterium (b).
§6.3–6.4: Civilisatoriska och AI-relaterade konsekvenser. Det auktoritära mönstret karakteriseras som avsiktlig kanalreduktion; RLHF är strukturellt ekvivalent med förfilteroperatorn. → Stöder vägkartans kriterium (d) (redan behandlat i etikartikeln, avsnitt V.5).
Återstående öppna punkter
- \tau_{\text{prune}}-gräns. Kvantitativ avgränsning av kapacitetsförlustens tidsskala utifrån empiriska data.
- Karakterisering av \delta_{\min}. Kodekens minsta diskrimineringströskel för diskrepans mellan kanaler har ännu inte avgränsats.
- Återhämtningsdynamik. Den formella analysen av hur en kodek i djup Narrativ drift kan återhämta sig — om den kan — återstår att behandla.
- Interaktion med T-13 (Action-Drift). Action-Drift är ett specialfall av T-12 där den beskurna kapaciteten är beteendemässig snarare än perceptuell. Den formella integrationen erkänns (T-13 §6.4) men är inte fullt utvecklad.
Detta appendix underhålls parallellt med theoretical_roadmap.pdf. Referenser: T9-3/T9-4 (preprint avsnitt 3.6.3), Stabilitetsfilter (preprint avsnitt 3.3), Narrativ drift (preprint avsnitt 3.3, De överlevandes vaka etik avsnitt V.3a), Komparatorhierarki (De överlevandes vaka etik avsnitt V.3a), Korruptionskriterium (De överlevandes vaka etik avsnitt V.5), Action-Drift (Appendix T-13, §6).