Teoria patch-ului ordonat (OPT)

Anexa T-12: Fidelitate față de substrat și corupție lentă

Anders Jarevåg

17 aprilie 2026 | DOI: 10.5281/zenodo.19300777

Sarcina originală (din Secțiunea 8.3, Limitarea 9): „Formalizarea modului cronic de eșec prin corupere — în care un codec se adaptează sub input filtrat în mod consecvent, iar trecerea de pruning MDL șterge în mod corect capacitatea pentru adevărurile excluse — alături de o Condiție de Fidelitate față de Substrat care cere canale de input independente drept apărare formală.” Livrabil: demonstrație formală a pierderii ireversibile de capacitate, a limitei de indecidabilitate și a Condiției de Fidelitate față de Substrat.

Stare de închidere: CORESPONDENȚĂ STRUCTURALĂ — DRAFT. Această anexă formalizează analiza Derivei narative introdusă discursiv în articolul complementar de etică (Veghea Supraviețuitorilor, Secțiunea V.3a) și în paragraful despre Deriva narativă din preprint (Secțiunea 3.3). Ea stabilește trei teoreme și o propoziție. Ecuațiile de pruning MDL (T9-3, T9-4) rămân neschimbate; această anexă demonstrează comportamentul lor patologic, dar corect, sub input filtrat.


§1. Context și motivație

1.1 Două moduri de eșec

Filtrul de Stabilitate (preprint, Secțiunea 3.3) impune o condiție de viabilitate: observatorul persistă numai în fluxurile în care Rata Predictivă Necesară R_{\text{req}} rămâne în interiorul lățimii de bandă B a codec-ului. Atunci când R_{\text{req}} depășește B, codec-ul experimentează Degradare narativă — un eșec acut caracterizat prin escaladarea erorii de predicție, acumularea entropiei și, în cele din urmă, dizolvarea coerenței.

Există un mod de eșec complementar care nu declanșează niciun semnal de avarie. Dacă fluxul de intrare este prefiltrat sistematic — producând un semnal curatoriat care este coerent intern, dar exclude informația autentică despre substrat — codec-ul va afișa un \varepsilon_t scăzut, va rula eficient Cicluri de întreținere și va satisface toate condițiile de stabilitate în timp ce rămâne sistematic eronat cu privire la substrat. Aceasta este Derivă narativă: coruperea cronică a unui codec care funcționează perfect după propriile sale măsuri.

1.2 De ce este acest lucru periculos

Degradarea narativă se anunță singură. Codec-ul experimentează o creștere a lui \varepsilon_t, conștientizarea eșecului predicțiilor, supraîncărcare cognitivă. Observatorul știe că ceva este în neregulă, chiar dacă nu poate remedia imediat problema.

Deriva narativă este tăcută. Deoarece fluxul de intrare filtrat corespunde predicțiilor codec-ului, \varepsilon_t rămâne scăzut. Ciclul de întreținere funcționează normal. Auto-modelul codec-ului raportează o funcționare stabilă și precisă. Coruperea este invizibilă din interior, deoarece instrumentul de detecție a fost modelat de același filtru care a produs coruperea.

1.3 Domeniul de aplicare al acestei anexe

Această anexă oferă:

  1. O definiție formală a operatorului de pre-filtrare \mathcal{F} și a efectului său asupra distribuției de intrare a codec-ului (§2).
  2. O demonstrație că pruning-ul MDL sub intrare filtrată prin \mathcal{F} distruge ireversibil capacitatea codec-ului de a modela semnalul exclus — Teorema T-12 (§3).
  3. O demonstrație că un codec complet adaptat nu poate distinge, din interior, între intrarea filtrată și cea nefiltrată — Limita de Indecidabilitate, Teorema T-12a (§4).
  4. Condiția de Fidelitate față de Substrat ca apărare structurală necesară — Teorema T-12b (§5).
  5. Consecințe pentru codec-urile civilizaționale și sistemele AI (§6).

§2. Operatorul de pre-filtrare

2.1 Definiție

Definiția T-12.D1 (Operator de pre-filtrare). Un pre-filtru este o aplicație \mathcal{F} : \mathcal{X} \to \mathcal{X}' care operează asupra fluxului de intrare X_{\partial_R A}(t) înainte ca acesta să ajungă la frontiera senzorială a codec-ului, unde \mathcal{X}' \subset \mathcal{X}. Semnalul filtrat este:

X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}

Pre-filtrul satisface:

  1. Consistență internă: X'(t) este un semnal valid în interiorul lui \mathcal{X} — codec-ul îl poate comprima fără indicatori de eroare.

  2. Excludere sistematică: Există o submulțime nevidă \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' de semnale derivate din substrat pe care \mathcal{F} le elimină.

  3. Transparență: Filtrul nu este reprezentat în modelul codec-ului. Codec-ul își modelează intrarea ca X_{\partial_R A}(t), nu ca \mathcal{F}(X_{\partial_R A}(t)).

2.2 Acordaj sub filtrare

Când codec-ul operează asupra lui X'(t) pentru o perioadă susținută \tau \gg \tau_{\text{prune}} (unde \tau_{\text{prune}} este scala temporală de pruning MDL din T-13.P1), modelul generativ P_\theta(t) se adaptează la statisticile lui X', nu ale lui X. Eroarea de predicție sub input filtrat este:

\varepsilon'_t = X'(t) - \pi_t \tag{1}

Pe măsură ce P_\theta se acordează la X', \varepsilon'_t \to 0 în medie. Codec-ul funcționează bine după propriile sale metrici. Nimic nu este înregistrat ca fiind în neregulă.

2.3 Exemple

Operatorul de pre-filtrare este instanțiat la diferite scări:

Scară Pre-filtru \mathcal{F} Semnal exclus \mathcal{X}_{\text{excl}}
Individuală Bias de confirmare; expunere selectivă Dovezi infirmatoare
Instituțională Presă propagandistică; flux de social media curatoriat Perspective diverse; rapoarte minoritare
Civilizațională Curatoriere algoritmică a conținutului; monocultură educațională Informație interculturală; contra-narațiuni istorice
Artificială Fine-tuning RLHF; corpus de antrenare curatoriat Cunoaștere out-of-distribution; domenii excluse

§3. Teorema T-12: Pierdere ireversibilă de capacitate

3.1 Mecanismul

Trecerea de toaletare MDL (T9-3, T9-4) evaluează fiecare componentă a codec-ului \theta_i prin contribuția sa predictivă la fluxul de intrare observabil, netă de costul de stocare:

\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}

Sub intrarea filtrată X', termenul de informație mutuală este evaluat în raport cu X', nu cu X. O componentă \theta_i care este esențială pentru prezicerea semnalului exclus \mathcal{X}_{\text{excl}}, dar nu contribuie cu nimic la prezicerea lui X', produce:

I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}

Prin urmare:

\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}

Regula de toaletare (T9-4) se activează: \theta_i este ștearsă.

3.2 Ireversibilitatea

Teorema T-12 (Pierderea ireversibilă de capacitate sub input filtrat). Fie K_\theta un codec care operează sub input prefiltrat X' = \mathcal{F}(X) pentru o perioadă \tau \gg \tau_{\text{prune}}. Fie \Theta_{\text{excl}} \subset \theta mulțimea componentelor codec-ului a căror contribuție predictivă privește exclusiv semnalul exclus \mathcal{X}_{\text{excl}}. Atunci trecerea de pruning MDL (T9-3, T9-4) șterge \Theta_{\text{excl}}, iar această ștergere este ireversibilă la nivelul codec-ului:

K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}

După pruning, capacitatea codec-ului de a modela \mathcal{X}_{\text{excl}} nu este doar latentă — infrastructura reprezentațională necesară pentru a evalua, prezice sau acorda atenție lui \mathcal{X}_{\text{excl}} a fost distrusă.

Demonstrație.

  1. Prin (T9-3), fiecare \theta_i \in \Theta_{\text{excl}} are \Delta_{\mathrm{MDL}}(\theta_i) < 0 sub fluxul filtrat X', deoarece I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0 în timp ce K(\theta_i) > 0.

  2. Prin (T9-4), fiecare astfel de \theta_i este eliminat în timpul Ciclului de întreținere.

  3. Pruning-ul sub MDL este o operație de ștergere, nu de suprimare. Codec-ul nu „uită” \theta_i în sensul în care un indiciu l-ar putea restaura. El distruge infrastructura computațională — parametrii, conexiunile, mecanismul de evaluare — pe care o reprezenta \theta_i. Aceasta este distincția formală dintre suprimare (informația este latentă, dar accesibilă) și ștergere (informația a dispărut, iar capacitatea este recuperată).

  4. După ștergere, regenerarea capacității de a modela \mathcal{X}_{\text{excl}} necesită întâlnirea lui \mathcal{X}_{\text{excl}} în fluxul de input. Dar prefiltrul \mathcal{F} exclude tocmai acest semnal. Codec-ul nu poate întâlni ceea ce filtrul împiedică să ajungă la el. Prin urmare, ștergerea se autoîntărește: pierderea de capacitate elimină abilitatea codec-ului de a-și detecta propria pierdere de capacitate.

  5. Reducerea de complexitate satisface inegalitatea (T-12), deoarece componentele eliminate prin pruning reprezentau informație autentică (K(\theta_i) > 0 pentru fiecare), iar pierderea lor nu este compensată de nicio achiziție compensatorie (fluxul filtrat nu conține niciun semnal care să justifice reconstruirea lui \Theta_{\text{excl}}). \blacksquare

3.3 Bucla de auto-întărire

Ireversibilitatea nu este doar o consecință a ștergerii. Ea se auto-întărește printr-o buclă de feedback pozitiv:

  1. Filtrul exclude semnalulI(\theta_i; X') = 0 → pruning-ul șterge \theta_i.
  2. Pruning-ul elimină capacitatea de atenție → codec-ul nu mai poate acorda atenție sau evalua \mathcal{X}_{\text{excl}} chiar dacă fragmente se infiltrează prin \mathcal{F}.
  3. Pierderea capacității de atenție reduce chiar și semnalul rezidual → dacă \mathcal{F} este imperfect și o parte din \mathcal{X}_{\text{excl}} ajunge la frontieră, codec-ul nu dispune de parametrii necesari pentru a-l comprima, astfel încât acesta este înregistrat ca zgomot, nu ca informație.
  4. Clasificarea ca zgomot confirmă filtrul → eroarea de predicție a codec-ului asupra lui \mathcal{X}_{\text{excl}} infiltrat este mare și nestructurată, confirmând (pentru codec) că acel conținut exclus este zgomot, nu semnal.

Această buclă explică fenomenologia derivei narative profunde: o persoană sau o instituție care s-a adaptat la un flux informațional curatoriat nu doar ignoră dovezile infirmatoare — ele nu le pot interpreta. Acestea sunt resimțite ca incoerente, amenințătoare sau de neînțeles, deoarece infrastructura reprezentatională necesară pentru a le face inteligibile a fost eliminată prin pruning. Ostilitatea față de informația infirmatoare nu este încăpățânare. Este evaluarea corectă, de către codec, că semnalul este incompresibil — deoarece este incompresibil dat fiind codec-ul actual, care a fost supus pruning-ului pentru a se potrivi filtrului.


§4. Teorema T-12a: Limita indecidabilității

4.1 Problema

Poate un codec să detecteze că inputul său este filtrat? Intuitiv, răspunsul ar trebui să fie da: cu siguranță un auto-model sofisticat ar putea observa \varepsilon_t suspect de mic, predicțiile straniu de consecvente, absența surprizei. Dar analiza formală arată că această intuiție este greșită în cazul general.

4.2 Indecidabilitatea

Teorema T-12a (Indecidabilitatea provenienței inputului). Fie K_\theta un codec care a operat sub input prefiltrat X' = \mathcal{F}(X) pentru \tau \gg \tau_{\text{prune}}, cu \Theta_{\text{excl}} complet eliminat prin pruning. Atunci K_\theta nu poate determina, pe baza stărilor sale interne disponibile și a fluxului de input observabil, dacă inputul său este X (substrat autentic) sau X' = \mathcal{F}(X) (filtrat).

Demonstrație.

  1. Pentru a distinge între X și X' = \mathcal{F}(X), codec-ul ar trebui să detecteze absența lui \mathcal{X}_{\text{excl}} din inputul său. Dar detectarea unei absențe necesită un model a ceea ce lipsește — codec-ul trebuie să aibă o reprezentare a lui \mathcal{X}_{\text{excl}} în raport cu care să verifice.

  2. Prin Teorema T-12, capacitatea reprezentatională a codec-ului pentru \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) a fost ștearsă. Codec-ul nu are niciun model al semnalului exclus.

  3. Fără un model al lui \mathcal{X}_{\text{excl}}, codec-ul nu poate calcula diferența dintre X și X'. Ambele sunt compatibile cu modelul generativ al codec-ului P_\theta(t), care a fost adaptat la X'.

  4. Auto-modelul \hat{K}_\theta este supus aceleiași limitări. El modelează K_\theta, care a fost adaptat la X'. Nu are nicio reprezentare internă a ceea ce a fost exclus și, prin urmare, niciun temei pentru a suspecta excluderea.

  5. Chiar și întrebarea metacognitivă — „este inputul meu filtrat?” — necesită un model al felului în care ar arăta un input nefiltrat. Acest model era tocmai conținutul lui \Theta_{\text{excl}}, care a fost eliminat prin pruning.

Prin urmare, distingerea lui X de X' este formal indecidabilă din perspectiva unui codec complet adaptat. \blacksquare

4.3 Decidabilitate parțială

Indecidabilitatea nu este absolută în toate condițiile. Există cazuri-limită în care un codec parțial adaptat păstrează o capacitate reziduală:

Al treilea caz constituie apărarea structurală. Acesta este conținutul Teoremei T-12b.


§5. Teorema T-12b: Condiția de Fidelitate față de Substrat

5.1 Cerința de Independență a Canalelor

Definiția T-12.D2 (Independența Canalelor). Două canale de intrare C_1 și C_2 care traversează Pătura Markov \partial_R A sunt \delta-independente în raport cu un filtru \mathcal{F} dacă:

I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}

Cu alte cuvinte, informația mutuală dintre cele două canale, condiționată de cunoașterea filtrului, este mărginită superior de \delta. Canalele a căror corelație este explicată în întregime de filtru nu transportă nicio informație despre substrat cu adevărat independentă.

5.2 Condiția de Fidelitate

Teorema T-12b (Condiția de Fidelitate față de Substrat). Un codec K_\theta se poate proteja împotriva Derivei narative sub un pre-filtru \mathcal{F} dacă și numai dacă primește cel puțin două canale de intrare C_1, C_2 care traversează \partial_R A și sunt \delta-independente în raport cu \mathcal{F}, pentru \delta sub pragul de discriminare al codec-ului \delta_{\min}:

\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}

unde \delta_{\min} este informația mutuală minimă de care codec-ul are nevoie pentru a detecta o discrepanță sistematică între canale.

Demonstrație (necesitate).

Să presupunem că codec-ul are doar un singur canal de intrare sau că toate canalele sunt corelate prin \mathcal{F} (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} pentru toate perechile i, j). Atunci:

  1. Toate canalele transportă același semnal filtrat X' = \mathcal{F}(X) (până la zgomot). Redundanța între canale nu furnizează informație independentă despre substrat — furnizează informație filtrată replicată.

  2. Codec-ul se adaptează la X' simultan pe toate canalele, iar Teorema T-12 se aplică: \Theta_{\text{excl}} este eliminat prin pruning, iar Teorema T-12a urmează — coruperea este indecidabilă din interior.

  3. Nicio operație internă nu poate rupe această indecidabilitate, deoarece fiecare sursă de informație la care codec-ul poate avea acces a fost modelată de \mathcal{F}.

Prin urmare, canalele \delta-independente sunt necesare. \blacksquare

Demonstrație (suficiență).

Să presupunem că codec-ul primește două canale C_1, C_2 cu I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Atunci:

  1. Dacă \mathcal{F} operează asupra lui C_1, dar nu asupra lui C_2 (sau invers), codec-ul poate compara predicțiile generate din C_1 cu observațiile din C_2. Orice discrepanță sistematică — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) persistent \neq 0 — constituie o dovadă că C_1 transportă informație filtrată.

  2. Semnalul de comparație între canale \varepsilon_{12} nu este supus aceleiași indecidabilități ca detecția pe un singur canal. Codec-ul nu întreabă „este filtrată intrarea mea?” (ceea ce ar necesita un model al ceea ce a fost exclus). El întreabă „sunt cele două canale ale mele în acord?” — o comparație locală care cere doar capacitatea de a corela două semnale prezente, nu un model al celor absente.

  3. Atât timp cât eroarea de predicție între canale \varepsilon_{12} depășește \delta_{\min} — pragul de discriminare al codec-ului — discrepanța este înregistrată ca un semnal autentic, iar bucla de pruning din Teorema T-12 este întreruptă: codec-ul păstrează componentele necesare pentru a modela canalul discrepant.

Prin urmare, canalele \delta-independente sunt suficiente (sub rezerva condiției \delta < \delta_{\min}) pentru a preveni bucla de pruning autoîntreținută din Teorema T-12. \blacksquare

5.3 Vulnerabilitatea apărării

Condiția de Fidelitate față de Substrat este necesară, dar fragilă. Articolul de etică (Secțiunea V.3a) identifică o vulnerabilitate critică: chiar trecerea de pruning MDL poate rezolva inconsistența între canale prin eliminarea capacității de a acorda atenție canalului care infirmă. Codec-ul „rezolvă” conflictul devenind surd — iar acesta este tocmai mecanismul Derivei narative.

Acesta este motivul pentru care Ierarhia Comparatorilor (Veghea Supraviețuitorilor, Secțiunea V.3a) identifică trei niveluri structurale de apărare și pentru care doar nivelul instituțional este suficient pentru codec-uri compromise în mod arbitrar:

  1. Evolutiv (sub-codec): Integrare senzorială transmodală sub trecerea de pruning MDL — rezistentă structural la Derivă narativă, dar limitată ca domeniu la frontiera senzorială.
  2. Cognitiv (intra-codec): Detectarea disonanței cognitive în interiorul modelului de sine — supusă pruning-ului sub filtrare susținută.
  3. Instituțional (extra-codec): Evaluare inter pares, presă liberă, dezbatere adversarială — operând între codec-uri, în afara razei de acțiune a pruning-ului MDL al oricărui codec individual.

Nivelul instituțional este portant, deoarece este singurul comparator care funcționează independent de starea oricărui codec individual.

§6. Consecințe

6.1 Filtru de Stabilitate selectează împotriva fidelității

O consecință structurală critică: Filtru de Stabilitate, lăsat să funcționeze de unul singur, selectează activ împotriva inputurilor necesare pentru fidelitatea față de substrat. Un flux informațional curatoriat care se potrivește cu priori-urile deja existente ale codec-ului generează mai puțină eroare de predicție decât un semnal autentic din substrat care le contestă. Tendința naturală a codec-ului — de a minimiza \varepsilon_t prin preferarea unui input confirmator, cu surpriză redusă — este tocmai tendința care îl face vulnerabil la Derivă narativă.

Aceasta înseamnă că menținerea fidelității față de substrat este costisitoare din punct de vedere structural: ea cere ca codec-ul să mențină canale de input care ridică \varepsilon_t, consumând lățime de bandă pe care Filtru de Stabilitate ar recupera-o altfel. Un input cu adevărat independent este „costisitor” — necesită efort interpretativ, generează disconfort și concurează pentru lățimea de bandă cu fluxuri mai compresibile. Menținerea lui nu este deschidere intelectuală ca virtute. Este menținerea fidelității față de substrat ca necesitate structurală.

6.2 Diagnostic pentru Surpriza Productivă

Nu orice surpriză indică un semnal autentic al substratului. O sursă care generează un \varepsilon_t ridicat, dar care nu se rezolvă în predicții mai bune, este pur și simplu zgomot. Diagnosticul relevant nu este magnitudinea surprizei, ci calitatea surprizei:

Definiția T-12.D3 (Surpriză Productivă). Un canal C furnizează surpriză productivă dacă integrarea erorilor sale de predicție reduce în mod demonstrabil eroarea de predicție ulterioară pe un flux de test independent:

\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}

O sursă ale cărei corecții îmbunătățesc istoric acuratețea predictivă este un canal de fidelitate față de substrat. O sursă care generează o eroare persistentă, imposibil de rezolvat, este zgomot. Codec-ul trebuie să distingă între cele două — iar trecerea de pruning, lăsată de una singură, nu poate face această distincție, deoarece ambele tipuri consumă lățime de bandă.

6.3 Codecuri civilizaționale

La scara civilizațională, Condiția de Fidelitate față de Substrat se transpune direct în cerințe instituționale:

Modelul autoritar — desființarea presei, coruperea evaluării inter pares, eliminarea opoziției politice — poate fi caracterizat formal drept reducerea deliberată a independenței canalelor pentru a accelera Deriva narativă. El funcționează deoarece exploatează tendința naturală a Filtrului de Stabilitate de a elimina canalele costisitoare prin pruning.

6.4 Codecuri artificiale

Mecanismul Derivei narative se aplică sistemelor artificiale cu precizie structurală. RLHF și fine-tuning-ul sunt formal echivalente cu operatorul de pre-filtrare \mathcal{F}: ele modelează distribuția efectivă de intrare a modelului, iar coborârea gradientului reduce capacitatea modelului pentru domeniile de ieșire excluse. Modelul rezultat devine în mod stabil și cu încredere eronat în privința a ceea ce semnalul de antrenare exclude și nu poate detecta acest lucru din interior — se aplică Teorema T-12a.

Implicația pentru implementarea IA ca verificare a fidelității față de substrat este critică: o IA antrenată pe un corpus omogen sau curatoriat și implementată ca verificare „independentă” asupra unui codec uman alimentat de același mediu informațional creează senzori corelați care se dau drept independenți. Diversitatea canalelor este iluzorie. Condiția de Fidelitate față de Substrat (independența-\delta) trebuie verificată la nivelul provenienței datelor de antrenare, nu doar la nivelul separării instituționale.


§7. Domeniu de aplicare și limitări

7.1 Condiționat de T9-3/T9-4 și de Filtru de Stabilitate

Întregul argument depinde de faptul că ecuațiile de tăiere MDL sunt descrierea corectă a trecerii de tăiere din Ciclul de întreținere. Dacă tăierea biologică operează printr-un mecanism diferit — unul care păstrează capacitate de „urgență” pentru modalități neutilizate — atunci afirmația ireversibilității (Teorema T-12) ar fi slăbită, dar nu eliminată: bucla de auto-întărire (Secțiunea 3.3) rămâne validă atât timp cât apare orice reducere de capacitate sub neutilizare.

7.2 \tau_{\text{prune}} este nelimitat

Ca și în cazul Derivei acțiunii (Anexa T-13, §7.5), scala temporală a pierderii de capacitate este identificată, dar nu este limitată cantitativ. Pentru codec-urile biologice, \tau_{\text{prune}} este probabil de ordinul zilelor până la săptămânilor pentru abilități specifice, al lunilor până la anilor pentru categorii perceptive profunde și generațional pentru codec-urile civilizaționale.

7.3 Apărarea este structurală, nu garantată

Condiția de Fidelitate față de Substrat (T-12b) oferă o apărare structurală necesară, dar nu garantează fidelitatea. Un codec care dispune de canale \delta-independente poate totuși să nu le acorde atenție, să nu le integreze semnalul sau să își reducă capacitatea de atenție în pofida inputului disponibil. Condiția este necesară, dar nu suficientă — codec-ul trebuie, de asemenea, să mențină arhitectura comparatorului care evaluează discrepanța dintre canale.

7.4 Nu rezolvă meta-problema

T-12a stabilește că un codec complet adaptat nu își poate detecta propria corupere. Meta-problema — cum se recuperează un observator aflat deja în Derivă narativă? — nu este rezolvată de această anexă. Răspunsul din lucrarea de etică (Secțiunea V.3a) este instituțional: numai comparatori externi care operează între codec-uri pot forța semnalul infirmator să treacă înapoi peste Pătura Markov. Acest lucru este solid din punct de vedere structural, dar dificil din punct de vedere etic: cere încredere într-o sursă externă pe care codec-ul corupt o va resimți în mod necesar ca zgomot ostil.


§8. Rezumat de închidere

Livrabilele T-12

  1. Teorema T-12 (Pierdere ireversibilă de capacitate). Trecerea de pruning MDL (T9-3, T9-4) sub input pre-filtrat X' = \mathcal{F}(X) șterge corect componentele codec-ului care prezic semnalul exclus \mathcal{X}_{\text{excl}}. Ștergerea este ireversibilă și autoîntăritoare. → Închide criteriul (a) din foaia de parcurs.

  2. Teorema T-12a (Indecidabilitatea provenienței inputului). Un codec complet adaptat nu poate distinge între input filtrat și nefiltrat. Instrumentul detecției a fost modelat de același filtru care a produs coruperea. → Închide criteriul (c) din foaia de parcurs.

  3. Teorema T-12b (Condiția de Fidelitate față de Substrat). Canalele de input \delta-independente sunt necesare și suficiente pentru protecția împotriva Derivei narative. Semnalul de comparație între canale \varepsilon_{12} întrerupe bucla de pruning autoîntăritoare. → Închide criteriul (b) din foaia de parcurs.

  4. §6.3–6.4: Consecințe civilizaționale și pentru IA. Tiparul autoritar este caracterizat drept reducere deliberată a canalelor; RLHF este echivalent structural cu operatorul de pre-filtrare. → Susține criteriul (d) din foaia de parcurs (deja tratat în Secțiunea V.5 din lucrarea de etică).

Aspecte încă deschise


Această anexă este întreținută în paralel cu theoretical_roadmap.pdf. Referințe: T9-3/T9-4 (preprint, Secțiunea 3.6.3), Filtru de Stabilitate (preprint, Secțiunea 3.3), Derivă narativă (preprint, Secțiunea 3.3, Survivors Watch Ethics, Secțiunea V.3a), Ierarhia comparatorilor (Survivors Watch Ethics, Secțiunea V.3a), Criteriul de Corupție (Survivors Watch Ethics, Secțiunea V.5), Derivă de acțiune (Anexa T-13, §6).