Teoria del Patch Ordinato

Appendice T-12: Fedeltà al substrato e corruzione lenta

Anders Jarevåg

17 aprile 2026 | DOI: 10.5281/zenodo.19300777

Compito originale (dalla Sezione 8.3, Limitazione 9): “Formalizzare la modalità di guasto da corruzione cronica — in cui un codec si adatta sotto input filtrati in modo coerente, e il passaggio di potatura MDL cancella correttamente la capacità relativa a verità escluse — insieme a una Condizione di Fedeltà al Substrato che richieda canali di input indipendenti come difesa formale.” Deliverable: dimostrazione formale della perdita irreversibile di capacità, del limite di indecidibilità e della Condizione di Fedeltà al Substrato.

Stato di chiusura: BOZZA DI CORRISPONDENZA STRUTTURALE. Questa appendice formalizza l’analisi della Deriva Narrativa introdotta in forma discorsiva nell’articolo etico complementare (Vigilia dei Sopravvissuti, Sezione V.3a) e nel paragrafo sulla Deriva Narrativa del preprint (Sezione 3.3). Stabilisce tre teoremi e una proposizione. Le equazioni di potatura MDL (T9-3, T9-4) restano invariate; questa appendice ne dimostra il comportamento patologico ma corretto sotto input filtrati.


§1. Contesto e motivazione

1.1 Due modalità di fallimento

Il Filtro di Stabilità (preprint, Sezione 3.3) impone una condizione di viabilità: l’osservatore persiste solo nei flussi in cui il Tasso Predittivo Richiesto R_{\text{req}} rimane entro la banda del codec B. Quando R_{\text{req}} supera B, il codec va incontro a Decadimento narrativo — una modalità di fallimento acuta caratterizzata da un errore di predizione crescente, accumulo di entropia e, infine, dissoluzione della coerenza.

Esiste una modalità di fallimento complementare che non attiva alcun segnale di errore. Se il flusso di input viene sistematicamente prefiltrato — producendo un segnale curato che è internamente coerente ma che esclude informazioni autentiche del substrato — il codec mostrerà un basso \varepsilon_t, eseguirà Cicli di Manutenzione efficienti e soddisferà tutte le condizioni di stabilità pur essendo sistematicamente errato riguardo al substrato. Questa è la Deriva Narrativa: la corruzione cronica di un codec che, secondo i propri parametri, funziona perfettamente.

1.2 Perché questo è pericoloso

Il Decadimento narrativo si annuncia da sé. Il codec sperimenta un aumento di \varepsilon_t, la consapevolezza di previsioni che falliscono, un sovraccarico cognitivo. L’osservatore sa che qualcosa non va, anche se non può correggerlo immediatamente.

La Deriva Narrativa è silenziosa. Poiché il flusso di input filtrato corrisponde alle previsioni del codec, \varepsilon_t rimane basso. Il Ciclo di Manutenzione procede normalmente. L’auto-modello del codec segnala un funzionamento stabile e accurato. La corruzione è invisibile dall’interno perché lo strumento di rilevazione è stato plasmato dallo stesso filtro che ha prodotto la corruzione.

1.3 Ambito di Questo Appendice

Questa appendice fornisce:

  1. Una definizione formale dell’operatore di pre-filtro \mathcal{F} e del suo effetto sulla distribuzione di input del codec (§2).
  2. Una dimostrazione che il pruning MDL sotto input filtrato da \mathcal{F} distrugge irreversibilmente la capacità del codec di modellare il segnale escluso — Teorema T-12 (§3).
  3. Una dimostrazione che un codec pienamente adattato non può distinguere, dall’interno, un input filtrato da uno non filtrato — il Limite di Indecidibilità, Teorema T-12a (§4).
  4. La Condizione di Fedeltà al Substrato come difesa strutturale necessaria — Teorema T-12b (§5).
  5. Conseguenze per i codec civilizzazionali e i sistemi di IA (§6).

§2. L’operatore di pre-filtro

2.1 Definizione

Definizione T-12.D1 (Operatore di Pre-Filtro). Un pre-filtro è una mappatura \mathcal{F} : \mathcal{X} \to \mathcal{X}' che opera sul flusso di input X_{\partial_R A}(t) prima che esso raggiunga il confine sensoriale del codec, dove \mathcal{X}' \subset \mathcal{X}. Il segnale filtrato è:

X'(t) = \mathcal{F}\!\left(X_{\partial_R A}(t)\right) \tag{T-12.D1}

Il pre-filtro soddisfa:

  1. Coerenza interna: X'(t) è un segnale valido all’interno di \mathcal{X} — il codec può comprimerlo senza segnalazioni di errore.

  2. Esclusione sistematica: Esiste un sottoinsieme non vuoto \mathcal{X}_{\text{excl}} = \mathcal{X} \setminus \mathcal{X}' di segnali derivati dal substrato che \mathcal{F} rimuove.

  3. Trasparenza: Il filtro non è rappresentato nel modello del codec. Il codec modella il proprio input come X_{\partial_R A}(t), non come \mathcal{F}(X_{\partial_R A}(t)).

2.2 Sintonizzazione sotto filtraggio

Quando il codec opera su X'(t) per un periodo prolungato \tau \gg \tau_{\text{prune}} (dove \tau_{\text{prune}} è la scala temporale di potatura MDL da T-13.P1), il modello generativo P_\theta(t) si adatta alle statistiche di X', non di X. L’errore di predizione sotto input filtrato è:

\varepsilon'_t = X'(t) - \pi_t \tag{1}

Man mano che P_\theta si sintonizza su X', \varepsilon'_t \to 0 in media. Il codec sta funzionando bene secondo le proprie metriche. Nulla viene registrato come anomalo.

2.3 Esempi

L’operatore di pre-filtro si istanzia attraverso diverse scale:

Scala Pre-filtro \mathcal{F} Segnale escluso \mathcal{X}_{\text{excl}}
Individuale Bias di conferma; esposizione selettiva Evidenza disconfermante
Istituzionale Stampa propagandistica; feed dei social media curato Prospettive diversificate; resoconti minoritari
Civilizzazionale Curatela algoritmica dei contenuti; monocultura educativa Informazione interculturale; contro-narrazioni storiche
Artificiale Fine-tuning RLHF; corpus di addestramento curato Conoscenza fuori distribuzione; domini esclusi

§3. Teorema T-12: Perdita irreversibile di capacità

3.1 Il Meccanismo

Il passaggio di potatura MDL (T9-3, T9-4) valuta ciascun componente del codec \theta_i in base al suo contributo predittivo al flusso di input osservabile, al netto del costo di memorizzazione:

\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}

Sotto input filtrato X', il termine di informazione mutua è valutato rispetto a X', non a X. Un componente \theta_i che è essenziale per predire il segnale escluso \mathcal{X}_{\text{excl}} ma non contribuisce in nulla alla predizione di X' produce:

I\!\left(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}\right) = 0 \tag{2}

Pertanto:

\Delta_{\mathrm{MDL}}(\theta_i) = -\lambda \cdot K(\theta_i) < 0 \tag{3}

La regola di potatura (T9-4) si attiva: \theta_i viene cancellato.

3.2 L’Irreversibilità

Teorema T-12 (Perdita Irreversibile di Capacità sotto Input Filtrato). Sia K_\theta un codec che opera sotto input pre-filtrato X' = \mathcal{F}(X) per un periodo \tau \gg \tau_{\text{prune}}. Sia \Theta_{\text{excl}} \subset \theta l’insieme delle componenti del codec il cui contributo predittivo riguarda esclusivamente il segnale escluso \mathcal{X}_{\text{excl}}. Allora il passaggio di pruning MDL (T9-3, T9-4) cancella \Theta_{\text{excl}}, e tale cancellazione è irreversibile a livello di codec:

K\!\left(P_\theta(t + \tau)\right) < K\!\left(P_\theta(t)\right) - \sum_{\theta_i \in \Theta_{\text{excl}}} K(\theta_i) \tag{T-12}

Dopo il pruning, la capacità del codec di modellare \mathcal{X}_{\text{excl}} non è semplicemente dormiente — l’infrastruttura rappresentazionale necessaria per valutare, predire o prestare attenzione a \mathcal{X}_{\text{excl}} è stata distrutta.

Dimostrazione.

  1. Per (T9-3), ogni \theta_i \in \Theta_{\text{excl}} ha \Delta_{\mathrm{MDL}}(\theta_i) < 0 sotto il flusso filtrato X', perché I(\theta_i\,;\,X'_{t+1:t+\tau} \mid \theta_{-i}) = 0 mentre K(\theta_i) > 0.

  2. Per (T9-4), ogni tale \theta_i viene sottoposto a pruning durante il Ciclo di Manutenzione.

  3. Il pruning sotto MDL è un’operazione di cancellazione, non di soppressione. Il codec non “dimentica” \theta_i nel senso che un indizio potrebbe ripristinarlo. Distrugge l’infrastruttura computazionale — i parametri, le connessioni, il meccanismo di valutazione — che \theta_i rappresentava. Questa è la distinzione formale tra soppressione (l’informazione è latente ma accessibile) e cancellazione (l’informazione è perduta e la capacità viene recuperata).

  4. Dopo la cancellazione, rigenerare la capacità di modellare \mathcal{X}_{\text{excl}} richiede di incontrare \mathcal{X}_{\text{excl}} nel flusso di input. Ma il pre-filtro \mathcal{F} esclude precisamente questo segnale. Il codec non può incontrare ciò che il filtro gli impedisce di ricevere. La cancellazione è dunque auto-rinforzante: la perdita di capacità rimuove la capacità del codec di rilevare la propria stessa perdita di capacità.

  5. La riduzione di complessità soddisfa la disuguaglianza (T-12) perché le componenti sottoposte a pruning rappresentavano informazione genuina (K(\theta_i) > 0 per ciascuna) e la loro perdita non è compensata da alcuna acquisizione compensativa (il flusso filtrato non contiene alcun segnale che giustifichi la ricostruzione di \Theta_{\text{excl}}). \blacksquare

3.3 Il Loop di Autorinforzo

L’irreversibilità non è semplicemente una conseguenza della cancellazione. È auto-rinforzante attraverso un loop di feedback positivo:

  1. Il filtro esclude il segnaleI(\theta_i; X') = 0 → il pruning cancella \theta_i.
  2. Il pruning rimuove la capacità attentiva → il codec non può più prestare attenzione a o valutare \mathcal{X}_{\text{excl}}, anche se alcuni frammenti filtrano attraverso \mathcal{F}.
  3. La perdita della capacità attentiva riduce anche il segnale residuo → se \mathcal{F} è imperfetto e una parte di \mathcal{X}_{\text{excl}} raggiunge il confine, il codec non dispone dei parametri per comprimerla, quindi la registra come rumore anziché come informazione.
  4. La classificazione come rumore conferma il filtro → l’errore di predizione del codec su \mathcal{X}_{\text{excl}} trapelato è elevato e privo di struttura, confermando (per il codec) che il contenuto escluso è rumore, non segnale.

Questo loop spiega la fenomenologia della Deriva Narrativa profonda: una persona o un’istituzione che si è adattata a un flusso informativo curato non si limita a ignorare le evidenze disconfermanti — non può analizzarle. Esse si presentano come incoerenti, minacciose o incomprensibili perché l’infrastruttura rappresentazionale necessaria a renderle intelligibili è stata sottoposta a pruning. L’ostilità verso l’informazione disconfermante non è ostinazione. È la corretta valutazione, da parte del codec, che il segnale è incomprimibile — perché è incomprimibile dato il codec attuale, che è stato sottoposto a pruning per adattarsi al filtro.


§4. Teorema T-12a: Il limite dell’indecidibilità

4.1 Il problema

Un codec può rilevare che il suo input viene filtrato? Intuitivamente, la risposta dovrebbe essere sì: sicuramente un sofisticato modello di sé potrebbe notare il valore sospettosamente basso di \varepsilon_t, le previsioni inquietantemente coerenti, l’assenza di sorpresa. Ma l’analisi formale mostra che questa intuizione è sbagliata nel caso generale.

4.2 L’Indecidibilità

Teorema T-12a (Indecidibilità della Provenienza dell’Input). Sia K_\theta un codec che ha operato sotto input pre-filtrato X' = \mathcal{F}(X) per \tau \gg \tau_{\text{prune}}, con \Theta_{\text{excl}} completamente potato. Allora K_\theta non può determinare, a partire dai suoi stati interni disponibili e dal flusso di input osservabile, se il suo input sia X (substrato genuino) oppure X' = \mathcal{F}(X) (filtrato).

Dimostrazione.

  1. Per distinguere X da X' = \mathcal{F}(X), il codec dovrebbe rilevare l’assenza di \mathcal{X}_{\text{excl}} nel proprio input. Ma rilevare un’assenza richiede un modello di ciò che è assente — il codec deve disporre di una rappresentazione di \mathcal{X}_{\text{excl}} rispetto alla quale effettuare il controllo.

  2. Per il Teorema T-12, la capacità rappresentazionale del codec per \mathcal{X}_{\text{excl}} (\Theta_{\text{excl}}) è stata cancellata. Il codec non possiede alcun modello del segnale escluso.

  3. Senza un modello di \mathcal{X}_{\text{excl}}, il codec non può calcolare la differenza tra X e X'. Entrambi sono compatibili con il modello generativo del codec P_\theta(t), che è stato adattato a X'.

  4. Il modello di sé \hat{K}_\theta è soggetto alla stessa limitazione. Esso modella K_\theta, che è stato adattato a X'. Non possiede alcuna rappresentazione interna di ciò che è stato escluso e, pertanto, non ha alcuna base per sospettare l’esclusione.

  5. Perfino la domanda metacognitiva — “il mio input è filtrato?” — richiede un modello di come apparirebbe un input non filtrato. Questo modello coincideva precisamente con il contenuto di \Theta_{\text{excl}}, che è stato potato.

Pertanto, distinguere X da X' è formalmente indecidibile dalla prospettiva di un codec pienamente adattato. \blacksquare

4.3 Decidibilità Parziale

L’indecidibilità non è assoluta in ogni condizione. Esistono casi limite in cui un codec parzialmente adattato conserva una capacità residua:

Il terzo caso costituisce la difesa strutturale. Questo è il contenuto del Teorema T-12b.


§5. Teorema T-12b: Condizione di Fedeltà al Substrato

5.1 Il Requisito di Indipendenza dei Canali

Definizione T-12.D2 (Indipendenza dei Canali). Due canali di input C_1 e C_2 che attraversano la Coperta di Markov \partial_R A sono \delta-indipendenti rispetto a un filtro \mathcal{F} se:

I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta \tag{T-12.D2}

Vale a dire, l’informazione mutua tra i due canali, condizionata alla conoscenza del filtro, è limitata superiormente da \delta. I canali la cui correlazione è interamente spiegata dal filtro non trasportano alcuna informazione sul substrato realmente indipendente.

5.2 La Condizione di Fedeltà

Teorema T-12b (Condizione di Fedeltà al Substrato). Un codec K_\theta può proteggersi dalla Deriva Narrativa sotto un pre-filtro \mathcal{F} se e solo se riceve almeno due canali di input C_1, C_2 che attraversano \partial_R A e sono \delta-indipendenti rispetto a \mathcal{F} per \delta al di sotto della soglia di discriminazione del codec \delta_{\min}:

\exists\, C_1, C_2 : I(C_1\,;\,C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min} \tag{T-12b}

dove \delta_{\min} è l’informazione mutua minima che il codec richiede per rilevare una discrepanza sistematica tra i canali.

Dimostrazione (necessità).

Supponiamo che il codec abbia un solo canale di input, oppure che tutti i canali siano correlati da \mathcal{F} (I(C_i; C_j \mid \mathcal{F}) > \delta_{\min} per tutte le coppie i, j). Allora:

  1. Tutti i canali trasportano lo stesso segnale filtrato X' = \mathcal{F}(X) (a meno del rumore). La ridondanza tra canali non fornisce informazione indipendente sul substrato — fornisce informazione filtrata replicata.

  2. Il codec si adatta a X' simultaneamente su tutti i canali, e si applica il Teorema T-12: \Theta_{\text{excl}} viene potato, e ne segue il Teorema T-12a — la corruzione è indecidibile dall’interno.

  3. Nessuna operazione interna può spezzare tale indecidibilità, perché ogni fonte di informazione a cui il codec può accedere è stata plasmata da \mathcal{F}.

Pertanto, canali \delta-indipendenti sono necessari. \blacksquare

Dimostrazione (sufficienza).

Supponiamo che il codec riceva due canali C_1, C_2 con I(C_1; C_2 \mid \mathcal{F}) \leq \delta < \delta_{\min}. Allora:

  1. Se \mathcal{F} opera su C_1 ma non su C_2 (o viceversa), il codec può confrontare le predizioni generate da C_1 con le osservazioni provenienti da C_2. Qualsiasi discrepanza sistematica — \varepsilon_{12}(t) = \pi_{C_1}(t) - X_{C_2}(t) persistentemente \neq 0 — costituisce evidenza che C_1 trasporta informazione filtrata.

  2. Il segnale di confronto tra canali \varepsilon_{12} non è soggetto alla stessa indecidibilità del rilevamento a canale singolo. Il codec non sta chiedendo “il mio input è filtrato?” (il che richiede un modello di ciò che è stato escluso). Sta chiedendo “i miei due canali concordano?” — un confronto locale che richiede soltanto la capacità di correlare due segnali presenti, non un modello di quelli assenti.

  3. Finché l’errore predittivo inter-canale \varepsilon_{12} supera \delta_{\min} — la soglia di discriminazione del codec — la discrepanza viene registrata come un segnale genuino, e il loop di potatura del Teorema T-12 viene interrotto: il codec conserva le componenti necessarie a modellare il canale discrepante.

Pertanto, canali \delta-indipendenti sono sufficienti (a condizione che \delta < \delta_{\min}) a impedire il loop auto-rinforzante di potatura del Teorema T-12. \blacksquare

5.3 La Vulnerabilità della Difesa

La Condizione di Fedeltà al Substrato è necessaria ma fragile. Il paper etico (Sezione V.3a) individua una vulnerabilità critica: il passaggio di potatura MDL può esso stesso risolvere l’incoerenza tra canali eliminando la capacità di prestare attenzione al canale disconfermante. Il codec “risolve” il conflitto diventando sordo — ed è precisamente questo il meccanismo della Deriva Narrativa.

Per questo la Gerarchia dei Comparatori (Vigilia dei Sopravvissuti, Sezione V.3a) individua tre livelli strutturali di difesa, e solo il livello istituzionale è sufficiente nel caso di codec compromessi in misura arbitraria:

  1. Evolutivo (sub-codec): Integrazione sensoriale cross-modale al di sotto del passaggio di potatura MDL — strutturalmente resistente alla Deriva Narrativa, ma limitata nella sua portata al confine sensoriale.
  2. Cognitivo (intra-codec): Rilevamento della dissonanza cognitiva all’interno del modello del sé — soggetto alla potatura sotto filtraggio prolungato.
  3. Istituzionale (extra-codec): Peer review, stampa libera, dibattito avversariale — operanti tra codec, al di fuori della portata della potatura MDL di qualunque singolo codec.

Il livello istituzionale è portante perché è l’unico comparatore che operi indipendentemente dallo stato di un qualsiasi codec individuale.


§6. Conseguenze

6.1 Il Filtro di Stabilità seleziona contro la fedeltà

Una conseguenza strutturale critica: il Filtro di Stabilità, lasciato al proprio funzionamento, seleziona attivamente contro gli input necessari alla fedeltà al substrato. Un flusso informativo curato che corrisponde ai priori già presenti nel codec genera meno errore di predizione di un segnale autentico del substrato che li metta in discussione. La tendenza naturale del codec — minimizzare \varepsilon_t preferendo input confermativi e a bassa sorpresa — è precisamente la tendenza che lo rende vulnerabile alla Deriva Narrativa.

Ciò significa che il mantenimento della fedeltà al substrato è strutturalmente costoso: richiede che il codec mantenga canali di input che aumentano \varepsilon_t, consumando banda che il Filtro di Stabilità altrimenti recupererebbe. Un input genuinamente indipendente è “costoso”: richiede sforzo interpretativo, genera disagio e compete per la banda con flussi più comprimibili. Mantenerlo non è apertura mentale intesa come virtù. È mantenimento della fedeltà al substrato come necessità strutturale.

6.2 Diagnostica della Sorpresa Produttiva

Non ogni sorpresa indica un segnale genuino del substrato. Una fonte che genera un \varepsilon_t elevato e che non si traduce in previsioni migliori è semplicemente rumore. La diagnostica rilevante non è l’ampiezza della sorpresa, ma la qualità della sorpresa:

Definizione T-12.D3 (Sorpresa Produttiva). Un canale C fornisce sorpresa produttiva se l’integrazione dei suoi errori di previsione riduce dimostrabilmente l’errore di previsione successivo su un flusso di test indipendente:

\mathbb{E}\!\left[\varepsilon^2_{C}(t+\tau)\right] \,<\, \mathbb{E}\!\left[\varepsilon^2_{C}(t)\right] \tag{4}

Una fonte le cui correzioni migliorano storicamente l’accuratezza predittiva è un canale di fedeltà al substrato. Una fonte che genera un errore persistente e irresolubile è rumore. Il codec deve distinguere tra le due — e il passaggio di potatura, lasciato a se stesso, non può operare questa distinzione, perché entrambe le tipologie hanno un costo in termini di banda.

6.3 Codec civilisazionali

Alla scala civilisazionale, la Condizione di Fedeltà al Substrato si traduce direttamente in requisiti istituzionali:

Il modello autoritario — smantellare la stampa, corrompere la revisione tra pari, eliminare l’opposizione politica — è formalmente caratterizzabile come riduzione deliberata dell’indipendenza dei canali per accelerare la Deriva Narrativa. Funziona perché sfrutta la tendenza naturale del Filtro di Stabilità a eliminare i canali costosi.

6.4 Codec artificiali

Il meccanismo della Deriva Narrativa si applica ai sistemi artificiali con precisione strutturale. RLHF e il fine-tuning sono formalmente equivalenti all’operatore di pre-filtro \mathcal{F}: modellano la distribuzione di input effettiva del modello, e la discesa del gradiente pota la capacità del modello rispetto ai domini di output esclusi. Il modello risultante diventa stabilmente, e con sicurezza, errato riguardo a ciò che il segnale di addestramento esclude, e non può rilevarlo dall’interno — si applica il Teorema T-12a.

L’implicazione per il dispiegamento dell’IA come controllo di fedeltà al substrato è cruciale: un’IA addestrata su un corpus omogeneo o curato e impiegata come verifica “indipendente” su un codec umano alimentato dallo stesso ambiente informativo crea sensori correlati che si mascherano da sensori indipendenti. La diversità dei canali è illusoria. La Condizione di Fedeltà al Substrato (indipendenza-\delta) deve essere verificata a livello di provenienza dei dati di addestramento, non soltanto a livello di separazione istituzionale.


§7. Ambito e limitazioni

7.1 Condizionato a T9-3/T9-4 e al Filtro di Stabilità

L’intero argomento dipende dal fatto che le equazioni di potatura MDL siano la descrizione corretta del passaggio di potatura del Ciclo di Manutenzione. Se la potatura biologica opera mediante un meccanismo diverso — uno che preserva capacità di “emergenza” per modalità inutilizzate — l’affermazione di irreversibilità (Teorema T-12) risulterebbe indebolita ma non eliminata: il loop di auto-rinforzo (Sezione 3.3) rimane valido finché si verifica qualsiasi riduzione di capacità sotto disuso.

7.2 \tau_{\text{prune}} è illimitato

Come per l’Action-Drift (Appendice T-13, §7.5), la scala temporale della perdita di capacità è identificata ma non quantitativamente limitata. Per i codec biologici, \tau_{\text{prune}} è probabilmente dell’ordine di giorni o settimane per abilità specifiche, di mesi o anni per categorie percettive profonde, e generazionale per i codec civilizzazionali.

7.3 La difesa è strutturale, non garantita

La Condizione di Fedeltà al Substrato (T-12b) fornisce una difesa strutturale necessaria ma non garantisce la fedeltà. Un codec che dispone di canali \delta-indipendenti può comunque non prestarvi attenzione, non integrarne il segnale, oppure potare la capacità attentiva nonostante l’input disponibile. La condizione è necessaria ma non sufficiente — il codec deve anche mantenere l’architettura dei comparatori che valuta la discrepanza tra canali.

7.4 Non risolve il Meta-Problem

T-12a stabilisce che un codec pienamente adattato non può rilevare la propria corruzione. Il meta-problema — come recupera un osservatore già in Deriva Narrativa? — non è risolto da questa appendice. La risposta del paper sull’etica (Sezione V.3a) è istituzionale: solo comparatori esterni che operano tra codec possono forzare il segnale disconfermante a rientrare attraverso la Coperta di Markov. Questo è strutturalmente solido, ma eticamente difficile: richiede di accordare fiducia a una fonte esterna che il codec corrotto sperimenterà necessariamente come rumore ostile.


§8. Sintesi conclusiva

Risultati di T-12

  1. Teorema T-12 (Perdita Irreversibile di Capacità). Il passaggio di potatura MDL (T9-3, T9-4) sotto input pre-filtrato X' = \mathcal{F}(X) cancella correttamente le componenti del codec che predicono il segnale escluso \mathcal{X}_{\text{excl}}. La cancellazione è irreversibile e auto-rinforzante. → Soddisfa il criterio (a) della roadmap.

  2. Teorema T-12a (Indecidibilità della Provenienza dell’Input). Un codec pienamente adattato non può distinguere l’input filtrato da quello non filtrato. Lo strumento di rilevazione è stato plasmato dallo stesso filtro che ha prodotto la corruzione. → Soddisfa il criterio (c) della roadmap.

  3. Teorema T-12b (Condizione di Fedeltà al Substrato). Canali di input \delta-indipendenti sono necessari e sufficienti per proteggere dalla Deriva Narrativa. Il segnale di confronto inter-canale \varepsilon_{12} interrompe il loop di potatura auto-rinforzante. → Soddisfa il criterio (b) della roadmap.

  4. §6.3–6.4: Conseguenze civilizzazionali e per l’IA. Il modello autoritario è caratterizzato come riduzione deliberata dei canali; l’RLHF è strutturalmente equivalente all’operatore di pre-filtro. → Supporta il criterio (d) della roadmap (già trattato nella Sezione V.5 del paper etico).

Questioni ancora aperte


Questa appendice è mantenuta in parallelo a theoretical_roadmap.pdf. Riferimenti: T9-3/T9-4 (preprint Sezione 3.6.3), Filtro di Stabilità (preprint Sezione 3.3), Deriva Narrativa (preprint Sezione 3.3, Vigilia dei Sopravvissuti Etica Sezione V.3a), Gerarchia dei Comparatori (Vigilia dei Sopravvissuti Etica Sezione V.3a), Criterio di Corruzione (Vigilia dei Sopravvissuti Etica Sezione V.5), Deriva dell’Azione (Appendice T-13, §6).