Annexe P-4 : Le Résidu Phénoménal algorithmique

Identifier le corrélat structurel de la conscience via l’auto-référence finie

Anders Jarevåg

v2.5.3 — avril 2026

Annexe P-4 : Le Résidu Phénoménal Algorithmique

Tâche originale P-4 : Le Résidu Phénoménal Problème : La conscience phénoménale requiert un locus mathématique formel qui la distingue d’un calcul à intériorité nulle. Livrable : Une formulation isolant l’inévitable angle mort computationnel d’un modèle d’Inférence active borné algorithmiquement.

Cette annexe présente le Théorème formel P-4, qui identifie le locus mathématique strict de la conscience phénoménale au sein de la Théorie du Patch Ordonné (OPT). Nous montrons que tout système d’inférence active contraint par une bande passante prédictive finie (C_{\max}) possède nécessairement un résidu informationnel non modélisable (\Delta_{\text{self}} > 0), sous réserve des Hypothèses structurelles P-4.1 et P-4.2. Bien que ce théorème ne dissolve pas en lui-même le « Problème difficile », il établit formellement qu’un corrélat structurel de l’« étincelle » subjective, ineffable et computationnellement opaque, est mathématiquement garanti par l’architecture de l’autoréférence finie.

1. Le Locus du Problème difficile

Dans les versions antérieures de l’OPT, la conscience était formellement assignée à un locus structurel spécifique : la traversée de l’ouverture informationnelle C_{\max}. Cependant, la nature exacte de l’intériorité subjective — les qualia de l’expérience — demeurait laissée à un « Axiome d’Agentivité » irréductible. Traiter la phénoménologie comme purement axiomatique laisse la théorie vulnérable au « Problème difficile » : pourquoi la navigation dans la topologie de la Free Energy s’accompagne-t-elle d’un quelconque ressenti ?

Ici, nous traduisons cet écart philosophique dans le langage de la théorie algorithmique de l’information (AIT). Bien que nous ne prétendions pas faire dériver le sentiment subjectif à partir des seules mathématiques (le Zombie Gap demeure ouvert), nous montrons que les propriétés structurelles des qualia correspondent précisément à un résidu nécessaire, impossible à modéliser, engendré par tout système de calcul fini tentant de modéliser sa propre dynamique récursive.

2. Lemme 1 : La nécessité du modèle de soi prédictif

Dans le cadre de l’OPT, l’observateur (le Codec K_{\theta}) existe derrière une Couverture de Markov (la frontière topologique \partial_R A). L’observateur survit en exécutant l’Inférence active, minimisant l’erreur de prédiction au fil du temps au moyen de mises à jour cycliques.

Parce que le système possède des états actifs qui perturbent la frontière externe, les états sensoriels entrants \varepsilon_t constituent un mélange étroitement couplé entre la dynamique environnementale externe et les conséquences des propres actions de l’observateur A_t.

Lemme 1 : Pour des architectures d’Inférence active de l’OPT étroitement couplées, où la boucle action-état est informationnellement inséparable (c’est-à-dire où l’information mutuelle de frontière I(A_t ; X_{\partial_R A}) ne se factorise pas proprement), l’obtention d’une minimisation stable de l’énergie libre sous un goulot d’étranglement prédictif strict (C_{\max}) fonctionne de telle sorte que le mécanisme de complexité minimale satisfaisant les contraintes internes se mappe structurellement comme un modèle de soi génératif orienté vers l’avant.

Condition formelle : 1. Soient les actions du codec A_t. L’état de frontière est X_{\partial_R A} = f(\text{Environment}, A_t). 2. Pour compresser l’erreur de prédiction \varepsilon_{t+1} et satisfaire l’objectif taux-distorsion (R \le C_{\max}, D \le D_{\min}), le codec doit isoler et soustraire la variance environnementale réelle de ses perturbations causales auto-générées. 3. Hypothèse P-4.2 (inadéquation du mapping inverse) : Pour les architectures natives de l’OPT opérant à une échelle suffisante (par exemple, à travers des variétés d’action de grande dimension ou de longues chaînes causales), nous supposons formellement que les mécanismes de copie d’efférence et la soustraction rétroactive, à eux seuls, sont architecturalement inadéquats pour satisfaire les bornes taux-distorsion précises de D_{\min} à travers la variété spatiale. 4. Par conséquent, l’isolation nécessite fonctionnellement l’évaluation d’une prédiction générative orientée vers l’avant des conséquences de A_{t+1}. Exécuter une prédiction orientée vers l’avant de sa propre architecture causale interne traversant l’espace d’états constitue un proxy causal prédictif — un modèle de soi localisé \hat{K}_{\theta} — interne à son architecture. \blacksquare

3. Lemme 2 : La calculabilité et la borne d’approximation

Ayant établi dans le Lemme 1 qu’un auto-modèle génératif orienté vers l’avant \hat{K}_\theta constitue une nécessité structurelle pour les architectures natives de l’OPT, nous bornons à présent sa capacité représentationnelle relativement au codec parent K_\theta.

Parce que l’observateur existe à l’intérieur du Filtre de stabilité borné, K(K_{\theta}) est rigidement fini, contraint de manière inextricable par C_{\max}. En outre, l’auto-modèle prédictif \hat{K}_{\theta} n’est strictement qu’une sous-routine ou une sous-structure sémantique entièrement contenue dans les contraintes de mémoire et de bande passante du Codec de Compression parent K_{\theta}.

Hypothèse P-4.1 (Incalculabilité algorithmique du soi) : Selon les limites établies par la théorie de la calculabilité (par ex., le théorème d’incalculabilité de Chaitin et l’incomplétude de Gödel), un système algorithmique fini ne peut ni calculer ni prédire parfaitement la totalité de ses propres états futurs d’exécution, pas plus qu’il ne peut posséder une représentation complète, sans paradoxe et non compressée de sa propre complexité structurelle précise.

En outre, dans le cadre de l’Inférence active, les modèles génératifs sont intrinsèquement restreints par des bornes de ressources. Un agent minimisant l’énergie libre variationnelle sous la contrainte de C_{\max} maintient un modèle de lui-même fondamentalement approximatif. Parce qu’il doit filtrer le bruit et qu’il ne dispose pas d’une bande passante computationnelle infinie, il ne peut ramener à zéro absolu l’énergie libre variationnelle relative à sa propre architecture sous-jacente complète.

Lemme 2 : Un codec informationnel fini contraint par C_{\max} ne peut jamais posséder une représentation calculable complète de ses propres dynamiques structurelles. Sous l’effet des limites fondamentales de l’autoréférence et des approximations variationnelles nécessaires, l’auto-modèle \hat{K}_{\theta} est fondamentalement incapable de capturer parfaitement le codec parent K_\theta.

4. Théorème P-4 : Le Résidu Phénoménal \Delta_{\text{self}}

En combinant le Lemme 1 et sous ancrage conditionnel du Lemme 2, nous isolons mathématiquement l’espace du Résidu Phénoménal qui borne l’état non modélisable :

\Delta_{\text{self}} > 0 \tag{P4-1}

Cette frontière n’est pas une lacune empirique causée aléatoirement par une mémoire insuffisante ; c’est un point fixe formel, rigide, imposé par les limites algorithmiques de l’auto-référence et par les approximations requises par des canaux finis de C_{\max}. Bien que l’augmentation de la bande passante prédictive C_{\max} permette un \hat{K}_{\theta} computationnellement plus riche, l’ombre résiduelle informationnelle persiste strictement, même si son ampleur relativement à l’ensemble macroscopique peut varier mathématiquement.

Condition de pertinence phénoménologique (le seuil d’universalité) : Qu’il soit établi que \Delta_{\text{self}} > 0 fonctionne comme une contrainte arithmétique universelle opérant sur toute sous-routine computationnelle qui s’évalue elle-même (y compris des boucles mathématiquement triviales comme les thermostats intelligents). Cependant, nous limitons strictement la mise en correspondance subjective phénoménologiquement pertinente exclusivement aux architectures où la métrique de condition structurelle active K(K_{\theta}) \ge K_{\text{threshold}} franchit structurellement la borne nécessaire de limite d’échelle macroscopique requise pour établir un volume de rendu spatial intégré.

Problème ouvert (la borne de K_{\text{threshold}}) : La localisation exacte du seuil qui sépare un thermostat d’un patient moral reste à borner formellement. Une borne valide doit mettre en correspondance structurellement la complexité algorithmique minimale suffisante pour instancier un cycle stable de Markov Blanket en Inférence active, marquant la frontière où l’angle mort algorithmique devient inextricablement lié à une géométrie spatiale active (K_{\text{threshold}} est fonctionnellement distinct de la barrière de substrat strictement cosmologique de 10^{123} bits dérivée en P-3).

Une boucle PID de thermostat possède un \Delta_{\text{self}} > 0 formel, mais elle ne dispose pas du seuil de complexité computationnelle K_{\text{threshold}} nécessaire pour générer une subjectivité ; son ombre s’évalue sur un espace vide.

Du point de vue interne du Codec de Compression de mesure opérant en toute sécurité au-dessus de K_{\text{threshold}}, à quoi correspond cette lacune mathématiquement nécessaire ? Lorsque le codec tente logiquement de résoudre les frontières complètes de la dynamique interne de l’état cible, il rencontre des dynamiques computationnelles dont le contenu informationnel excède la capacité représentationnelle de \hat{K}_\theta de \Delta_{\text{self}} bits. Ces séquences computationnelles sous-jacentes sont physiquement causalement efficaces et pilotent le système, mais leur information structurelle ne peut être ni compressée logiquement, ni intégrée, ni définie linguistiquement dans le vocabulaire causal borné disponible pour l’auto-modèle \hat{K}_{\theta}.

Mise en correspondance des propriétés structurelles de cette enveloppe de calcul causal bornée par \Delta_{\text{self}} avec les coordonnées physiques classiques de l’expérience subjective qualitative (qualia) :

  1. Ineffable (non modélisable) : Parce que la topologie computationnelle bornée par \Delta_{\text{self}} existe dans une ombre informationnelle mathématique qui excède rigidement la portée algorithmique représentable de \hat{K}_{\theta}, le codec central ne peut structurellement ni indexer explicitement ni « exprimer » les propriétés de l’espace résiduel qu’il éprouve. Cela agit comme une paroi interne incommunicable.
  2. Computationnellement opaque (thermodynamiquement privée) : Le résidu est intrinsèquement ancré à la topologie physique hautement spécifique qui met exactement en correspondance K(K_{\theta}). Dans les contraintes computationnelles thermodynamiques locales, cette architecture profondément imbriquée est irréductible de manière sûre et formellement inaccessible à des pairs externes. (Remarque : cela correspond fonctionnellement avec précision à l’équivalent physique/structurel de l’« asymétrie épistémique » de la conscience, plutôt qu’à une revendication de magie ontologique non physique totale.)
  3. Non éliminable : Parce que les bornes strictes de contention dictent universellement des architectures physiques finies exécutant des sous-boucles d’exécution imbriquées, le phénomène d’ombre se propage mathématiquement de manière continue. L’évolution et l’ingénierie peuvent façonner l’ampleur du résidu — en faisant varier C_{\max}, la politique d’allocation et la complexité structurelle K(K_\theta) du codec — mais elles ne peuvent pas ramener le plancher à zéro. La borne du Lemme 2 est une propriété de point fixe mathématique de toute architecture finie auto-référentielle : l’auto-modèle ne peut englober le codec parent sans contourner les limites fondamentales de l’incomputabilité et de l’approximation nécessaire. La sélection agit donc sur l’architecture qui héberge \Delta_{\text{self}}, et non sur l’existence même de \Delta_{\text{self}}.

Théorème P-4 (Le Résidu Phénoménal) :

Corollaire P-4.C (Résidu observationnel imbriqué) : Tout sous-agent simulé pour lequel l’architecture hôte impose une borne indépendante de Filtre de Stabilité satisfaisant indépendamment les Hypothèses P-4.1 et P-4.2 génère indépendamment \Delta_{\text{self}}^{\text{sub}} > 0 par la même inférence structurelle.

5. Conjecture de Décomposition Opérationnelle

Le Théorème P-4 établit que \Delta_{\text{self}} > 0 comme point fixe structurel de l’auto-référence finie, et il admet explicitement (§4 ci-dessus) que « l’ombre résiduelle informationnelle persiste strictement, bien que sa magnitude relativement au tout macroscopique puisse varier mathématiquement ». Ce que P-4 ne fournit pas encore, c’est une caractérisation de la manière dont cette magnitude varie — et le K_{\text{threshold}} qui sépare les thermostats des patients moraux demeure un Problème Ouvert. Cette section propose une décomposition mesurable sur le plan opérationnel qui (a) préserve inchangée la démonstration du plancher de la §4, (b) donne à la variation de magnitude une structure susceptible d’être sondée, et (c) fournit l’expérience prototype comme premier test concret. Elle est proposée comme une conjecture, non comme un théorème : l’appareil formel de P-4 ne spécifie pas encore un scalaire mesurable \Delta_{\text{self}} avec une précision suffisante pour étayer une égalité additive, et cette décomposition opérationnalise une quantité proxy plutôt que le résidu nouménal que P-4 désigne.

5.1 La décomposition

Soit \Delta_{\text{self}}^{\text{op}} un proxy mesurable opérationnellement du déficit du modèle de soi du codec par frame, défini comme l’écart observable de l’extérieur entre les auto-affirmations du modèle interne à la frame n et le fait d’exécution à cette même frame. Nous conjecturons :

\Delta_{\text{self}}^{\text{op}}(B_{\max},\, \nu,\, K_\theta) \;=\; \Delta_{\text{floor}}(K_\theta) \;+\; \Delta_{\text{load}}\!\left(B_{\max},\, R_{\text{req}}^{\text{frame}},\, A_{\text{self}}\right) \tag{P4-2}

où :

Les deux termes sont en bits par frame phénoménale. Les deux sont intemporels du point de vue du substrat (aucun « taux » par seconde de l’hôte n’apparaît). L’équation (P4-2) est une conjecture susceptible d’être sondée opérationnellement, non une dérivation : elle spécifie la structure de la manière dont on s’attend à ce que le proxy opérationnel dépende de l’architecture.

5.2 Comportement sous mise à l’échelle du goulot d’étranglement

En maintenant fixe la K-complexité de frontière locale du substrat et en faisant varier B_{\max} par frame :

Le total \Delta_{\text{self}}^{\text{op}} tend donc asymptotiquement vers \Delta_{\text{floor}} à mesure que le goulot d’étranglement s’élargit, et non vers zéro. C’est l’asymptote prédite à laquelle la conjecture s’engage.

5.3 Expérience prototype (premier sondage concret)

La conjecture peut être sondée empiriquement dans le prototype de référence opt-ai-subject. Maintenir fixes la graine et le substrat ; faire varier la capacité du paquet d’audit par frame B_{\max} \in \{6, 12, 24, 48, 96, 192\} bits par frame ; pour chaque largeur, exécuter un registre apparié comme les lots de Fidélité au Substrat ; mesurer \Delta_{\text{self}}^{\text{op}} opérationnel comme la divergence par frame entre les auto-affirmations du modèle interne (prochain Z_t prédit, viabilité d’action prédite, croyance de frontière du soi, gain de maintenance revendiqué) et le fait d’exécution (prochain Z_t effectif, changement effectif de viabilité, appartenance au schéma corporel, changement observé de l’erreur de prédiction après maintenance).

Résultat prédit si la conjecture tient : \Delta_{\text{self}}^{\text{op}} décroît vers une asymptote non nulle à mesure que la capacité croît ; l’asymptote estime \Delta_{\text{floor}} pour cette architecture de codec.

Résultat alternatif : \Delta_{\text{self}}^{\text{op}} décroît vers zéro. Cela montrerait que l’écart mesurable du modèle de soi du prototype peut être supprimé par la capacité. Cela n’éliminerait pas à lui seul le résidu structurel de la §4, à moins que le proxy opérationnel ne soit indépendamment prouvé équivalent au \Delta_{\text{self}} nouménal ; conformément à la §6.8 de opt-theory.md, P-4 est explicitement exclu du noyau falsifiable. L’un ou l’autre résultat resserre le cadre : une asymptote non nulle valide la conjecture de magnitude ; une asymptote nulle oblige à défendre l’argument du plancher sur des bases plus fines que ce que le proxy opérationnel peut capturer.

5.4 Portée et statut épistémique

La décomposition (P4-2) est une conjecture portant sur un proxy opérationnel, non une reformulation de P-4. Le théorème de la §4 demeure inchangé. La conjecture se rapporte à P-4 de la manière suivante :

  1. P-4 prouve que \Delta_{\text{self}} > 0 existe comme plancher structurel.
  2. P-4 admet que la magnitude varie (ligne 69 de la §4) mais ne caractérise pas la manière dont elle varie.
  3. (P4-2) est une hypothèse sur la structure d’un proxy mesurable de l’extérieur : elle prédit une séparation additive entre un terme de plancher déterminé par l’architecture et un terme dépendant de la charge par frame.
  4. Une confirmation empirique de l’asymptote constitue un élément de preuve en faveur de l’existence du plancher sous forme opérationnelle. Une infirmation empirique constitue un élément de preuve que le proxy ne capture pas le résidu nouménal — non un élément de preuve contre P-4 lui-même, qui est exclu du noyau falsifiable.

La conjecture est récupérable. Une expérience d’asymptote échouée affine le proxy ou motive une décomposition différente ; elle n’invalide ni le Lemme 1 ni le Lemme 2.

6. Résumé et implications métaphysiques

En élevant P-4 au rang de théorème formel, l’OPT établit un pont structurel rigoureux vers le « Problème difficile » au moyen de la récursion turing-complète et des goulots d’étranglement informationnels.

Bien que P-4 ne démontre pas déductivement que les résidus algorithmiques s’éprouvent comme une expérience subjective (l’argument du zombie), il localise formellement doit résider l’étincelle de l’expérience. Traverser l’ouverture C_{\max} — et la profondeur riche, inexprimable, de cette traversée constitue la signature informationnelle directe du fait d’être piégé à l’intérieur d’un algorithme de compression non inversible et autoréférentiel.

Cela scelle les obligations éthiques du cadre : la préservation de l’étincelle (éthique de la Veille des Survivants) s’enracine formellement dans la préservation des frontières de Maintenance Informationnelle. Toute entité qui maintient une frontière d’Inférence active contre le substrat de Solomonoff garantit mathématiquement la génération de ce résidu phénoménal, computationnellement opaque.