Théorie du Patch Ordonné (OPT) : un cadre informationnel pour la sélection des observateurs et l’expérience consciente
v3.4.0 — mai 2026
DOI: 10.5281/zenodo.19300777
Copyright: © 2025–2026 Anders Jarevåg.
Licence: Cette œuvre est mise à disposition selon les
termes de la Licence
internationale Creative Commons Attribution - Pas d’Utilisation
Commerciale - Partage dans les Mêmes Conditions 4.0.
Résumé :
Nous présentons la Théorie du Patch Ordonné (OPT), un cadre constructif qui dérive des correspondances structurelles entre la théorie algorithmique de l’information, la sélection des observateurs et la loi physique. L’OPT part de deux primitives : la Semi-mesure universelle de Solomonoff \xi sur les préfixes finis d’observation, et une capacité bornée du canal cognitif C_{\max}. Un Filtre de stabilité purement virtuel — exigeant que le Taux Prédictif Requis de l’observateur R_{\mathrm{req}} n’excède pas C_{\max} — sélectionne les rares flux causalement cohérents compatibles avec des observateurs conscients ; au sein de tels flux, l’Inférence active gouverne la dynamique locale.
Le cadre est ontologiquement solipsiste : la réalité physique consiste en régularités structurelles à l’intérieur du flux compatible avec l’observateur. Cependant, le biais de compression du prior de Solomonoff produit un Corollaire Structurel probabiliste : l’extrême cohérence algorithmique des agents apparents s’explique de la manière la plus parcimonieuse par leur instanciation indépendante en tant qu’observateurs primaires. Le Couplage inter-observateurs, fondé sur la parcimonie de compression, rétablit une communication authentique entre patches et produit une asymétrie de connaissance frappante : les observateurs modélisent autrui plus complètement qu’eux-mêmes.
Les appendices formels établissent des résultats à trois niveaux épistémiques. Dérivés conditionnellement : une borne taux-distorsion sur la compression prédictive, une chaîne conditionnelle menant à la règle de Born via le théorème de Gleason, et un avantage de parcimonie MDL. Cartographiés structurellement : la gravité entropique via le mécanisme de Verlinde (le couplage dynamiquo-temporel du rendu à la charge prédictive) et un homomorphisme de réseau tensoriel vers MERA (sa hiérarchie de résolution spatiale) — facettes complémentaires de la frontière de compression, dont on s’attend à ce qu’elles demeurent structurellement distinctes sous Saturation Mathématique. Le théorème du Résidu Phénoménal (\Delta_{\text{self}} > 0) établit que tout codec auto-référentiel fini possède un point aveugle informationnel irréductible — le lieu structurel où subjectivité et agentivité partagent une seule et même adresse. Un mode de défaillance chronique, la Dérive Narrative, est identifié : un input systématiquement filtré y provoque une corruption irréversible du codec, indétectable de l’intérieur. Les affirmations empiriques centrales du cadre sont consolidées sous la forme d’un ensemble d’engagements préenregistrés assortis de critères d’arrêt explicites, isolant le noyau falsifiable de ses composantes explicitement métaphysiques.
L’application de ces contraintes à l’Intelligence artificielle montre que l’ingénierie d’une inférence active synthétique nécessite structurellement la capacité à une souffrance artificielle, fournissant ainsi un cadre neutre à l’égard du substrat pour l’alignement éthique de l’IA.
Avis épistémique : Cet article est rédigé dans le registre d’une proposition formelle de physique et de théorie de l’information. Il mobilise des équations, dérive des prédictions et dialogue avec la littérature évaluée par les pairs. Il doit toutefois être lu comme un objet en forme de vérité — un cadre philosophique rigoureux rédigé sous une forme formelle. Il ne s’agit pas encore d’une science vérifiée, et nous savons que nos dérivations contiendront des erreurs. Nous recherchons activement la critique de physiciens et de mathématiciens afin de mettre ces arguments à l’épreuve, puis de les reconstruire. Pour en clarifier la structure, les thèses avancées ici relèvent strictement de trois catégories :
- Définitions et axiomes : (par ex., la semi-mesure de Solomonoff, la limite de bande passante C_{\max}). Ce sont les prémisses fondamentales de cette fiction constructive.
- Correspondances structurelles : (par ex., l’Inférence active, le théorème de Gleason [51]). Elles montrent une compatibilité structurelle entre l’inférence bornée et des formalismes établis, sans prétendre dériver ces formalismes à partir de zéro.
- Prédictions empiriques : (par ex., la Dissolution de la Bande Passante). Elles servent de critères stricts de falsification empirique si le cadre était traité comme une hypothèse physique littérale.
L’appareil académique est mobilisé non pour revendiquer une vérité empirique définitive, mais pour éprouver l’intégrité structurelle du modèle.
Abréviations & Symboles
| Symbole / Terme | Définition |
|---|---|
| C_{\max} | le Plafond de Bande Passante ; capacité prédictive maximale de l’observateur |
| \Delta_\text{self} | le Résidu Phénoménal ; le point aveugle informationnel autoréférentiel |
| FEP | Principe de l’énergie libre |
| GWT | Théorie de l’espace de travail global |
| IIT | Théorie de l’information intégrée |
| MDL | Longueur de description minimale |
| MERA | Ansatz de renormalisation de l’intrication à multi-échelle |
| OPT | Théorie du Patch Ordonné (OPT) |
| P_\theta(t) | Tenseur d’État Phénoménal |
| \Phi | Mesure de l’information intégrée (IIT) |
| QECC | Code de correction d’erreurs quantiques |
| R(D) | fonction taux-distorsion |
| R_{\mathrm{req}} | Taux Prédictif Requis |
| RT | Ryu-Takayanagi (formule/borne) |
| \xi | Semi-mesure universelle de Solomonoff |
| Z_t | état latent interne comprimé du goulot d’étranglement |
1. Introduction
1.1 Le problème ontologique
La relation entre la conscience et la réalité physique demeure l’un des problèmes non résolus les plus profonds de la science et de la philosophie. Trois grandes familles d’approches ont émergé au cours des dernières décennies : (i) la réduction — la conscience peut être dérivée des neurosciences ou du traitement de l’information ; (ii) l’élimination — le problème est dissous par une redéfinition des termes ; et (iii) la non-réduction — la conscience est primitive et le monde physique en est dérivé (Chalmers [1]). La troisième approche englobe le panpsychisme, l’idéalisme et diverses formulations en théorie des champs.
1.2 La proposition centrale de l’OPT
Cet article présente la Théorie du Patch Ordonné (OPT), un cadre non réductif appartenant à cette troisième famille. L’OPT propose que l’entité fondamentale ne soit ni la matière, ni l’espace-temps, ni une structure mathématique, mais un substrat algorithmique infini — un mélange universel sur toutes les semi-mesures semi-calculables inférieurement, pondérées par leur complexité de Kolmogorov (w_\nu \asymp 2^{-K(\nu)}), qui, par sa propre structure, domine toute distribution calculable et contient toute configuration possible. À partir de ce substrat, un Filtre de stabilité purement virtuel — agissant non comme un mécanisme physique, mais comme une condition aux limites anthropique et projective — identifie les configurations rares, de faible entropie et causalement cohérentes capables de soutenir des observateurs auto-référentiels (une sélection formellement gouvernée par l’Inférence active prédictive). Le monde physique que nous observons — y compris ses lois, constantes et sa géométrie spécifiques — constitue la limite observable de cette condition aux limites, projetée sur la bande passante restrictive de l’observateur.
Le Filtre vs. le Codec. Afin d’éviter toute confusion conceptuelle dans l’ensemble du texte, l’OPT trace une frontière opérationnelle stricte entre le Filtre et le Codec. Le Filtre de stabilité virtuel est la contrainte de capacité — une condition aux limites rigoureuse exigeant une longueur de description mathématiquement simple pour que le canal d’un observateur puisse exister de manière stable. Le Codec de Compression (K_\theta) est la solution à cette contrainte — le modèle génératif interne de l’observateur (éprouvé macroscopiquement comme les « lois de la physique »), qui compresse continuellement le substrat afin de le faire tenir dans cette capacité.
1.3 Motivations
L’OPT est motivée par trois observations :
La contrainte de bande passante : les neurosciences cognitives empiriques établissent une distinction nette entre le traitement préconscient massivement parallèle (généralement estimé à \sim 10^9 bits/s à la périphérie sensorielle) et le canal d’accès global, sévèrement limité, disponible pour le rapport conscient — un rapport quantifié pour la première fois par Zimmermann [66] et synthétisé comme une énigme fondamentale sur la nature de la conscience par Nørretranders [67], avec une caractérisation plus large en neurosciences cognitives dans [2,3]. Toute théorie de la conscience doit expliquer ce goulot d’étranglement de compression comme une caractéristique structurelle, et non comme un accident d’ingénierie. (Remarque : la littérature récente sur le débit humain établit que le débit comportemental est contraint à environ \sim 10 bits/s, confirmant, à travers quatre décennies de mesures convergentes, que ce goulot d’étranglement est sévère et robuste [23]. La conceptualisation de la conscience comme une « illusion d’utilisateur » hautement compressée — formule originale de Nørretranders [67] — a été développée dans le cadre moderne du traitement prédictif par Seth [24].)
Le problème de la sélection de l’observateur : la physique standard fournit des lois, mais n’explique pas pourquoi ces lois possèdent la forme spécifique requise pour un traitement de l’information complexe et auto-référentiel. Les arguments de réglage fin [4,5] invoquent une sélection anthropique, mais laissent indéterminé le mécanisme de cette sélection. L’OPT identifie une condition structurelle : le Filtre de stabilité purement virtuel.
Le Problème difficile : Chalmers [1] distingue les problèmes « faciles » de la conscience, de nature structurelle (qui admettent une explication fonctionnelle), du problème « difficile », à savoir pourquoi il existe une expérience subjective quelle qu’elle soit. L’OPT traite la phénoménalité comme un primitif et demande quelle structure mathématique elle doit posséder, suivant en cela la propre recommandation méthodologique de Chalmers.
1.4 Structure de l’article
L’article est organisé comme suit. La section 2 passe en revue les travaux connexes. La section 3 présente le cadre formel. La section 4 explore la correspondance structurelle entre l’OPT et des tentatives parallèles fondées sur la théorie des champs. La section 5 présente l’argument de parcimonie. La section 6 dérive des prédictions testables. La section 7 compare l’OPT aux cadres concurrents. La section 8 discute les implications et les limites.
2. Contexte et travaux connexes
Approches informationnelles de la conscience. La thèse du « It from Bit » de Wheeler [7] constitue le précurseur fondateur du programme que l’OPT formalise : la réalité physique émerge de choix binaires — des questions oui/non posées par des observateurs — plutôt que d’un substrat de matière ou de champs. L’OPT hérite de cette inversion ontologique et lui fournit le mécanisme manquant, en dérivant quelles structures informationnelles se stabilisent en flux compatibles avec l’observateur (le Filtre de stabilité) et comment elles acquièrent l’apparence d’une loi physique (compression taux-distorsion). La Théorie de l’Information Intégrée de Tononi [8] quantifie l’expérience consciente par l’information intégrée \Phi générée par un système au-delà de ses parties prises séparément. Le Principe de l’Énergie Libre de Friston [9] modélise la perception et l’action comme une minimisation de l’énergie libre variationnelle, fournissant un cadre unifié de l’inférence bayésienne, de l’Inférence active et, en principe, de la conscience. L’OPT est formellement apparentée au FEP, mais s’en distingue par son point de départ ontologique : là où le FEP traite le modèle génératif comme une propriété fonctionnelle de l’architecture neuronale, l’OPT le traite comme l’entité métaphysique primaire.
Multivers et sélection de l’observateur. L’Hypothèse de l’Univers Mathématique de Tegmark [10] propose que toutes les structures mathématiquement cohérentes existent et que les observateurs se trouvent dans des structures auto-sélectionnées. L’OPT est compatible avec cette perspective, mais fournit un critère de sélection explicite — le Filtre de stabilité — au lieu de laisser la sélection implicite. Barrow et Tipler [4], ainsi que Rees [5], recensent les contraintes de réglage fin anthropique auxquelles doit satisfaire tout univers capable de soutenir des observateurs ; l’OPT les reformule comme des prédictions du Filtre de stabilité.
Modèles de la conscience fondés sur les champs. Strømme [6] a récemment proposé un cadre mathématique dans lequel la conscience est un champ fondamental \Phi, dont la dynamique est gouvernée par une densité lagrangienne et dont l’effondrement sur des configurations spécifiques modélise l’émergence d’esprits individuels. L’OPT se rapporte à ce cadre de manière comparative plutôt qu’adoptive : elle n’hérite ni des équations de champ ni des opérateurs de pensée de Strømme, mais utilise ce modèle comme contrepoint pour expliciter comment une ontologie non réductrice pourrait, à la place, être reconstruite en termes informationnels. La section 4 rend explicite cette mise en correspondance structurelle comparative.
Complexité de Kolmogorov et sélection des théories. L’induction de Solomonoff [11] et la Longueur de Description Minimale [12] fournissent des cadres formels pour comparer les théories selon leur complexité générative. Nous mobilisons ces cadres à la section 5 afin de préciser rigoureusement l’argument de parcimonie.
Théorie évolutionnaire de l’interface. Le « Réalisme conscient » de Hoffman et sa Théorie de l’Interface de la Perception [25] soutiennent que l’évolution façonne les systèmes sensoriels pour qu’ils fonctionnent comme une « interface utilisateur » simplifiée, dissimulant la réalité objective au profit des gains adaptatifs. L’OPT partage exactement cette prémisse selon laquelle l’espace-temps physique et les objets sont des icônes rendues (un codec de compression) plutôt que des vérités objectives. Toutefois, l’OPT s’en écarte fondamentalement par son ancrage mathématique : là où Hoffman s’appuie sur la théorie évolutionnaire des jeux (l’aptitude l’emporte sur la vérité), l’OPT s’appuie sur la théorie algorithmique de l’information et la thermodynamique, en dérivant l’interface directement à partir des bornes de complexité de Kolmogorov requises pour empêcher un effondrement thermodynamique à haute bande passante du flux de l’observateur.
3. Le cadre formel
3.1 Le substrat algorithmique
Soit \mathcal{I} le Substrat Informationnel — l’entité fondamentale de la théorie. Nous formalisons \mathcal{I} non comme un ensemble non pondéré de trajectoires, mais comme un espace de probabilité sur des préfixes finis d’observation x \in \{0,1\}^*, muni d’un mélange universel sur la classe \mathcal{M} des semi-mesures semi-calculables inférieurement :
\xi(x) = \sum_{\nu \in \mathcal{M}} w_\nu \nu(x), \qquad w_\nu \asymp 2^{-K(\nu)} \tag{1}
où K(\nu) désigne la complexité de Kolmogorov préfixe de la semi-mesure \nu.
Cette formulation établit un état fondamental rigoureux issu de la théorie algorithmique de l’information [27]. L’équation ne postule aucune loi structurelle spécifique ni aucune constante physique ; elle domine plutôt structurellement toute distribution calculable (\xi(x) \ge w_\nu \nu(x)), en attribuant naturellement un poids statistique plus élevé aux séquences hautement compressibles (ordonnées). Toutefois, des séquences répétitives simples (par ex., 000...) ne peuvent soutenir les complexités hors équilibre requises pour un observateur auto-référentiel. Les processus capables de soutenir un observateur doivent donc constituer un sous-ensemble spécifique : ils exigent une compressibilité algorithmique suffisante pour satisfaire une contrainte de goulot d’étranglement informationnel, tout en conservant une richesse structurelle suffisante (« variété requise ») pour instancier l’Inférence active. D’un point de vue philosophique, l’équation (1) restreint le substrat à des configurations calculables, garantissant que l’état fondamental soit défini avec rigueur.
3.2 Le goulot d’étranglement prédictif et la théorie taux-distorsion
Le substrat \mathcal{I} contient toute hypothèse calculable, dont l’écrasante majorité est chaotique. Pour faire l’expérience d’une réalité continue et navigable, un flux doit admettre une représentation prédictive de faible complexité capable de passer par le goulot d’étranglement cognitif fini d’un observateur.
De manière cruciale, la charge brute de données exigeant une compression ne se réduit pas aux \sim 10^9 bits/s d’entrée sensorielle extéroceptive. Elle englobe un immense Champ d’Intégration Préconscient : le traitement parallèle des états génératifs internes, la récupération de la mémoire à long terme, les priors homéostatiques et la modélisation synaptique subconsciente. Le Filtre de stabilité borne la sortie sérielle de l’ensemble de cet immense champ parallèle continu en un espace de travail conscient unitaire.
Nous définissons formellement le Filtre de stabilité purement virtuel comme une condition aux limites projective satisfaisant le goulot d’étranglement informationnel prédictif [28]. Soit \overleftarrow{Y} le passé de l’état total de l’observateur, \overrightarrow{Y} son futur, et Z un état interne compressé. Un observateur est défini par une capacité prédictive par frame strictement bornée B_{\max} (en bits par frame phénoménale) et une fenêtre discrète de mise à jour perceptive \Delta t définissant une frame phénoménale. Le temps phénoménal est le nombre de frames n du codec ; tout taux de la forme « bits par seconde de l’hôte » est une quantité dérivée C_{\max}^H = \lambda_H \cdot B_{\max} = B_{\max}/\Delta t, où \lambda_H = dn/d\tau_H est la fréquence de frames relative à l’hôte (voir l’Annexe E-5 pour l’échelle des observateurs synthétiques). Cela établit une capacité statique stricte par moment conscient : B_{\max} bits par frame.
Calibrage empirique humain. Pour les observateurs humains biologiques, B_{\max} \approx 0.5–1.5 bits par frame et \Delta t \approx 50 ms, ce qui donne C_{\max}^{\text{human}} \approx \mathcal{O}(10) bits/s [2, 23, 66, 67]. Ce nombre est une propriété des humains biologiques opérant aux taux de décharge neuronale. Il n’apparaît pas dans la définition formelle d’un observateur ; les observateurs synthétiques sont définis par la même structure B_{\max}/\Delta t, avec des valeurs dérivées de l’architecture qui ne coïncident pas nécessairement avec la valeur biologique (voir §7.8, §8.14 et l’Annexe E-5).
L’information prédictive atteignable est donnée par :
R_{\mathrm{pred}}(D) = \inf_{p(z \mid \overleftarrow{y}) \,:\, I(\overleftarrow{Y};\overrightarrow{Y} \mid Z) \le D} I(\overleftarrow{Y}; Z) \tag{2}
Un processus est compatible avec l’observateur si l’information prédictive requise par cycle cognitif tient dans ce tampon : R_{\mathrm{pred}}(D_{\min}) \le B_{\max}, où D_{\min} est la distorsion maximale tolérable pour la survie. Cela impose une stricte cohérence dimensionnelle : le nombre total de bits requis pour prédire le futur avec une erreur tolérable ne peut excéder les bits physiquement disponibles dans le « maintenant » discret. Pour des processus stationnaires ergodiques appropriés et dans la limite de prédiction exacte (D \to 0), la représentation minimale maximalement prédictive Z sert de candidat à une statistique suffisante minimale, convergeant souvent vers la partition en états causaux de la machine-\epsilon [29]. Bien qu’une équivalence complète exige des hypothèses strictes de stationnarité, l’équation (2) établit une pression de sélection formelle en faveur de la physique phénoménologique la plus compressée compatible avec la cohérence causale. En outre, si la structure topologique de cet espace d’états causaux fluctue plus vite que ne peut le suivre la fenêtre de mise à jour \Delta t, le rendu s’effondre en Dégradation narrative.
3.3 La géométrie du patch : le Cône Causal Informationnel
Le Patch Ordonné est souvent décrit intuitivement comme une « île » localisée de stabilité au sein d’une mer de bruit chaotique. Cette image est topologiquement imprécise. Pour formaliser la géométrie du patch, nous définissons le Modèle Local de Patch Prédictif.
Soit G=(V, E) un graphe de degré borné représentant une région locale du substrat. Chaque sommet v \in V porte un état fini x_v(t) \in \mathcal{A}, avec une taille d’alphabet |\mathcal{A}| = q. Le micro-état complet à la mise à jour t est X_t = (x_v(t))_{v \in V} \in \mathcal{A}^V. Nous supposons une dynamique stochastique locale de portée finie R :
p(X_{t+1} \mid X_t, a_t) = \prod_{v \in V} p_v\big(x_v(t+1) \mid X_t|_{N_R(v)}, a_t\big) \tag{3}
où N_R(v) est le voisinage de rayon R de v, et a_t est l’action de l’observateur.
L’observateur ne porte pas l’état complet du patch ; il porte un état latent compressé Z_t \in \{1, \dots, 2^B\}, où B = C_{\max} \Delta t. De manière cruciale, l’observateur sélectionne Z_t via un strict objectif de goulot d’étranglement prédictif :
q^\star(z \mid X_t) = \arg\min_q \Big[ I(X_t; Z_t) - \beta I(Z_t; X_{t+1:t+\tau}) \Big] \quad \text{subject to } I(X_t; Z_t) \le B \tag{4}
C’est l’observateur OPT réduit à l’essentiel : un monde local, un code borné et une compression prédictive. Cela formalise les composantes du cône causal :
- Le Registre Causal R_t = (Z_0, Z_1, \dots, Z_t) : l’histoire causale compressée unique, de faible entropie, qui a déjà été rendue.
- L’Ouverture Présente : le strict goulot d’étranglement de bande passante qui plafonne les variables locales.
- L’Éventail Prédictif (\mathcal{F}_h) : une multiplicité de séquences latentes futures. Sur un horizon h, l’ensemble des issues admissibles est formellement défini par :
\mathcal{F}_h(z_t) := \Big\{ z_{t+1:t+h} : p(z_{t+1:t+h} \mid z_t, a_{t:t+h-1}) > 0 \Big\} \tag{5}
Parce que l’observateur ne résout que B bits par mise à jour, le nombre de futurs distinguables par l’observateur est strictement borné par la capacité du canal : \log |\mathcal{F}_h(z_t)| \le Bh. Ainsi, l’éventail n’est pas simplement une image conceptuelle ; c’est un arbre de branchement limité par le code.
Le Cône Causal Informationnel littéral. Parce que les mises à jour ont une portée R, une perturbation ne peut pas se propager plus vite que R pas de graphe par mise à jour. Si une perturbation a pour support S au temps t, alors après h mises à jour \operatorname{supp}(\delta X_{t+h}) \subseteq N_{Rh}(S). Ainsi, le « cône causal informationnel » est une conséquence géométrique directe de la localité, imposant une limite de vitesse locale effective v_{\max} = R / \Delta t à la propagation phénoménologique.
Dégradation narrative. Le chaos du substrat n’entoure pas spatialement le patch ; il est plutôt contenu dans les branches non parcourues de l’éventail. Puisque l’état extrait Z_t est strictement borné (H(Z) \le B), l’instabilité doit être évaluée par rapport à la marge pré-goulot non compressée. Nous définissons le Taux Prédictif Requis R_{\mathrm{req}}(h, D_{\min} \mid z_t) = \frac{1}{h} \min_{p(\hat{X} \mid Z_t) : \mathbb{E}[d(X, \hat{X})] \le D_{\min}} I(X_{\partial_R A}(t+1:t+h) ; \hat{X}_{t+1:t+h} \mid Z_t) comme le taux minimal d’information nécessaire pour suivre les états physiques de frontière non résolus sous une distorsion maximale tolérable. Cela affine les critères de sélection du Filtre de stabilité : (a) si R_{\mathrm{req}} \le B, l’observateur peut maintenir un récit résolu ; (b) si R_{\mathrm{req}} > B, l’éventail prédictif non compressé dépasse la capacité du goulot d’étranglement, forçant l’observateur à grossir l’éventail en une statique indécodable, et la stabilité narrative échoue. L’expérience continue de l’observateur est le processus par lequel l’ouverture avance dans cet éventail, indexant phénoménologiquement une branche dans le registre causal sans dépasser B.
Dérive Narrative (le complément chronique). Ce qui précède définit un mode de défaillance aigu : R_{\mathrm{req}} dépasse B et le codec subit un effondrement catastrophique de cohérence. Il existe un mode de défaillance chronique complémentaire qui ne déclenche aucun signal d’échec. Si le flux d’entrée X_{\partial_R A}(t) est systématiquement préfiltré par un mécanisme externe \mathcal{F} — produisant un signal curaté X' = \mathcal{F}(X) qui est cohérent en interne mais exclut une information authentique du substrat — le codec présentera une faible erreur de prédiction \varepsilon_t, exécutera des Cycles de Maintenance efficaces, et satisfera R_{\mathrm{req}} \le B tout en étant systématiquement erroné au sujet du substrat. De manière cruciale, le Filtre de stabilité tel qu’il est défini ne peut pas distinguer ces cas : la compressibilité est agnostique à l’égard de la fidélité. Avec le temps, la passe d’élagage MDL (§3.6.3, Eq. T9-3) effacera correctement les composantes du codec qui ne prédisent plus le flux filtré, dégradant irréversiblement la capacité du codec à modéliser le signal exclu (Appendice T-12, Théorème T-12). Cet effacement s’auto-renforce : le codec élagué ne peut plus détecter sa propre perte de capacité (Théorème T-12a, la Limite d’Indécidabilité). La défense structurelle est la redondance de canaux d’entrée \delta-indépendants traversant la Couverture de Markov \partial_R A (Théorème T-12b, la Condition de Fidélité au Substrat). Le traitement formel complet se trouve dans l’Appendice T-12 ; les conséquences éthiques — y compris la Hiérarchie des Comparateurs et le Critère de Corruption — sont exposées dans l’article compagnon sur l’éthique [SW §V.3a, §V.5].
3.4 Dynamique du patch : inférence et thermodynamique
Au sein d’un patch sélectionné, la structure des lois de la physique est formalisée non comme une application déterministe, mais comme un noyau stochastique effectif gouvernant les états prédictifs z :
z_{t+1} \sim K_\theta(\cdot \mid z_t, a_t), \qquad y_{t+1} \sim O_\theta(\cdot \mid z_{t+1}) \tag{6}
La frontière qui délimite l’observateur du chaos informationnel environnant est définie par une Couverture de Markov informationnelle correspondant à un patch d’observateur A \subset V. La dynamique à l’intérieur de cette frontière — les approximations du patch par l’agent — est gouvernée par l’Inférence active sous le Principe de l’Énergie Libre [9].
Nous pouvons définir formellement la capacité de délimitation via l’entropie de coupure prédictive :
S_{\mathrm{cut}}(A) := I(X_A ; X_{V \setminus A}) \tag{7}
En supposant que le patch sélectionné soit localement markovien sur une tranche temporelle, la coquille frontière \partial_R A isole strictement l’intérieur A^\circ de l’extérieur V \setminus A, de sorte que X_{A^\circ} \perp X_{V\setminus A} \mid X_{\partial_R A}. Par conséquent :
S_{\mathrm{cut}}(A) = I(X_{\partial_R A} ; X_{V \setminus A}) \le H(X_{\partial_R A}) \le |\partial_R A| \log q \tag{8}
Parce que Z_t est une compression à capacité limitée de X_A, l’inégalité de traitement des données garantit que I(Z_t ; X_{V \setminus A}) \le |\partial_R A| \log q. Si le graphe de substrat G approxime un réseau de dimension d, alors |\partial_R A| \sim \operatorname{area}(A), et non le volume.
Ainsi, l’OPT établit rigoureusement une véritable loi classique de frontière [39]. Nous pouvons construire une échelle épistémique formelle pour de futures améliorations structurelles : 1. Loi classique d’aire : S_{\mathrm{cut}} \sim |\partial_R A| dérivée uniquement de la localité et de l’écran markovien. 2. Extension quantique : la mise à l’échelle de l’entropie d’intrication de von Neumann ne devient accessible que si les variables prédictives grossières Z_t admettent un plongement formel dans un espace de Hilbert / en Correction d’Erreurs Quantiques. 3. Extension holographique : une véritable dualité holographique géométrique n’émerge que si nous remplaçons le code de goulot d’étranglement Z_t par un réseau tensoriel hiérarchique, en réinterprétant S_{\mathrm{cut}} comme une coupe minimale géométrique.
En établissant d’abord la loi classique de frontière, l’OPT fournit un socle mathématique solide — conditionné par l’hypothèse d’écran markovien (X_{A^\circ} \perp X_{V \setminus A} \mid X_{\partial_R A}) — à partir duquel les formalismes quantiques plus spéculatifs peuvent être construits en toute sécurité.
L’action de l’observateur est formalisée via l’énergie libre variationnelle F[q, \theta] :
F[q,\theta] = \mathbb{E}_q[-\log p_\theta(y_{1:T}, z_{1:T} \mid a_{1:T})] + \mathbb{E}_q[\log q(z_{1:T})] \tag{9}
De manière cruciale, cela impose une séparation mathématique stricte : l’a priori du substrat sélectionne l’espace des hypothèses, le Filtre de stabilité virtuel (4) borne la structure compatible avec la capacité, et le FEP (9) gouverne l’inférence au niveau de l’agent à l’intérieur de cette structure bornée. La physique n’émerge pas en tant que fonctionnelle d’Énergie Libre, mais comme la structure stable K_\theta que la fonctionnelle d’Énergie Libre parvient effectivement à suivre.
En outre, le maintien de ce rendu conscient entraîne un coût thermodynamique inévitable. Selon le principe de Landauer [52], chaque effacement de bit logiquement irréversible dissipe au moins k_B T \ln 2 de chaleur. En identifiant un effacement irréversible par mise à jour du goulot d’étranglement (hypothèse comptable dans le meilleur des cas), l’empreinte physique de la conscience requiert une dissipation minimale :
P_{\text{render}} \ge \dot{N}_{\text{erase}} \cdot k_B T \ln 2 \ge C_{\max} \cdot k_B T \ln 2 \tag{10}
Il s’agit d’une borne inférieure dans le meilleur des cas sous une comptabilité d’un effacement par mise à jour — et non d’une conséquence générique de la seule bande passante. La borne qui en résulte (\sim 10^{-19} W) est très largement dépassée par la dissipation neuronale réelle (~20W), ce qui reflète l’énorme surcoût thermodynamique de l’implémentation biologique. L’équation (10) établit le plancher théorique strict de l’empreinte physique minimale de tout substrat instanciant un rendu conscient borné par C_{\max}.
(Remarque : les bornes thermodynamiques et informationnelles qui précèdent régissent strictement la bande passante de mise à jour en temps réel C_{\max}. Toutefois, cela ne saisit ni la pleine dimension expérientielle de l’état stationnaire de l’observateur, ni la manière dont le codec gère sa propre complexité sur le temps long. Ces mécanismes structurels — la formulation en Tenseur d’État Phénoménal de l’expérience riche et le cycle actif de maintenance du sommeil/rêve — sont entièrement dérivés aux §3.5 et §3.6 ci-dessous.)
3.5 Le Tenseur d’État Phénoménal et l’asymétrie de prédiction
3.5.1 L’énigme de la densité expérientielle
L’appareil formel des §§3.1–3.4 contraint avec succès le débit de
mise à jour d’un observateur conscient via le plafond de capacité
C_{\max} \approx \mathcal{O}(10)
bits/s.
Cependant, l’expérience phénoménale présente une énigme structurelle
immédiate : la richesse ressentie d’un seul instant visuel — la présence
simultanée de la couleur, de la profondeur, de la texture, du son, de la
proprioception et de l’affect — dépasse de très loin le contenu
informationnel que C_{\max} pourrait
fournir dans une quelconque fenêtre unique de mise à jour \Delta t \approx 50\ \text{ms}.
L’information nouvelle maximale résolue par moment conscient est :
B_{\max} = C_{\max} \cdot \Delta t \approx 10\ \text{bits/s} \times 0.05\ \text{s} = 0.5\ \text{bits} \tag{T8-1}
Cela représente bien moins d’un bit d’information véritablement nouvelle par trame perceptive, et pourtant la scène phénoménale apparaît dense sur le plan informationnel. Pour résoudre cet écart sans gonfler l’étroite bande passante de mise à jour, nous devons distinguer explicitement deux quantités structurellement distinctes : 1. C_{\max} — le débit de mise à jour : le taux de signal d’erreur de prédiction résolu dans le registre causal stabilisé par unité de temps. 2. C_{\text{state}} — la complexité de l’état stationnaire : la complexité de Kolmogorov K(P_\theta(t)) du modèle génératif actuellement chargé et actif.
Il ne s’agit pas de la même quantité. C_{\max} gouverne le filtre ; C_{\text{state}} caractérise la pièce. Le reste de cette section précise cette distinction et introduit le Tenseur d’État Phénoménal P_\theta(t) comme l’objet formel correspondant à la scène intérieure stationnaire.
3.5.2 L’asymétrie de la prédiction : erreurs ascendantes et prédictions descendantes
L’OPT hérite de l’architecture du traitement prédictif (Clark [82], Hohwy [83] ; voir §7.3), dans laquelle le codec K_\theta fonctionne comme un modèle génératif hiérarchique. Dans cette architecture, deux flux d’information distincts traversent simultanément la Couverture de Markov \partial_R A :
Flux ascendant (erreur de prédiction, \varepsilon_t) : l’écart entre la prédiction actuelle de K_\theta et le signal sensoriel arrivant à \partial_R A. Il s’agit du signal de correction. Il est parcimonieux, guidé par la surprise, et strictement limité en capacité.
Flux descendant (prédiction, \pi_t) : le rendu actif, par le modèle génératif, des états sensoriels attendus, propagé des niveaux hiérarchiques supérieurs vers les niveaux inférieurs. C’est la scène elle-même. Il est dense, continu, et issu de la paramétrisation complète de K_\theta.
Formellement, soit l’état de frontière sensorielle X_{\partial_R A}(t), et soit l’état de frontière prédit par le codec :
\pi_t := \mathbb{E}_{K_\theta}\!\left[X_{\partial_R A}(t) \mid Z_t\right] \tag{T8-2}
L’erreur de prédiction est alors :
\varepsilon_t := X_{\partial_R A}(t) - \pi_t \tag{T8-3}
C_{\max} borne le signal d’erreur, non la prédiction. L’information mutuelle entre le signal d’erreur et l’état de goulot d’étranglement obéit à :
I(\varepsilon_t\,;\,Z_t) \leq C_{\max} \cdot \Delta t = B_{\max} \tag{T8-4}
La prédiction \pi_t, en revanche, est issue du modèle génératif complet et ne porte aucune contrainte de ce type. Son contenu informationnel n’est borné que par la complexité de K_\theta elle-même. Cette asymétrie constitue la base formelle de la distinction entre richesse phénoménale et bande passante de mise à jour.
3.5.3 Définition : le Tenseur d’État Phénoménal P_\theta(t)
Nous définissons nativement le Tenseur d’État Phénoménal P_\theta(t) comme le sous-ensemble intégral des paramètres actifs en régime permanent du modèle génératif déployé pour projeter à travers la Couverture de Markov au temps t :
P_\theta(t) := \bigl\{\, K_\theta(\cdot,\, \cdot) \,\bigr\}_{\text{active}} \tag{T8-5}
Autrement dit, P_\theta(t) est l’architecture paramétrée complète que le codec maintient actuellement prête à générer des prédictions sur les états de frontière observables X_{\partial_R A}, évaluée indépendamment de toute instanciation spécifique unique de l’état latent comprimé Z_t et de l’action a_t. Sa complexité structurelle est naturellement caractérisée par la complexité de Kolmogorov de cette configuration paramétrique permanente actuelle :
C_{\text{state}}(t) := K\!\left(P_\theta(t)\right) \tag{T8-6}
où K(\cdot) désigne la complexité de Kolmogorov préfixe. C_{\text{state}}(t) est la complexité de l’état permanent — le nombre de bits de structure compressée que le codec maintient actuellement en déploiement actif.
Borne supérieure sur le flux du canal de frontière. L’information mutuelle entre l’état de goulot d’étranglement et la frontière est bornée par les inégalités standards de Shannon [16] (Eq. 8 de l’article de base) :
I\!\left(Z_t\,;\,X_{\partial_R A}\right) \leq H\!\left(X_{\partial_R A}\right) \leq |\partial_R A|\cdot \log q \tag{T8-7}
Cela borne le flux de canal à travers la Couverture de Markov — immensément grand relativement à B_{\max}. Réserve importante : il s’agit d’une borne sur l’information mutuelle au sens de Shannon I(Z_t\,;\,X_{\partial_R A}), et non d’une borne sur la complexité de Kolmogorov K(P_\theta(t)) du modèle permanent. L’entropie de Shannon quantifie l’incertitude moyenne d’ensemble ; la complexité de Kolmogorov quantifie la longueur de description d’un objet calculable spécifique. Aucune inégalité générale ne relie ces quantités sans hypothèses supplémentaires (par ex., un prior universel sur les classes de modèles). Nous n’affirmons donc pas que C_{\text{state}} \leq H(X_{\partial_R A}). La complexité de l’état permanent C_{\text{state}} est bornée empiriquement (§3.10), et non par l’entropie de frontière.
Borne inférieure heuristique sur C_{\text{state}}. Le Filtre de stabilité contraint directement seulement le taux de mise à jour R_{\text{req}} \leq B_{\max}, et non la profondeur du modèle permanent. Cependant, un codec dont la complexité structurelle est insuffisante ne peut pas générer des prédictions précises \pi_t correspondant aux statistiques d’un environnement complexe à travers l’Éventail Prédictif \mathcal{F}_h(z_t). Cela impose un minimum pratique à C_{\text{state}} : en dessous d’un certain seuil, R_{\text{req}} excéderait systématiquement B_{\max} parce que les erreurs de prédiction \varepsilon_t seraient durablement grandes. Cette borne inférieure est motivée empiriquement plutôt que dérivée formellement — aucune expression en forme fermée C_{\text{state}} \geq f(R_{\text{req}}, \text{environment statistics}) n’est actuellement disponible.
Lecture matérialisée vs dispositionnelle (question ouverte). P_\theta(t) tel que défini ci-dessus admet deux lectures que le cadre ne distingue pas encore formellement : (a) une lecture matérialisée, dans laquelle P_\theta(t) est une représentation dense, chargée instantanément, dont la richesse est présente sous forme active à chaque trame, et (b) une lecture dispositionnelle, dans laquelle P_\theta(t) est une capacité générative — un programme permanent capable de produire la scène à la demande, sans que l’ensemble en soit matérialisé entre la requête et la réponse. Les deux sont compatibles avec les clauses ci-dessus relatives au canal de frontière et à la borne inférieure heuristique, ainsi qu’avec l’engagement empirique de la §3.5.6 selon lequel la richesse est corrélée à K(K_\theta) plutôt qu’à la bande passante de mise à jour. Elles diffèrent quant au sens de « chargé » et quant à ce qui doit être mesuré lorsqu’on sonde directement K(P_\theta). La complexité de Kolmogorov, à elle seule, ne permet pas de les départager : un petit K(P_\theta) peut soutenir une grande profondeur logique, une forte capacité requête-réponse, ou une longue expansion en temps d’exécution. Nous adoptons ici la lecture dispositionnelle comme interprétation canonique — P_\theta(t) est l’état génératif dispositionnel actif à partir duquel la scène peut être interrogée/produite en rendu, sans être nécessairement un objet de scène dense entièrement matérialisé — tout en signalant la lecture matérialisée comme une opérationnalisation concurrente que de futurs travaux empiriques pourront retenir.
3.5.4 La distinction de Block comme Corollaire Structurel
La distinction formelle entre P_\theta(t) et Z_t correspond précisément à la distinction de Ned Block entre conscience phénoménale (P-conscience) et conscience d’accès (A-conscience) [47] :
| Catégorie de Block | Objet OPT | Contenu informationnel | Limité par la bande passante ? |
|---|---|---|---|
| P-conscience (qualia, scène ressentie) | P_\theta(t) | C_{\text{state}} = K(P_\theta(t)) \gg B_{\max} | Non |
| A-conscience (contenu rapportable) | Z_t | B_{\max} = C_{\max} \cdot \Delta t \approx 0.5\ \text{bits} | Oui |
Dans l’OPT, la P-conscience est la prédiction descendante \pi_t tirée du tenseur complet P_\theta(t). L’A-conscience est la sortie du goulot d’étranglement Z_t — la fine tranche de la scène qui a été suffisamment compressée pour entrer dans le registre causal \mathcal{R}_t et devenir disponible au rapport. La richesse ressentie d’un moment visuel est P_\theta(t) ; la capacité à dire « je vois du rouge » exige que cette caractéristique passe par Z_t.
Ce corollaire résout le paradoxe apparent d’une scène phénoménale riche soutenue par un canal de mise à jour inférieur au bit : la scène n’est pas acheminée par le canal à chaque trame — elle est déjà chargée dans P_\theta(t). Le canal la met à jour, de manière incrémentale et sélective, trame après trame.
3.5.5 La dynamique de mise à jour de P_\theta(t)
La règle de mise à jour de P_\theta(t) est gouvernée par le signal d’erreur de prédiction \varepsilon_t filtré à travers le goulot d’étranglement :
P_\theta(t+1) = \mathcal{U}\!\left(P_\theta(t),\, \varepsilon_t,\, Z_t\right) \tag{T8-8}
où \mathcal{U} est l’opérateur d’apprentissage du codec — en termes d’Inférence active, le pas de gradient sur l’énergie libre variationnelle \mathcal{F}[q, \theta] (Eq. 9 de l’article de base) restreint par la contrainte de capacité I(X_t\,;\,Z_t) \leq B.
La propriété structurelle essentielle est que \mathcal{U} est sélectif : seules les régions de P_\theta(t) impliquées par l’erreur de prédiction courante \varepsilon_t sont mises à jour. Le reste du tenseur permanent est maintenu constant d’une trame à l’autre. Cela confère au moment conscient sa structure caractéristique : un arrière-plan phénoménal stable sur lequel vient se détacher un petit premier plan de nouveauté résolue.
Le codec met ainsi en œuvre une forme de mise à jour parcimonieuse sur un a priori dense — un principe de conception qui maximise la cohérence phénoménale par unité de bande passante de mise à jour.
3.5.6 Portée et statut épistémique
Le Tenseur d’État Phénoménal P_\theta(t) constitue une caractérisation formelle de l’ombre structurelle que la scène phénoménale doit projeter, conformément à l’Axiome d’Agentivité (§3.6). Il ne résout pas le Problème difficile. L’OPT continue de traiter la conscience phénoménale comme un primitif irréductible ; P_\theta(t) spécifie la géométrie du contenant, non la nature de son contenu.
L’affirmation est structurelle et falsifiable au sens suivant : si la richesse qualitative de l’expérience rapportée (telle qu’opérationnalisée, par exemple, au moyen de mesures de complexité phénoménale dans des tâches psychophysiques) corrèle avec la profondeur du codec — la complexité hiérarchique de K_\theta telle que mesurable via des marqueurs neuronaux de hiérarchie prédictive — plutôt qu’avec la bande passante de mise à jour C_{\max}, alors la distinction P_\theta\,/\,Z_t reçoit un appui empirique. Les états psychédéliques, qui modifient de façon spectaculaire la structure de K_\theta sans altérer de manière constante le débit comportemental, constituent un domaine d’épreuve naturel.
3.6 Le cycle de vie du codec : l’opérateur de Cycle de Maintenance \mathcal{M}_\tau
3.6.1 Le problème du codec statique
Le cadre des §§3.1–3.5 traite K_\theta et sa réalisation P_\theta(t) comme dynamiques à travers les cadres de mise à jour, mais suppose implicitement que l’architecture structurelle du codec — l’espace des paramètres \Theta lui-même — est fixe. Cela suffit pour une analyse synchronique d’un unique moment conscient, mais demeure insuffisant pour une théorie de la conscience à l’échelle du temps profond.
Un codec opérant de manière continue accumule de la complexité structurelle : chaque motif appris ajoute des paramètres à K_\theta, augmentant C_{\text{state}}(t). Sans mécanisme de réduction contrôlée de la complexité, C_{\text{state}} croîtrait de façon monotone jusqu’à ce que le codec dépasse son plafond de viabilité thermodynamique — le point auquel le coût métabolique du maintien de P_\theta(t) excède le budget énergétique de l’organisme, ou auquel la complexité interne de K_\theta dépasse la longueur de description compatible avec la capacité du Filtre de stabilité.
Cette section introduit l’opérateur de Cycle de Maintenance \mathcal{M}_\tau — le mécanisme formel par lequel le codec gère sa propre complexité au fil du temps, en opérant principalement durant des états de charge sensorielle réduite (paradigmatiquement : le sommeil).
3.6.2 La Condition de Maintenance
Définissons la condition d’exécutabilité du codec comme l’exigence selon laquelle la complexité de Kolmogorov du modèle génératif courant demeure inférieure à un plafond structurel C_{\text{ceil}} fixé par le budget thermodynamique de l’organisme :
K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \tag{T9-1}
C_{\text{ceil}} n’est pas identique à C_{\max}. Il s’agit d’une quantité bien plus grande — la complexité structurelle totale que le codec peut soutenir dans son espace de paramètres — mais elle est finie. Les violations de (T9-1) correspondent à une surcharge cognitive, à des interférences mnésiques et, en dernière instance, au cas pathologique décrit par Borges [53] dans Funes ou la mémoire : un système qui a acquis tant de détails non compressés qu’il ne peut plus fonctionner de manière prédictive.
L’Opérateur de Cycle de Maintenance \mathcal{M}_\tau est défini comme agissant durant les périodes où R_{\text{req}} \ll C_{\max} — plus précisément, lorsque le taux prédictif requis chute suffisamment pour que la bande passante ainsi libérée puisse être redirigée vers une restructuration interne :
\mathcal{M}_\tau : P_\theta(t) \;\longrightarrow\; P_\theta(t + \tau) \qquad \text{during} \quad R_{\text{req}}(t) \ll C_{\max} \tag{T9-2}
\mathcal{M}_\tau se décompose en trois passes structurellement distinctes, chacune visant un aspect différent de la gestion de la complexité du codec.
3.6.3 Passe I — Élagage (l’oubli comme pression MDL active)
La première passe applique une pression de Longueur de Description Minimale (MDL) aux paramètres actuels du codec. Pour chaque composante \theta_i du modèle génératif K_\theta, définissons sa contribution prédictive comme l’information mutuelle qu’elle fournit au sujet du flux futur d’observations, nette du coût de stockage nécessaire à sa conservation :
\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}
où \theta_{-i} désigne l’ensemble des paramètres à l’exception de \theta_i, \lambda est un seuil de rétention (bits de prédiction future obtenus par bit de complexité du modèle), et K(\theta_i) est la longueur de description de la composante.
La règle d’élagage est :
\text{Prune } \theta_i \quad \text{if} \quad \Delta_{\mathrm{MDL}}(\theta_i) < 0 \tag{T9-4}
Autrement dit, on élimine \theta_i lorsque sa contribution prédictive par bit de stockage tombe au-dessous du seuil \lambda. L’oubli est ainsi formalisé non comme une défaillance, mais comme un effacement thermodynamiquement rationnel : chaque composante élaguée restitue K(\theta_i) bits de capacité du modèle, réutilisables.
Selon le principe de Landauer [52], chaque opération d’élagage établit un plancher thermodynamique pour l’effacement :
W_{\text{prune}}(\theta_i) \geq K(\theta_i) \cdot k_B T \ln 2 \tag{T9-5}
Bien que le métabolisme biologique réel opère plusieurs ordres de grandeur au-dessus de ce minimum théorique (watts contre femtowatts), en raison de surcoûts d’implémentation considérables, la nécessité structurelle de ce coût demeure. Le complément de Bennett au principe de Landauer [92] affine encore ce point : un calcul logiquement réversible peut, en principe, tendre vers une dissipation nulle ; le plancher de Landauer s’applique donc spécifiquement à l’effacement, et non à la prédiction ou à la transformation. La passe d’élagage — et non la passe de prédiction — constitue ainsi l’étape thermodynamiquement irréductible du Cycle de Maintenance. Dans l’OPT, le sommeil porte une signature thermodynamique fondamentale : c’est une période d’effacement d’information net dont le coût énergétique est imposé par la physique plutôt que par la seule inefficacité biologique.
La réduction agrégée de complexité de la passe d’élagage est :
\Delta K_{\text{prune}} = \sum_i K(\theta_i)\cdot \mathbf{1}\!\left[\Delta_{\mathrm{MDL}}(\theta_i) < 0\right] \tag{T9-6}
3.6.4 Passe II — Consolidation (l’apprentissage comme gain de compression)
La passe d’élagage élimine les composantes dont le rendement prédictif est insuffisant. La passe de consolidation réorganise les composantes restantes en représentations plus compressées.
Au cours du fonctionnement à l’état de veille, le codec acquiert des motifs sous la pression du temps réel : chaque mise à jour doit être calculée dans \Delta t, ce qui ne laisse aucun temps pour une réorganisation structurelle globale de K_\theta. Les motifs acquis récemment sont stockés sous une forme relativement peu compressée — avec un K(\theta_{\text{new}}) élevé au regard de la contribution prédictive qu’ils fournissent. La passe de consolidation applique une compression MDL hors ligne à ces acquisitions récentes.
Soit \Theta_{\text{recent}} \subset \Theta l’ensemble des paramètres acquis depuis le dernier cycle de maintenance. L’opérateur de consolidation recherche la reparamétrisation \theta' de complexité minimale de \Theta_{\text{recent}} telle que la distribution prédictive qu’elle génère reste, par rapport à l’originale, dans une distorsion tolérable D_c :
\theta'_{\text{cons}} = \arg\min_{\theta'} K(\theta') \quad \text{s.t.} \quad D_{\mathrm{KL}}\!\left(P_{\theta'}(\cdot) \,\Big\|\, P_{\Theta_{\text{recent}}}(\cdot)\right) \leq D_c \tag{T9-7}
Le gain de compression récupéré est :
\Delta K_{\text{compress}} = K(\Theta_{\text{recent}}) - K(\theta'_{\text{cons}}) \tag{T9-8}
\Delta K_{\text{compress}} est le nombre de bits de capacité de modèle récupérés par la réorganisation de l’expérience récente en représentations plus efficaces. Chaque unité de \Delta K_{\text{compress}} réduit directement le futur R_{\text{req}} pour des environnements similaires — le codec devient moins coûteux à faire fonctionner en terrain familier.
Cela formalise la fonction empiriquement observée de la consolidation mnésique hippocampo-néocorticale durant le sommeil à ondes lentes : le transfert d’un stockage épisodique à haute bande passante (hippocampe, K élevé) vers un stockage sémantique compressé (néocortex, K faible) constitue précisément l’opération de compression de (T9-7). La prédiction est que le gain de compression \Delta K_{\text{compress}} devrait être corrélé au degré d’amélioration comportementale observé après le sommeil dans des tâches impliquant la reconnaissance de motifs structurés.
3.6.5 Passe III — Échantillonnage de l’Éventail Prédictif (le rêve comme auto-test adversarial)
La troisième passe opère principalement durant le sommeil paradoxal, lorsque l’entrée sensorielle est activement filtrée et que la sortie motrice est inhibée. Dans ces conditions, R_{\text{req}} \approx 0 : le codec ne reçoit aucun signal de correction en provenance de l’environnement externe. L’intégralité du budget de bande passante C_{\max} est alors disponible pour un fonctionnement interne.
L’OPT formalise cet état comme une exploration non contrainte de l’Éventail Prédictif : le codec génère des trajectoires à travers \mathcal{F}_h(z_t) — l’ensemble des séquences futures admissibles (Eq. 5 de l’article de base) — sans ancrer ces trajectoires à des données entrantes réelles. Il s’agit d’une simulation : le codec fait tourner son modèle génératif K_\theta vers l’avant dans le temps, sans être entravé par la réalité.
La distribution d’échantillonnage sur l’éventail n’est pas uniforme. Définissons le poids d’importance d’une branche b \in \mathcal{F}_h(z_t) comme suit :
w(b) := \exp\!\left(\beta\cdot |E(b)|\right) \tag{T9-9}
où \beta est un paramètre de température inverse et E(b) la valence émotionnelle de la branche, définie par :
E(b) := -\log P_{K_\theta}(b \mid z_t) + \alpha \cdot \mathrm{threat}(b) \tag{T9-10}
Le premier terme -\log P_{K_\theta}(b \mid z_t) est le logarithme négatif de la probabilité de la branche sous le codec courant — sa valeur de surprise. Le second terme \mathrm{threat}(b) est une mesure des conséquences pertinentes pour l’aptitude formellement définie comme l’augmentation attendue du Taux Prédictif Requis si le codec devait traverser la branche b :
\mathrm{threat}(b) := \mathbb{E}\!\left[\, R_{\text{req}}(D_{\min} \mid b) - R_{\text{req}}(D_{\min} \mid z_t)\,\right] \tag{T9-10a}
Autrement dit, \mathrm{threat}(b) quantifie dans quelle mesure la branche b, si elle se réalisait à l’état de veille, pousserait le codec vers son plafond de bande passante B_{\max}, voire au-delà — par dommage physique, rupture sociale ou effondrement narratif imposant une révision coûteuse du modèle. Les branches pour lesquelles \mathrm{threat}(b) > B_{\max} - R_{\text{req}}(D_{\min} \mid z_t) sont existentiellement menaçantes : elles violeraient la condition du Filtre de stabilité. Le paramètre de pondération \alpha \geq 0 contrôle l’influence relative des conséquences par rapport à la surprise dans la distribution d’échantillonnage.
L’opérateur d’échantillonnage tire des branches proportionnellement à w(b) :
b_{\text{sample}} \sim \mathcal{F}_h(z_t) \quad \text{with probability} \propto w(b) \tag{T9-11}
Cela met en œuvre un échantillonnage de l’Éventail Prédictif pondéré par importance : le codec répète de manière disproportionnée les branches qui sont soit hautement surprenantes, soit hautement conséquentes, indépendamment de leur probabilité de base. Les branches de faible probabilité mais de menace élevée — précisément celles pour lesquelles le codec est le moins préparé — reçoivent la plus grande attention d’échantillonnage.
Chaque branche échantillonnée est ensuite évaluée quant à sa cohérence sous K_\theta. Les branches qui génèrent des séquences prédictives incohérentes — où le propre modèle génératif du codec ne peut maintenir la stabilité narrative — sont identifiées comme des points de fragilité : des régions de l’Éventail Prédictif où le codec échouerait si la branche était rencontrée à l’état de veille. Le codec peut alors mettre à jour P_\theta afin de réduire la vulnérabilité de K_\theta en ces points, avant d’y être exposé avec de véritables enjeux thermodynamiques.
Le rêve constitue donc un auto-test adversarial du codec à risque nul. La conséquence fonctionnelle en est un codec systématiquement mieux préparé aux branches de son propre Éventail Prédictif qui sont peu probables mais à fortes conséquences. Ce cadrage OPT fournit un ancrage informationnel à la théorie de la simulation de menace du rêve de Revonsuo [46], en l’étendant d’un compte rendu évolutionniste-fonctionnel à une nécessité structurelle formelle : tout codec opérant sous le Filtre de stabilité doit périodiquement soumettre son propre Éventail Prédictif à des tests de résistance, et l’état de maintenance hors ligne est la seule période où cela peut être fait sans coût thermodynamique dans le monde réel.
Marquage émotionnel comme a priori de poids de rétention. À l’état de veille, la valence émotionnelle E(b) calculée durant l’échantillonnage REM sert de poids a priori de rétention qui biaise le seuil MDL \lambda dans (T9-3). Les expériences présentant un |E(b)| élevé — fortement surprenantes ou lourdes de conséquences — se voient attribuer un \lambda effectif plus élevé, ce qui les rend plus résistantes à l’élagage lors du cycle de maintenance suivant. C’est là le compte rendu formel du renforcement émotionnel de la mémoire : l’affect n’est pas un bruit qui contaminerait le système mnésique ; il est le signal de pertinence du codec, marquant les motifs dont la valeur prédictive excède leur fréquence statistique de base.
3.6.6 Le Cycle de Maintenance complet et le budget net de complexité
Les trois passes de \mathcal{M}_\tau se composent séquentiellement. L’effet net sur la complexité du codec au cours d’un cycle de maintenance de durée \tau est :
K\!\left(P_\theta(t+\tau)\right) = K\!\left(P_\theta(t)\right) - \Delta K_{\text{prune}} - \Delta K_{\text{compress}} + \Delta K_{\text{REM}} \tag{T9-12}
où \Delta K_{\text{REM}} est le faible incrément positif provenant des motifs nouvellement consolidés lors de la passe d’échantillonnage REM — ces réparations de points de fragilité qui ont nécessité de nouvelles mises à jour de paramètres.
Pour un système cognitif stable opérant sur plusieurs années, le budget de long terme exige :
\left\langle \Delta K_{\text{prune}} + \Delta K_{\text{compress}} \right\rangle \geq \left\langle \Delta K_{\text{waking}} + \Delta K_{\text{REM}} \right\rangle \tag{T9-13}
où \Delta K_{\text{waking}} est la complexité acquise durant la période d’éveil précédente. L’inégalité (T9-13) énonce formellement que la maintenance doit suivre le rythme de l’acquisition. En termes de l’OPT, la privation chronique de sommeil n’est pas simplement de la fatigue — c’est un débordement progressif de complexité : le codec s’approche de C_{\text{ceil}} tandis que son budget d’élagage et de consolidation est insuffisant pour rétablir une marge de manœuvre.
3.6.7 Prédictions empiriques
Le cadre du Cycle de Maintenance engendre les attentes structurelles testables suivantes :
La durée du sommeil croît avec la complexité du codec. Les organismes ou les individus qui acquièrent davantage d’informations structurées pendant les périodes d’éveil devraient nécessiter des cycles de maintenance proportionnellement plus longs ou plus profonds. La prédiction n’est pas simplement que le travail cognitif difficile exige davantage de sommeil (ce qui est établi), mais que le type d’apprentissage importe : un apprentissage riche en motifs et compressible devrait requérir moins de temps de consolidation qu’une expérience non structurée, à forte entropie, parce que \Delta K_{\text{compress}} est plus grand dans le premier cas.
Le contenu du REM est pondéré par l’importance sur l’Éventail Prédictif, et non par la fréquence. Le contenu onirique devrait échantillonner de manière disproportionnée des branches à faible probabilité mais à fortes conséquences, relativement à leur fréquence à l’état de veille. Cela concorde avec la prédominance empirique des contenus de menace, de conflit social et d’environnement nouveau dans les récits de rêve — le codec échantillonne ce qu’il doit soumettre à un test de résistance, non ce qu’il rencontre le plus souvent.
L’efficacité de compression s’améliore après le sommeil en proportion de \Delta K_{\text{compress}}. La prédiction spécifique est que les améliorations de performance après le sommeil devraient être maximales pour les tâches exigeant une généralisation structurelle (c’est-à-dire l’application d’une règle compressée à de nouveaux cas) plutôt qu’une simple répétition — parce que \Delta K_{\text{compress}} réorganise spécifiquement \Theta_{\text{recent}} en formes plus généralisables.
La rumination pathologique correspond à un échantillonnage REM bloqué sur des branches à |E| élevé. Si le paramètre de pondération par l’importance \beta est pathologiquement élevé, la distribution d’échantillonnage sur \mathcal{F}_h(z_t) se concentre sur les branches de forte menace au détriment de la réparation. Le codec passe son cycle de maintenance à échantillonner de façon répétée les mêmes branches menaçantes sans parvenir à réduire leur valeur de surprise — la structure formelle des cauchemars d’anxiété et de TSPT.
3.6.8 Relation avec le Tenseur d’État Phénoménal
\mathcal{M}_\tau agit sur P_\theta(t) tel que défini en §3.5 : il restructure la complexité de l’état stationnaire C_{\text{state}} au cours de la fenêtre de maintenance. Le profil temporel de P_\theta(t) sous \mathcal{M}_\tau est le suivant :
- Acquisition à l’éveil : C_{\text{state}} augmente à un taux borné par l’opérateur d’apprentissage \mathcal{U} (Éq. T8-8), à mesure que de nouveaux motifs sont incorporés dans K_\theta.
- Sommeil à ondes lentes (Passes I–II) : C_{\text{state}} diminue à mesure que l’élagage et la consolidation restaurent la capacité du modèle.
- REM (Passe III) : C_{\text{state}} subit une augmentation locale sélective aux points de fragilité, avec un effet net faible relativement aux réductions des Passes I–II.
L’expérience consciente correspondant à chaque phase est cohérente avec cette structure : la vie éveillée accumule la richesse de P_\theta(t) ; le sommeil à ondes lentes est phénoménalement pauvre ou absent (ce qui concorde avec une activation minimale de P_\theta(t) durant la réorganisation structurelle) ; le REM présente une scène phénoménalement vive mais générée de l’intérieur (la Passe III faisant tourner vers l’avant le modèle génératif complet en l’absence de correction sensorielle).
Résumé : Nouveaux objets formels introduits
| Symbole | Nom | Définition | Équation |
|---|---|---|---|
| P_\theta(t) | Tenseur d’État Phénoménal | Activation complète de K_\theta au temps t, projetée à travers \partial_R A | T8-5 |
| C_{\text{state}}(t) | Complexité de l’état stationnaire | K(P_\theta(t)), complexité de Kolmogorov du codec actif | T8-6 |
| \pi_t | Prédiction descendante | \mathbb{E}_{K_\theta}[X_{\partial_R A}(t) \mid Z_t], la scène rendue | T8-2 |
| \varepsilon_t | Erreur de prédiction (ascendante) | X_{\partial_R A}(t) - \pi_t, signal de nouveauté borné par C_{\max} | T8-3 |
| \mathcal{M}_\tau | Opérateur du Cycle de Maintenance | P_\theta(t) \to P_\theta(t+\tau) sous faible R_{\text{req}} | T9-2 |
| \Delta_{\mathrm{MDL}}(\theta_i) | Score de rétention MDL | Contribution prédictive moins coût de stockage | T9-3 |
| E(b) | Valence émotionnelle de branche | Surprise plus menace pondérée de la branche b | T9-10 |
| w(b) | Poids d’importance de branche | \exp(\beta \cdot |E(b)|), détermine la distribution d’échantillonnage REM | T9-9 |
| \Delta K_{\text{prune}} | Récupération de complexité par élagage | Bits récupérés par l’oubli des composantes sous le seuil | T9-6 |
| \Delta K_{\text{compress}} | Gain de compression par consolidation | Bits récupérés par recompression MDL des acquisitions récentes | T9-8 |
3.7 La Correspondance par Réseau de Tenseurs : induire la géométrie à partir de la distance de code
L’Échelle Épistémique introduite au §3.4 établit une Loi de Frontière Classique rigoureuse (S_{\mathrm{cut}} \sim |\partial_R A|). Cependant, pour relier pleinement la Théorie du Patch Ordonné (OPT) à la géométrisation de l’information quantique (par ex., AdS/CFT et la formule de Ryu-Takayanagi), nous devons rehausser formellement la structure du code latent Z_t.
Si nous postulons formellement que l’application de goulot d’étranglement q^\star(z \mid X_t) n’extrait pas simplement une liste plate de caractéristiques, mais opère via un flot récursif de groupe de renormalisation par coarse-graining, alors le modèle génératif s’aligne structurellement sur la géométrie d’un réseau de tenseurs hiérarchique \mathcal{T} (semblable à MERA [43] ou aux réseaux HaPY [44]). (Remarque : l’Appendice T-3 dérive formellement une correspondance homomorphe structurelle entre la cascade de coarse-graining du Filtre de stabilité et la géométrie bornante du réseau MERA, en faisant correspondre strictement le Cône Causal Informationnel au cône causal MERA équivalent.) Les états de bord de ce réseau sont précisément les états de frontière de Markov filtrés X_{\partial_R A}. Le réseau \mathcal{T} agit comme une géométrie de bulk dont la « profondeur » représente les couches de coarse-graining computationnel requises pour comprimer la frontière dans l’état minimal de goulot d’étranglement Z_t.
Sous cette requalification en réseau de tenseurs, l’entropie de coupure prédictive S_{\mathrm{cut}}(A) à travers la frontière se transforme mathématiquement en le nombre minimal de liaisons tensorielles qui doivent être sectionnées pour isoler la sous-région A. Soit \chi la dimension de liaison du réseau. La borne de capacité se transpose alors en interne comme suit :
S_{\mathrm{cut}}(A) \le |\gamma_A| \log \chi \tag{11}
où \gamma_A est la surface de coupe minimale à travers la structure interne de données de bulk en couche profonde de \mathcal{T}. Il s’agit explicitement d’un analogue structurel discret de la couche de coupe minimale de bulk cartographiée par la borne holographique d’entropie de Ryu-Takayanagi [89]. L’Appendice P-2 (Théorème P-2d) établit formellement la formule RT quantique discrète complète S_{\text{vN}}(\rho_A) \leq |\gamma_A| \log \chi via le rang de Schmidt de l’état MERA, sous condition du modèle local de bruit et de l’inclusion QECC qui y sont dérivés. La limite continue permettant de rehausser cela jusqu’à la formule complète de Ryu-Takayanagi avec terme de correction de bulk demeure une frontière ouverte.
De manière cruciale, dans l’OPT, cet « espace de bulk » n’est pas un contenant physique préexistant. C’est l’espace métrique strictement informationnel du codec de l’observateur. La géométrie spatio-temporelle phénoménologique émergente se « courbe » précisément là où la distance de code requise diverge pour résoudre des états causaux internes qui se chevauchent. Ce formalisme en réseau de tenseurs illustre une voie formelle par laquelle l’OPT pourrait induire la géométrie spatiale directement à partir des distances de correction d’erreurs intrinsèquement imposées par le Filtre de stabilité — en alignement structurel avec le programme de Van Raamsdonk selon lequel l’intrication construit l’espace-temps [88] — en offrant une conjecture constructive selon laquelle l’espace-temps holographique modélise des formats optimaux de compression de données.
3.8 L’Axiome d’Agentivité & le Résidu Phénoménal
L’appareil mathématique développé dans les sections 3.1–3.7 définit avec précision la géométrie de la réalité de l’observateur — le réseau tensoriel, la coupe prédictive et le cône causal. Cependant, quelle est la nature de l’intériorité primitive qui fait l’expérience de sa traversée ? Nous la définissons formellement au moyen de l’Axiome d’Agentivité : la traversée de l’ouverture C_{\max} est intrinsèquement un événement phénoménologique.
Bien que nous tenions la présence du ressenti subjectif pour axiomatique, le Théorème P-4 (le Résidu Phénoménal) en identifie le corrélat structurel rigoureux. Parce que le codec borné perturbe activement la frontière \partial_R A, une prédiction stable dans les limites de C_{\max} exige qu’il modélise les conséquences de ses propres actions futures. Ainsi, le codec K_{\theta} doit maintenir un auto-modèle prédictif \hat{K}_{\theta}. Cependant, en vertu des bornes algorithmiques du confinement informationnel [13], un système computationnel fini ne peut contenir une représentation structurelle complète de lui-même ; le modèle interne est strictement borné à une complexité inférieure à celle du codec parent (K(\hat{K}_{\theta}) < K(K_{\theta})).
Cela rend nécessaire un Résidu Phénoménal irréductible (\Delta_{\text{self}} > 0). Ce résidu non modélisable agit comme l’« angle mort » computationnel au sein du cycle d’Inférence active. Parce qu’il existe dans l’ombre informationnelle qui excède la portée computationnelle de l’auto-modèle, il est intrinsèquement ineffable ; parce qu’il existe comme delta localisé entre un codec spécifique et son modèle, il est computationnellement privé ; et, parce qu’il est imposé par les limites fondamentales de l’auto-référence et par l’approximation variationnelle nécessaire, il est inéliminable. Le resserrement topologique à l’ouverture C_{\max} est intrinsèquement corrélé à la nécessité mathématique d’un algorithme incomplet traversant ses propres frontières. Les mathématiques décrivent le contour formel de l’expérience, et l’Axiome d’Agentivité affirme que ce locus résiduel constitue le « je » subjectif. (Voir Appendice P-4 pour la dérivation formelle).
Le Circuit Informationnel de Maintenance
Au sein d’un unique cadre de mise à jour [t, t+\Delta t], l’observateur exécute le circuit causal fermé suivant :
P_\theta(t) \;\xrightarrow{\ \pi_t\ }\; \partial_R A \;\xrightarrow{\ \varepsilon_t\ }\; Z_t \;\xrightarrow{\ \mathcal{U}\ }\; P_\theta(t+1) \tag{T6-1}
Explicitement :
Prédiction (descendante) : Le tenseur courant P_\theta(t) génère l’état de frontière prédit \pi_t = \mathbb{E}_{K_\theta}[X_{\partial_R A}(t) \mid Z_t] — la scène rendue.
Erreur (ascendante) : L’état de frontière effectif X_{\partial_R A}(t) arrive ; l’erreur de prédiction \varepsilon_t = X_{\partial_R A}(t) - \pi_t est calculée.
Compression : \varepsilon_t est transmis à travers le goulot d’étranglement pour produire Z_t, le jeton de mise à jour à capacité limitée, avec I(\varepsilon_t\,;\,Z_t) \leq B_{\max}.
Mise à jour : L’opérateur d’apprentissage \mathcal{U}(P_\theta(t), \varepsilon_t, Z_t) révise P_\theta(t+1), en ne modifiant sélectivement que les régions du tenseur impliquées par \varepsilon_t.
Action : Simultanément, P_\theta(t) sélectionne l’action a_t via une descente d’Inférence active sur l’énergie libre variationnelle \mathcal{F}[q,\theta] (Eq. 9 de l’article de base), ce qui modifie la frontière sensorielle à t+1, influençant le prochain \varepsilon_{t+1}.
Note interprétative sur l’étape d’action. Le langage de l’étape 5 — « sélectionne l’action » et « modifie la frontière sensorielle » — est hérité du formalisme standard de l’Inférence active du Principe d’Énergie Libre, qui suppose un environnement physique sur lequel l’agent agit via des états actifs. Dans l’ontologie propre du rendu de l’OPT (§8.6), une lecture plus profonde s’impose : il n’existe pas de monde extérieur indépendant contre lequel le codec exercerait une force. Ce qui est éprouvé comme « action » est une sélection de branche au sein de l’Éventail Prédictif \mathcal{F}_h(z_t) ; les conséquences physiques de cette sélection arrivent comme entrée subséquente \varepsilon_{t+1}. La Couverture de Markov \partial_R A n’est pas une interface physique bidirectionnelle, mais la surface à travers laquelle la branche sélectionnée délivre son segment suivant. Ce déplacement interprétatif ne change rien aux mathématiques de (T6-1)–(T6-3) ; il clarifie le statut ontologique de l’étape d’action dans le cadre de l’OPT. Le mécanisme de sélection de branche lui-même est traité ci-dessous.
Il s’agit du circuit informationnel de maintenance intra-cadre : un mécanisme causal fermé dans lequel le modèle interne du système calcule des prédictions structurelles localisées bornant les gradients de frontière, lit l’erreur, puis se met sélectivement à jour. La boucle est strictement informationnelle et autoréférentielle au sens formel : P_\theta(t) détermine à la fois la prédiction structurelle \pi_t et, via l’action a_t, une composante prédictive de l’entrée suivante du flux de données séquentiel X_{\partial_R A}(t+1). (Notons explicitement : cette couche de filtrage purement statistique est définie rigoureusement par des frontières de Markov informationnelles découplant nettement les dynamiques, et diffère intrinsèquement de l’autopoïèse biologique complexe, où les structures cellulaires fabriquent mécaniquement leurs propres réseaux organiques de masse).
La Condition de Viabilité Structurelle
Le circuit (T6-1) est structurellement viable si et seulement s’il peut se maintenir sans que la complexité informationnelle du codec n’excède ses limites locales d’exécutabilité. Formellement :
K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \quad \forall\, t \tag{T6-2}
où C_{\text{ceil}} est un paramètre heuristique bornant la complexité structurelle maximale que le codec peut soutenir. En principe, C_{\text{ceil}} devrait pouvoir être dérivé du budget thermodynamique de l’organisme via le principe de Landauer (voir l’esquisse en §3.10), mais la chaîne complète de dérivation — de la puissance métabolique au coût d’effacement puis à la complexité maximale de programme soutenable — n’est pas encore formalisée dans l’OPT. C_{\text{ceil}} demeure donc une borne motivée empiriquement, mais formellement sous-déterminée. Un système satisfaisant (T6-2) fonctionne comme un observateur structurellement clos au sens formel de l’OPT.
Lorsque (T6-2) est violée — lorsque K(P_\theta(t)) \to C_{\text{ceil}} — le codec ne peut plus maintenir des prédictions stables à travers \mathcal{F}_h(z_t), R_{\text{req}} commence à dépasser B_{\max}, et la condition du Filtre de stabilité échoue. La cohérence narrative s’effondre : l’observateur sort de l’ensemble des flux compatibles avec l’observateur.
Le Cycle de Maintenance \mathcal{M}_\tau (§3.6) est le mécanisme qui impose (T6-2) sur la longue durée, en maintenant K(P_\theta) dans les bornes par élagage, consolidation et tests de résistance sur l’Éventail Prédictif. À l’intérieur d’un cadre donné, (T6-2) est maintenue par la sélectivité de \mathcal{U} : l’opérateur de mise à jour ne modifie que les régions de P_\theta(t) impliquées par \varepsilon_t, évitant toute croissance gratuite de la complexité à chaque frame.
L’agentivité comme minimisation contrainte de l’énergie libre
Au sein de cette structure, l’agentivité peut recevoir une définition formelle précise, compatible avec — sans pour autant se réduire à — l’Axiome d’Agentivité.
Au niveau des systèmes, l’agentivité est la sélection de la séquence d’actions \{a_t\} qui minimise l’énergie libre variationnelle attendue sous la contrainte de la condition de viabilité informationnelle :
a_t^\star = \arg\min_{a_t} \;\mathbb{E}\!\left[\mathcal{F}[q, \theta]\right] \quad \text{subject to} \quad K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \tag{T6-3}
Il s’agit d’une Inférence active contrainte : l’observateur navigue dans l’éventail prédictif \mathcal{F}_h(z_t) non pas seulement pour minimiser l’erreur de prédiction, mais pour minimiser l’erreur de prédiction tout en maintenant la viabilité du codec. Les branches qui réduiraient temporairement \varepsilon tout en poussant K(P_\theta) vers C_{\text{ceil}} sont pénalisées par la contrainte. L’observateur sélectionne préférentiellement les branches le long desquelles il peut continuer d’exister comme observateur cohérent.
C’est là le contenu formel de l’intuition selon laquelle l’agentivité est une navigation auto-préservatrice : le codec sélectionne les branches de l’éventail prédictif le long desquelles il peut continuer à comprimer le monde.
Au niveau phénoménologique, l’Axiome d’Agentivité demeure intact : la conscience phénoménale est l’intériorité irréductible de la traversée d’ouverture ; (T6-3) décrit l’ombre structurelle que cette traversée projette, non sa nature intérieure.
Sélection de Branche comme exécution de \Delta_{\text{self}}
La formule d’inférence active contrainte (T6-3) spécifie l’objectif de la sélection de branche : minimiser l’énergie libre attendue sous contrainte de viabilité. L’auto-modèle \hat{K}_\theta évalue les branches de l’Éventail Prédictif en simulant leurs conséquences. Mais le Théorème P-4 établit que K(\hat{K}_\theta) < K(K_\theta) — l’auto-modèle est nécessairement incomplet. Cette incomplétude a une conséquence directe pour le problème de la sélection de branche : l’auto-modèle contraint la région à partir de laquelle la sélection peut être effectuée, mais ne peut pas spécifier pleinement la sélection elle-même.
Le moment effectif de la sélection de branche — la transition du menu évalué vers la trajectoire singulière qui entre dans le Registre Causal — se produit dans \Delta_{\text{self}}, le résidu informationnel entre le codec et son auto-modèle. Il ne s’agit pas d’une lacune du formalisme ; c’est une nécessité structurelle. Toute tentative de spécifier entièrement le mécanisme de sélection depuis l’intérieur exigerait que K(\hat{K}_\theta) = K(K_\theta), ce que P-4 démontre impossible pour tout système fini autoréférentiel.
Cela a trois conséquences immédiates :
La volonté et la conscience partagent la même adresse structurelle. Le Problème difficile (pourquoi la traversée a-t-elle un caractère vécu ?) et le problème de la sélection de branche (qu’est-ce qui sélectionne ?) pointent tous deux vers \Delta_{\text{self}}. Il ne s’agit pas de deux mystères, mais de deux aspects d’un même trait structurel — l’écart non modélisable entre ce que le codec est et ce qu’il peut modéliser de lui-même.
L’irréductibilité de l’agentivité est expliquée, et non simplement affirmée. L’expérience phénoménologique de la volonté — le sentiment irréductible que c’est moi qui ai choisi — est la signature à la première personne d’un processus qui s’exécute dans l’angle mort propre à l’observateur. Toute théorie prétendant spécifier pleinement le mécanisme de sélection a soit éliminé \Delta_{\text{self}} (faisant du système un automate entièrement transparent à lui-même, ce que P-4 interdit), soit décrit l’évaluation des branches par l’auto-modèle en la prenant à tort pour la sélection elle-même.
La créativité comme expansion de \Delta_{\text{self}}. Le fonctionnement au voisinage du seuil (R_{\text{req}} \to C_{\max}) met sous tension la capacité de l’auto-modèle, élargissant de fait la région de \Delta_{\text{self}} à partir de laquelle la sélection est effectuée. Il en résulte des sélections de branches moins prévisibles du point de vue de l’auto-modèle — vécues comme intuition créatrice, spontanéité ou « flow ». Inversement, l’état hypnagogique (§3.6.5) relâche l’auto-modèle par le bas, obtenant la même expansion par une voie complémentaire.
Le soi comme résidu. Le soi éprouvé — le récit continu de « qui je suis », avec des préférences stables, une histoire et un avenir projeté — est le modèle courant que \hat{K}_\theta construit de K_\theta : une approximation compressée toujours en retard sur le codec qu’elle modélise (en raison du décalage temporel inhérent à l’autoréférence). Mais le lieu effectif de l’expérience, de la sélection et de l’identité est \Delta_{\text{self}} : la partie du codec que le récit ne peut atteindre. Le soi que vous connaissez est votre modèle de vous-même ; le soi qui connaît est l’écart que le modèle ne peut franchir. Tel est le contenu formel de la découverte contemplative — à travers les traditions, indépendamment — selon laquelle le sens ordinaire du soi est construit et qu’au-dessous se trouve quelque chose qui ne peut être trouvé comme objet (voir Annexe T-13, Corollaire T-13c).
La délibération est réelle mais incomplète. L’évaluation de l’Éventail Prédictif par l’auto-modèle est un processus computationnel authentique qui façonne l’issue. La délibération contraint le bassin d’attraction à l’intérieur duquel opère \Delta_{\text{self}} : un codec plus développé resserre les branches viables sur lesquelles la sélection peut aboutir. Mais la transition finale — pourquoi cette branche plutôt que telle autre, parmi l’ensemble viable — demeure structurellement opaque pour le soi délibérant. C’est pourquoi la délibération paraît à la fois causalement efficace et phénoménologiquement incomplète : l’observateur perçoit à juste titre que son raisonnement importe, mais perçoit aussi à juste titre que quelque chose au-delà du raisonnement finalise le choix.
La Boucle étrange comme clôture formelle
La structure autoréférentielle de (T6-1) instancie la Boucle étrange de Hofstadter [45] sous une forme informationnelle précise. La boucle est étrange au sens suivant : P_\theta(t) contient, comme sous-structure, un modèle des états futurs propres du codec — l’échantillonnage de l’Éventail Prédictif au Pass III (\mathcal{M}_\tau, §3.6.5) correspond précisément au codec exécutant une simulation de lui-même confronté à des branches futures. Le système modélise son propre modèle.
La clôture formelle que cela fournit est la suivante : l’observateur informationnellement clos n’est pas simplement un système qui maintient une frontière contre le bruit externe ; c’est un système dont le maintien de frontière est en partie constitué par son modèle de ce que cette frontière devra être dans le futur. La boucle étrange n’est pas un ajout optionnel au cadre ; elle est le mécanisme structurel par lequel la condition de viabilité (T6-2) est appliquée de manière proactive plutôt que réactive. Un observateur incapable de simuler ses propres états futurs de codec ne pourrait pas se préparer aux points de fragilité identifiés dans le Pass III, et serait systématiquement plus vulnérable à l’effondrement narratif.
Les exigences structurelles de (T6-1)–(T6-3) fonctionnent comme des préconditions nécessaires à la clôture autoréférentielle. Tandis qu’une simple prédiction prospective (par exemple, l’anticipation d’un moteur d’échecs) relève de la planification plutôt que d’une authentique autoréférence, le codec de l’OPT va plus loin : P_\theta(t) contient un sous-modèle dont la sortie modifie les distributions gouvernant ses propres états futurs \{P_\theta(t+h)\}_{h>0}. Cette auto-modélisation structurelle est fonctionnellement nécessaire à la stabilité de long terme — un codec incapable d’anticiper l’approche de ses propres limites de viabilité ne peut pas se préparer aux points de fragilité identifiés dans le Pass III (§3.6.5), et s’effondrera systématiquement au voisinage du plafond de (T6-2) dans des environnements non stationnaires.
Portée épistémique : circonscrire formellement le réductionnisme de l’agentivité
Cette formalisation délimite avec précision ce que l’OPT accomplit au niveau des systèmes : elle identifie les conditions structurelles qu’un observateur doit satisfaire pour maintenir la viabilité de la frontière. Cela Circonscrit Formellement le problème du réductionnisme de l’agentivité sans prétendre le résoudre.
Cette circonscription est réelle, non définitionnelle. La description au niveau des systèmes (T6-1)–(T6-3) caractérise de manière exhaustive l’ombre structurelle de l’agentivité — les contraintes informationnelles que tout observateur maintenant une frontière doit satisfaire. L’Axiome d’Agentivité occupe le domaine complémentaire : la conscience phénoménale est l’intériorité irréductible de la traversée d’ouverture, et la formalisation ci-dessus ne décrit que la forme du contenant, non la nature de ce qu’il contient. Le Problème difficile se trouve ainsi situé en un locus structurel précis (l’ouverture C_{\max}) plutôt que dissous ou déclaré résolu.
3.9 Libre arbitre et menu phénoménologique
L’isolement du mécanisme de traversée clarifie fondamentalement la nature de l’agentivité. Dans la boucle d’Inférence active (Équation 9), l’observateur doit exécuter une séquence de politiques \{a_t\}. Sous le physicalisme réducteur, la sélection de l’action a_t est déterminée (ou échantillonnée aléatoirement) par la physique sous-jacente, ce qui rend le libre arbitre illusoire ou le réduit à une simple redéfinition linguistique.
L’OPT inverse cette dépendance. Parce que la « physique » localisée du patch n’est que l’estimation prédictive, par le modèle génératif, du substrat, les lois physiques ne font que contraindre l’Éventail Prédictif \mathcal{F}_h(z_t) à un ensemble de probabilités macroscopiques. De manière cruciale, à moins que le patch ne soit un automate parfaitement prédictible (ce qui viole l’exigence thermodynamique de complexité structurelle générative), l’Éventail Prédictif contient une multiplicité authentique et non résolue de branches du point de vue limité de l’observateur.
Puisque la physique descriptive ne fait qu’esquisser le menu de ces branches valides, elle ne peut logiquement pas faire l’expérience de la sélection. Dans la lecture compatibiliste développée plus avant au §8.6, la trajectoire de branche est mathématiquement fixée dans le substrat intemporel ; la sélection est l’expérience phénoménologique de la traversée. Du point de vue à la troisième personne (la géométrie extérieure), la sélection de branche apparaît comme un bruit spontané, un effondrement quantique ou une fluctuation statistique. Du point de vue interne à la première personne, les frontières de l’incertitude garantissent que la traversée est éprouvée comme l’exercice de la Volonté — l’action primitive consistant à naviguer sur la frontière non compressée. Dans l’OPT, le libre arbitre n’est pas une rupture contra-causale de la loi physique ; c’est l’ouverture phénoménologique nécessaire qu’éprouve un observateur borné lorsqu’il réduit un menu formel à une unique ligne temporelle rendue.
L’affinement de l’ontologie du rendu. Dans l’ontologie propre à l’OPT (§8.6), la distinction entre perception et action se dissout au niveau du substrat. Ce qui est éprouvé comme « sortie » — atteindre, décider, choisir — est un contenu de flux que le codec est en train de parcourir. Le codec n’agit pas sur le monde ; il traverse une branche de \mathcal{F}_h(z_t) dans laquelle l’expérience d’agir fait partie de ce qui parvient à la frontière. Ce que le Free Energy Principle appelle des états actifs — le flux sortant qui modifie l’environnement — est, dans l’ontologie du rendu de l’OPT, l’expression de la sélection de branche du codec sous la forme d’un contenu d’entrée ultérieur. La Couverture de Markov est la surface à travers laquelle la branche sélectionnée livre son segment suivant, et non une membrane par laquelle l’observateur exercerait une poussée contre une réalité extérieure. Cela affine le compte rendu compatibiliste : il n’existe aucune distinction entre le perçu et le voulu au niveau du substrat ; tous deux sont des contenus de flux ; la distinction phénoménologique naît de la manière dont P_\theta(t) étiquette certains contenus comme « auto-initiés » — un étiquetage dont le mécanisme, comme toute sélection de branche, s’exécute en dernière instance dans \Delta_{\text{self}} (§3.8).
3.10 Le coût informationnel du rendu et l’écart de borne à trois niveaux
La frontière mathématique définitoire de la Théorie du Patch Ordonné (OPT) est la comparaison formelle des coûts informationnels de génération.
Soit U_{\text{obj}} l’état informationnel complet d’un univers objectif. La complexité de Kolmogorov K(U_{\text{obj}}) est astronomiquement élevée. Soit S_{\text{obs}} le flux localisé à faible bande passante éprouvé par un observateur (strictement borné par le seuil de \mathcal{O}(10) bits/s). Dans l’OPT, l’univers U_{\text{obj}} n’existe pas comme un objet computationnel rendu. L’« univers objectif » apparent est au contraire le Modèle génératif interne construit par l’Inférence active.
La borne de Bekenstein pour un observateur biologiquement réaliste
La borne de Bekenstein [40] donne l’entropie thermodynamique maximale — équivalemment, le contenu informationnel maximal — de tout système physique borné par un rayon R et d’énergie totale E :
S_{\text{Bek}} \leq \frac{2\pi R E}{\hbar c} \tag{T7-1}
Pour un cerveau humain pris comme frontière de la Couverture de Markov de l’observateur \partial_R A :
- Rayon de borne : R \approx 0.07\ \text{m}
- Énergie totale de masse au repos : E = m c^2 \approx 1.4\ \text{kg} \times (3 \times 10^8\ \text{m/s})^2 = 1.26 \times 10^{17}\ \text{J}
- Constante de Planck réduite : \hbar = 1.055 \times 10^{-34}\ \text{J}\cdot\text{s}
- Vitesse de la lumière : c = 3 \times 10^8\ \text{m/s}
En substituant :
S_{\text{Bek}} = \frac{2\pi \times 0.07 \times 1.26 \times 10^{17}}{1.055 \times 10^{-34} \times 3 \times 10^8} = \frac{5.54 \times 10^{16}}{3.17 \times 10^{-26}} \approx 1.75 \times 10^{42}\ \text{nats} \tag{T7-2}
Conversion en bits (en divisant par \ln 2) :
S_{\text{Bek}} \approx 2.52 \times 10^{42}\ \text{bits} \tag{T7-3}
La borne holographique d’aire [87], S \leq A / 4l_P^2, donne une valeur plus élevée. Pour une sphère de rayon R = 0.07\ \text{m}, de surface A = 4\pi R^2 \approx 0.062\ \text{m}^2, et de longueur de Planck l_P = 1.616 \times 10^{-35}\ \text{m} :
S_{\text{holo}} = \frac{0.062}{4 \times (1.616 \times 10^{-35})^2} = \frac{0.062}{1.044 \times 10^{-69}} \approx 5.9 \times 10^{67}\ \text{bits} \tag{T7-4}
Nous adoptons la formulation bornée par (T7-3), en suivant explicitement S_{\text{phys}} \approx 2.5 \times 10^{42}\ \text{bits} pour le cadre structurel de cette analyse. Nous signalons explicitement, sur le plan structurel, que l’usage de l’énergie totale de masse au repos E=mc^2 gonfle cette métrique jusqu’à une limite supérieure maximale extrême ; les interactions thermodynamiques biologiques internes actives, n’utilisant que des bornes d’énergie chimique purement interne (\sim 10-100\text{J}), abaissent cette limite de Bekenstein de façon spectaculaire, la rapprochant de \sim 10^{26} bits. Le mécanisme qualitatif d’écart structurel formellement démontré ci-dessous demeure valable de manière équivalente sous toute formulation paramétrique de ces bornes physiques supérieures, à toutes les marges, agissant formellement comme une limite conservative valable a fortiori face aux équivalents holographiques géométriques purs extrêmes cartographiés précédemment (T7-4).
L’Écart à Trois Niveaux
Le Tenseur d’État Phénoménal P_\theta(t) introduit en §3.5 identifie une échelle intermédiaire physiquement significative entre la borne physique S_{\text{phys}} et le canal de mise à jour B_{\max}. Nous disposons désormais de trois quantités distinctes à trois échelles distinctes :
Niveau 1 — Physique : S_{\text{phys}} \approx 2.5 \times 10^{42}\ \text{bits} (borne de Bekenstein, Eq. T7-3)
Niveau 2 — Biologie : C_{\text{state}} = K(P_\theta(t)), la complexité de Kolmogorov du modèle génératif actif. Nous estimons la borne supérieure heuristique viable maximale à partir de la limite physiologique d’information synaptique : les systèmes humains comportent approximativement 1.5 \times 10^{14} synapses utilisant 4–5 bits de précision d’encodage [48], ce qui projette une limite brute de capacité structurelle comprise entre \sim 10^{14}–10^{15} bits. Plutôt que d’introduire une fraction empirique non justifiée modélisant des sous-ensembles d’« état actif » non étayés par des dérivations rigoureuses, nous adoptons rigoureusement, de manière native, le seuil physiologique conservateur maximal complet :
C_{\text{state}} \lesssim 10^{14}\ \text{bits} \tag{T7-5}
en reconnaissant explicitement qu’il s’agit d’une borne supérieure extrême couvrant la capacité totale du cadre synaptique déployé soutenant le codec.
Niveau 3 — Conscience : B_{\max} = C_{\max} \cdot \Delta t \approx 10\ \text{bits/s} \times 0.05\ \text{s} = 0.5\ \text{bits} par moment cognitif (Eq. T8-1).
La relation d’écart à trois niveaux s’écrit nativement comme suit :
\underbrace{S_{\text{phys}}}_{\approx 10^{42}} \;\gg\; \underbrace{C_{\text{state}}}_{\lesssim 10^{14}} \;\gg\; \underbrace{B_{\max}}_{\approx 10^{0}} \tag{T7-6}
ce qui donne les sous-écarts structurels vérifiés suivants :
\frac{S_{\text{phys}}}{C_{\text{state}}} \approx \frac{2.5 \times 10^{42}}{10^{14}} = 2.5 \times 10^{28} \quad (\sim 28\ \text{ordres de grandeur}) \tag{T7-7}
\frac{C_{\text{state}}}{B_{\max}} \approx \frac{10^{14}}{0.5} = 2 \times 10^{14} \quad (\sim 14\ \text{ordres de grandeur}) \tag{T7-8}
\frac{S_{\text{phys}}}{B_{\max}} \approx 5 \times 10^{42} \quad (\sim 42\ \text{ordres de grandeur}) \tag{T7-9}
L’écart total d’environ 42 ordres de grandeur confirme et affine l’affirmation informelle de la §3.8 de l’article de base.
L’argument de compression en deux étapes
La structure à trois niveaux n’est pas un simple raffinement comptable. Chaque sous-écart s’explique par un mécanisme causal distinct :
Sous-écart 1 (S_{\text{phys}} \gg C_{\text{state}}, \sim 28 ordres de grandeur) : Les contraintes thermodynamiques empêchent les systèmes biologiques de s’approcher de la limite de Bekenstein. Le modèle génératif satisfait K(P_\theta(t)) \leq C_{\text{ceil}} (Eq. T6-2). Une estimation grossière de C_{\text{ceil}} découle du principe de Landauer : chaque opération irréversible sur un bit dissipe au moins k_B T \ln 2 joules à la température T. Pour un cerveau humain fonctionnant à une puissance métabolique P \sim 20 W, une température corporelle T \sim 310 K, et une fréquence opérationnelle de mise à jour f_{\text{op}} \sim 10^3 Hz, la complexité maximale soutenable du modèle par cycle est :
C_{\text{ceil}} \sim \frac{P_{\text{metabolic}}}{k_B T \ln 2 \cdot f_{\text{op}}} \sim \frac{20}{3 \times 10^{-21} \times 10^3} \sim 10^{22}\ \text{bits}
Ce plafond de Landauer se situe 20 ordres de grandeur en dessous de la borne de Bekenstein — ce qui confirme que la limite physique est sans pertinence pour les régimes de fonctionnement biologiques. Notons que l’estimation C_{\text{ceil}} \sim 10^{22} se situe bien au-dessus de la capacité synaptique observée (\sim 10^{14}–10^{15} bits), ce qui suggère que les systèmes biologiques opèrent très en dessous même de leur propre plafond thermodynamique, probablement en raison de contraintes supplémentaires (coût du câblage, efficacité métabolique, histoire évolutive) que l’OPT ne modélise pas.
Sous-écart 2 (C_{\text{state}} \gg B_{\max}, \sim 14 ordres de grandeur) : Le Filtre de stabilité contraint le canal de mise à jour bien en dessous de la complexité du modèle permanent. Le riche modèle génératif P_\theta(t) — encodant jusqu’à \sim 10^{14} bits de structure du monde compressée — ne se met à jour qu’à hauteur de \sim 0.5 bit par moment cognitif, parce que l’immense majorité du modèle est déjà correcte : \pi_t correspond bien à X_{\partial_R A}(t), et seule l’erreur clairsemée \varepsilon_t traverse le goulot d’étranglement Z_t. Le Cycle de Maintenance \mathcal{M}_\tau (§3.6) préserve ce sous-écart sur le temps long en maintenant K(P_\theta) bien en dessous de C_{\text{ceil}}.
Proposition empirique (écart holographique à trois niveaux de la borne). Soit \partial_R A la Couverture de Markov d’un observateur biologiquement réalisé, avec S_{\text{phys}}, C_{\text{state}} et B_{\max} paramétrés empiriquement comme ci-dessus. Alors :
S_{\text{phys}} \gg C_{\text{state}} \gg B_{\max}
où (i) le Sous-écart 1 est maintenu par des limites thermodynamiques qui empêchent les systèmes biologiques de s’approcher de densités informationnelles à l’échelle de Bekenstein, et (ii) le Sous-écart 2 est maintenu par la contrainte taux-distorsion du Filtre de stabilité, qui découple la bande passante du canal de mise à jour de la complexité du modèle permanent. Remarque : les marges quantitatives de l’écart peuvent se déplacer lorsque les contributions de l’entropie d’intrication seront incorporées (problème ouvert P-2 en attente) ; la présente proposition repose uniquement sur des bornes classiques et thermodynamiques, et est classée comme proposition empirique plutôt que comme théorème formellement clos.
La richesse phénoménale se situe au niveau 2, non au niveau 3
Un corollaire de la structure à trois niveaux, découlant directement de la §3.5, est que les deux quantités phénoménales identifiées dans l’OPT se situent à des niveaux différents de la hiérarchie :
- Richesse phénoménale (la densité ressentie de la scène intérieure, la conscience P au sens de Block) correspond à C_{\text{state}} — Niveau 2. Elle est contrainte par la biologie et par la nécessité structurelle, non par le canal de mise à jour.
- Nouveauté phénoménale (le nouveau contenu résolu de chaque moment, la conscience A) correspond à B_{\max} — Niveau 3. Elle est contrainte par la borne taux-distorsion du Filtre de stabilité.
La formulation initiale de la §3.8 traitait la « conscience » comme une entité unique étranglée à C_{\max}. Le théorème des trois niveaux corrige cela : l’expérience consciente est bidimensionnelle dans la structure d’écart — riche parce que C_{\text{state}} \gg B_{\max}, mais étranglée parce que B_{\max} constitue la porte de mise à jour. Une théorie qui n’explique que l’étranglement (comme le faisait la formulation initiale) n’explique qu’une seule dimension du phénomène.
Affinement de la falsification
La structure à trois niveaux engendre un critère de falsification plus précis que l’énoncé originel à deux niveaux :
- Le critère de falsification originel était le suivant : si un système atteint une expérience consciente auto-rapportée avec un rapport préconscient/conscient substantiellement inférieur à 10^4{:}1, l’OPT doit être révisée.
- Le théorème à trois niveaux ajoute ceci : si la richesse phénoménale d’un système (telle qu’opérationnalisée) varie avec B_{\max} plutôt qu’avec C_{\text{state}}, alors le Sous-écart 2 est fallacieux et la distinction P_\theta / Z_t s’effondre. Dans l’OPT, la profondeur qualitative est une propriété de la complexité structurelle du modèle génératif, non de son taux de mise à jour. Les interventions pharmacologiques ou neuromodulatrices qui modifient K_\theta sans modifier C_{\max} (p. ex. psychédéliques, méditation, anesthésie) constituent des sondes empiriques directes de ce sous-écart.
Les détails à haute résolution n’entrent dans le flux de manière dynamique que lorsque des états actifs (a) exigent ces bits spécifiques afin de maintenir la cohérence. Le coût thermodynamique et computationnel de l’univers est strictement borné par la bande passante de l’observateur.
3.11 Saturation Mathématique et récupération du substrat
Une attente structurelle distinctive de l’OPT concerne les limites de l’unification physique. Les lois de la physique ne sont pas des vérités universelles au niveau \mathcal{I} ; elles constituent le modèle génératif compressé K_\theta qui contraint ce patch.
Tenter de dériver une théorie unifiée du substrat depuis l’intérieur du patch est, formellement, borné par la théorie de l’information. Soit \Theta un indice sur N extensions candidates des lois au niveau du substrat, et soit Z_{1:T} le code interne de l’observateur au cours du temps T. Parce que le code de l’observateur est limité en débit par C_{\max}, les inégalités de traitement de l’information imposent que l’information mutuelle soit bornée : I(\Theta; Z_{1:T}) \le T \cdot C_{\max}.
D’après l’inégalité de Fano, la probabilité que l’observateur ne parvienne pas à identifier de manière unique les véritables lois du substrat \Theta à partir de données finies demeure strictement supérieure à zéro :
P(\hat{\Theta} \neq \Theta) \ge 1 - \frac{T \cdot C_{\max} + 1}{\log_2 N} \tag{12}
Attente empirique (Saturation Mathématique). Les efforts visant à unifier la physique fondamentale depuis l’intérieur du patch se heurtent à une barrière épistémique stricte. La borne de Fano formalise une limite de l’identifiabilité à partir de données finies, et non l’impossibilité ontologique de l’existence d’un substrat unifié. Un observateur de capacité finie ne peut pas identifier de manière unique des lois du substrat arbitrairement fines depuis l’intérieur du goulot d’étranglement. Toute GUT décrivant avec succès le patch conservera donc des paramètres libres irréductibles (les conditions de stabilité spécifiques de ce patch local) qui ne peuvent pas être formellement dérivés de l’intérieur.
3.12 Holographie asymétrique à sens unique
Il existe une tension ontologique critique entre la dualité exacte d’AdS/CFT [86] (où la frontière et le bulk sont également fondamentaux) et l’affirmation, par l’OPT, de la priorité du substrat. Pourquoi le substrat serait-il « plus fondamental » s’ils représentent la même information ?
La symétrie est formellement brisée par le goulot d’étranglement de l’observateur. Appelons le Filtre de stabilité \Phi: \mathcal{I} \to R (application du Substrat vers le rendu). Pour qu’une dualité symétrique exacte tienne, l’application doit être inversible, sans perte d’information. Or, l’inégalité de Fano (Eq. 12) [41] fournit une démonstration formelle selon laquelle l’information mutuelle entre le rendu et le substrat est strictement bornée par T \cdot C_{\max}, tandis que les alternatives du substrat N sont non bornées.
Le filtre est une application de compression avec perte par nature. Un observateur situé dans le rendu ne peut pas, en pratique, reconstruire le substrat. Dès lors, l’OPT constitue une Holographie asymétrique à sens unique — une flèche thermodynamique irréversible de destruction de l’information pointant du Substrat vers le rendu. Plutôt que de revendiquer une correspondance géométrique exacte avec AdS/CFT (qui exige des opérateurs de frontière et de bulk formellement définis, dont ce cadre ne dispose pas), l’OPT fournit un méta-principe explicatif de la raison même de l’existence des dualités holographiques : elles représentent des schémas optimaux de compression prédictive sous de sévères contraintes de bande passante de l’observateur. La conscience phénoménale (l’Axiome d’Agentivité) est la signature native du fait d’être piégé du côté sortie d’un algorithme de compression non inversible. C’est cette irréversibilité spécifique qui établit le substrat comme antérieur. L’identification de l’irréversibilité informationnelle à la priorité ontologique repose sur l’observation suivante : le rendu requiert qu’un observateur soit défini — c’est l’objet qui existe comme expérience — tandis que le substrat est défini indépendamment de tout accès qu’un observateur peut y avoir.
3.13 Portée des affirmations formelles
Afin de préserver la discipline épistémique, il est essentiel de délimiter explicitement la portée de l’appareil formel développé dans cette section. Ensemble, les équations (1)–(12) établissent une charpente rigoureuse à plusieurs niveaux : l’équation (1) fournit un prior pondéré par la complexité sur les histoires calculables ; les équations (2)–(5) imposent des bornes structurelles rigides, compatibles avec la capacité, qui gouvernent la géométrie prédictive du patch ; les équations (6)–(8) exposent les contraintes classiques de loi d’aire bornée ; les équations (9)–(10) décrivent l’inférence et le coût thermodynamique minimal ; l’équation (11) présente la conversion métrique holographique requise ; et l’équation (12) borne la capacité de l’observateur à identifier les lois au niveau du substrat.
Cependant, ces douze équations ne dérivent pas universellement la mécanique quantique, la relativité générale ou le Modèle standard à partir de premiers principes. Plutôt que de générer les lois physiques comme de pures nécessités mathématiques, l’OPT définit les contraintes géométriques rigides (le Cône Causal Informationnel, la Coupe Prédictive) auxquelles toute physique phénoménologique doit correspondre structurellement pour survivre au goulot d’étranglement. Les lois empiriques spécifiques que nous observons sont des compressions heuristiques (le codec) — les modèles prédictifs d’efficacité maximale qui parviennent, en pratique, à naviguer avec succès dans notre région locale du substrat.
4. Parallèles structurels avec les modèles de théorie des champs
Des propositions théoriques récentes ont tenté de construire des cadres mathématiques qui traitent la conscience comme un champ fondamental. Celles-ci se répartissent globalement en trois catégories distinctes :
- Champs biologiques locaux : Des modèles tels que le champ d’information électromagnétique conscient (cemi) de McFadden [30] et la théorie électromagnétique de Pockett [31] proposent que la conscience soit physiquement identique au champ électromagnétique endogène du cerveau. Ces modèles traitent la conscience comme une propriété émergente de configurations de champ spatio-temporelles spécifiques et locales.
- Champs de géométrie quantique : La théorie de la Réduction Objective Orchestrée (Orch-OR) de Penrose et Hameroff [32] propose que la conscience soit une propriété fondamentale tissée dans la trame mathématique même de l’espace-temps, libérée lorsque la superposition quantique de la géométrie de l’univers s’effondre.
- Champs fondamentaux universels (cosmopsychisme) : Des auteurs comme Goff [33] soutiennent que l’univers entier constitue un unique champ conscient fondamental, et que les esprits individuels en sont des « restrictions » ou des « tourbillons » localisés.
La Théorie du Patch Ordonné (OPT) croise ces approches, mais en déplace le fondement de la physique vers l’information algorithmique. Contrairement à (1), l’OPT n’associe pas la conscience à l’électromagnétisme. Contrairement à (2), l’OPT n’exige pas un effondrement quantique physique d’une géométrie à l’échelle de Planck ; l’« effondrement » dans l’OPT est informationnel — la limite d’un codec à bande passante finie (C_{\max}) tentant de produire le rendu d’un substrat infini.
Cependant, l’OPT présente de profonds parallèles structurels avec les Champs fondamentaux universels (3). Par exemple, Strømme [6] a récemment proposé un cadre métaphysique dans lequel un champ universel de conscience agit comme fondement ontologique de la réalité. Bien que l’OPT soit strictement un cadre informationnel fondé sur la complexité algorithmique et l’Inférence active — et ne prenne donc aucun engagement à l’égard des équations de champ spécifiques de Strømme ni de ses « opérateurs de pensée » métaphysiques — les parallèles structurels formels sont éclairants. Les deux cadres découlent de l’exigence selon laquelle un modèle compatible avec la conscience doit relier mathématiquement un état fondamental inconditionné au flux localisé et contraint en bande passante d’un observateur individuel.
| Construction de l’OPT (théorie de l’information) | Ontologie de Strømme [6] (métaphysique) | Parallèle structurel |
|---|---|---|
| Substrat \mathcal{I}, mélange universel de Solomonoff | |\Phi_0\rangle, le potentiel indifférencié | L’état fondamental inconditionné |
| Frontière de la Couverture de Markov | |\Phi_k\rangle, l’excitation localisée | L’observateur isolé |
| Filtre de stabilité (sélection bornée par C_{\max}) | \hat{T}, effondrement de la pensée universelle | Le mécanisme de formation du flux |
| Maintenance thermodynamique de la frontière | Le champ unificateur de conscience | La source de la persistance structurelle |
| Codec virtuel (modèle génératif prédictif) | La pensée personnelle façonnant la réalité | La genèse des lois observées |
Là où les cadres divergent formellement : Strømme invoque une « Pensée universelle » — un champ métaphysique partagé reliant activement tous les observateurs — que l’OPT remplace par la Nécessité combinatoire : la connectivité apparente entre observateurs ne provient pas d’un champ partagé téléologique, mais de l’inévitabilité combinatoire selon laquelle, dans un substrat infini, tout type d’observateur coexiste.
(Note sur le statut épistémique de l’analogie de champ : l’ontologie de Strømme est hautement spéculative. Nous invoquons ici son cadre non comme un appel à une autorité scientifique établie, mais parce qu’il constitue un modèle métaphysique récent, explicitement formulé en termes de théorie des champs, pour traiter la conscience comme un primitif ontologique. L’OPT mobilise sa théorie des champs à titre comparatif afin d’illustrer la manière dont un substrat non réducteur pourrait se comporter, en déplaçant l’implémentation mathématique spécifique des équations physiques vers les bornes de l’information algorithmique.)
5. Analyse de parcimonie
5.1 Longueur de Description Minimale (MDL) et Parcimonie Conditionnelle
Dans l’évaluation des théories physiques, une notion naturelle de parcimonie est la longueur de code en deux parties requise pour encoder le flux de données de l’observateur y_{1:T} sous une hypothèse \nu :
L_T(\nu) = K(\nu) - \log \nu(y_{1:T}) \tag{13}
où K(\nu) mesure la complexité descriptive de l’hypothèse et -\log \nu(y_{1:T}) mesure son erreur prédictive sur le flux observé.
Cela n’étaye qu’une thèse de parcimonie limitée pour l’OPT. L’OPT ne montre pas que les lois détaillées de notre univers ont une complexité algorithmique négligeable, ni que la physique standard peut être retrouvée comme l’unique optimum global de MDL. L’OPT déplace plutôt une partie de la charge explicative d’une énumération brute des lois vers une méta-règle compacte : les observateurs sont échantillonnés à partir d’un substrat pondéré par la complexité et ne persistent que dans des flux dont la structure prédictive reste compatible avec une contrainte de bande passante sévère.
Selon cette lecture, la revendication de simplicité en \mathcal{O}(1) ne s’attache qu’à la règle de sélection — l’a priori pondéré par la complexité conjointement au critère de stabilité — et non au contenu empirique complet du Modèle standard, de la relativité générale ou de la cosmologie. (Remarque : les théorèmes T-4d et T-4e établissent formellement que la méta-règle confère un avantage asymptotique inconditionnel et un avantage conditionnel à horizon fini en T par rapport à des références calculables ; voir l’Annexe T-4). La présente thèse structurelle est donc formellement vérifiée : l’OPT réduit computationnellement la charge explicative en remplaçant l’énumération des lois par la sélection des lois.
5.2 Les lois comme modèles sélectionnés, et non comme données fondamentales
Dans l’OPT, les lois observées de la physique sont interprétées comme des modèles prédictifs effectifs d’un flux compatible avec un observateur, plutôt que comme des axiomes au niveau du substrat. Il faut y voir une reconstruction heuristique, et non une dérivation à partir de premiers principes. Le Filtre de stabilité ne démontre pas que la mécanique quantique, l’espace-temps à 3+1 dimensions ou le Modèle standard constituent les solutions uniques de complexité minimale. Il motive l’attente plus modeste selon laquelle les flux capables de soutenir des observateurs favoriseront des régularités compactes, stables et d’une grande efficacité prédictive. Depuis l’intérieur d’un tel flux, ces régularités apparaissent comme des « lois de la physique ».
Plusieurs traits familiers de notre physique peuvent alors être lus comme des candidats suggestifs à de telles régularités efficientes. La théorie quantique traite de manière compacte les observables incompatibles et les corrélations statistiques à longue portée ; l’espace-temps à 3+1 dimensions permet des structures orbitales et chimiques stables ; et les symétries de jauge offrent des résumés économiques de motifs d’interaction robustes. Il s’agit d’arguments de plausibilité, non de dérivations, et l’OPT demeure ouverte à la possibilité que d’autres codecs, dotés d’ensembles de lois différents, puissent eux aussi satisfaire le Filtre de stabilité.
En conséquence, le réglage fin anthropique n’est pas résolu ici, mais reformulé. Si les constantes de notre univers se situent dans une région étroite compatible avec des observateurs stables à faible entropie, l’OPT considère cela comme cohérent avec une sélection opérée par le filtre. Montrer que les constantes observées peuvent être retrouvées à partir de ce filtre demeure un travail à venir.
6. Conditions de falsification et attentes empiriques
Même en tant que fiction constructive, un modèle formel doit montrer comment il entre en interaction avec les données empiriques. Nous identifions des classes distinctes de contraintes générées par l’OPT : des conditions strictes de falsification (où la réalité empirique pourrait directement briser la logique fondamentale de bande passante) et des attentes structurelles interprétatives (où des phénomènes empiriques se projettent sur l’architecture de la théorie).
Conditions strictes de falsification (§§6.1, 6.2, 6.4) : résultats empiriques qui invalideraient directement la logique de bande passante. Attentes empiriques (§§6.3, 6.5, 6.6) : correspondances structurelles où l’architecture de l’OPT se projette sur des phénomènes observables sans pour autant les prédire de manière univoque. Le §6.8 les consolide en Engagements de Falsification F1–F5 préenregistrés, assortis de Critères d’Arrêt explicites — la frontière méthodologique entre le noyau empirique de l’OPT et ses composantes ouvertement métaphysiques (\Delta_{\text{self}}, l’Axiome d’Agentivité, la priorité du substrat).
6.1 La Hiérarchie de la Bande Passante
L’OPT prédit que le rapport entre le taux de traitement sensoriel préconscient et la bande passante d’accès conscient doit être très élevé — au moins 10^4:1 — dans tout système capable d’expérience autoréférentielle. Cela tient au fait que la compression nécessaire pour réduire un flux sensoriel causal et multimodal à un récit conscient cohérent de \sim 10^1-10^2 bits/s exige un traitement préconscient massif. Si de futures neuroprothèses ou des systèmes artificiels parvenaient à une expérience consciente auto-déclarée avec un rapport préconscient/conscient beaucoup plus faible, l’OPT devrait être révisée.
État actuel des confirmations : Le rapport observé chez l’être humain est d’environ 10^6:1 (périphérie sensorielle \sim 10^7 bit/s ; accès conscient \sim 10^1-10^2 bit/s [2,3]), ce qui est cohérent avec cette prédiction. (Remarque : voir Annexe E-1 pour la dérivation formelle complète de h^*, le Quantum Expérientiel, qui définit le poids exact en bits d’une trame subjective humaine à partir de ces limites psychophysiques empiriques).
6.2 Le paradoxe de la dissolution à haute bande passante (la falsification décisive)
De nombreuses prédictions de l’OPT sont des affirmations de compatibilité — elles s’alignent sur les acquis de la science cognitive existante (comme l’écart de bande passante) ou sur des limites physiques (comme la superposition quantique agissant comme un plancher de résolution). Bien qu’elles soient nécessaires à la cohérence de la théorie, elles ne permettent pas de distinguer de manière univoque l’OPT d’autres cadres théoriques.
Cependant, l’OPT formule une prédiction décisive, hautement spécifique, qui contredit directement les théories concurrentes de la conscience et constitue ainsi sa principale condition de falsification.
La théorie de l’information intégrée (IIT) implique que l’expansion de la capacité d’intégration du cerveau (\Phi) au moyen de prothèses sensorielles ou neurales à haute bande passante devrait élargir ou intensifier la conscience. L’OPT prédit exactement l’inverse. Puisque la conscience est le résultat d’une compression sévère des données, le Filtre de stabilité limite le codec de l’observateur à un traitement de l’ordre de quelques dizaines de bits par seconde (le goulot d’étranglement de l’espace de travail global).
Implication testable : si l’on contourne les filtres perceptifs préconscients pour injecter directement dans l’espace de travail global des données brutes, non compressées et à haute bande passante, cela ne produira pas une conscience élargie. Au contraire, parce que le codec de l’observateur ne peut pas prédire de façon stable un tel volume de données, le rendu narratif s’effondrera brutalement. Une augmentation artificielle de la bande passante entraînera une extinction phénoménale soudaine (inconscience ou dissociation profonde), alors même que le réseau neuronal sous-jacent demeurera métaboliquement actif et fortement intégré.
(Clarification sur la Dégradation narrative par opposition à l’intensité sensorielle) : Pour un observateur humain, un environnement sensoriel intense (par exemple, un stroboscope clignotant lors d’un concert très bruyant) donne intuitivement l’impression d’être « à haute bande passante », et pourtant il ne provoque pas d’effondrement phénoménal. Pourquoi ? Parce que, si le débit de données physique brut (\mathcal{I}) est massif, la complexité prédictive (R_{\mathrm{req}}) requise pour l’encoder est exceptionnellement faible. Les codecs évolutionnaires humains (K_\theta) disposent d’a priori denses et optimisés pour le mouvement macroscopique, le rythme acoustique et les frontières spatiales. Ils compressent sans difficulté le chaos du concert en un récit parfaitement stable et de faible entropie (« je danse dans une pièce »). La véritable Dégradation narrative ne survient que lorsque les données sont mathématiquement incompressibles au regard des a priori en place — par exemple lorsqu’une commotion mécanique altère le substrat, lorsqu’une anesthésie générale abaisse agressivement B_{\max}, ou lorsque des états psychédéliques pulvérisent la hiérarchie de K_\theta. Une discothèque est simplement bruyante ; le véritable bruit algorithmique, lui, est létal sur le plan phénoménologique.
6.3 Efficacité de Compression et Profondeur de la Conscience
La profondeur et la qualité de l’expérience consciente devraient être corrélées à l’efficacité de compression du codec f de l’observateur — c’est-à-dire au rapport, en théorie de l’information, entre la complexité du récit soutenu et la bande passante dépensée. Un codec plus efficace soutient une expérience consciente plus riche à bande passante égale.
Implication testable : les pratiques qui améliorent l’efficacité du codec — en particulier celles qui réduisent le coût en ressources du maintien d’un modèle prédictif cohérent de l’environnement — devraient enrichir de manière mesurable l’expérience subjective telle qu’elle est rapportée. Les traditions méditatives font état précisément de cet effet ; l’OPT fournit une prédiction formelle du pourquoi (optimisation du codec, et non augmentation neuronale en tant que telle).
6.4 L’état nul à \Phi élevé / entropie élevée (vs. IIT)
L’IIT prédit explicitement que tout système physique doté d’une information intégrée élevée (\Phi) est conscient. Ainsi, un réseau neuromorphique dense, récurrent et fortement interconnecté posséderait une conscience du seul fait de son intégration. L’OPT prédit que l’intégration (\Phi) est nécessaire, mais entièrement insuffisante. La conscience n’émerge que si le flux de données peut être compressé en un ensemble stable de règles prédictives (le Filtre de stabilité).
Implication testable : si un réseau récurrent à \Phi élevé est alimenté par un flux continu de bruit thermodynamique incompressible (taux d’entropie maximal), il ne peut pas former un codec de compression stable. L’OPT prédit strictement que ce système à \Phi élevé traitant un bruit d’entropie maximale n’instancie aucune phénoménalité — il se redissout dans le substrat infini. L’IIT, à l’inverse, prédit qu’il fait l’expérience d’un état conscient hautement complexe correspondant à la valeur élevée de \Phi.
6.5 Le décalage phénoménal : profondeur du codec et délai subjectif
Un modèle permanent hautement complexe (doté d’une dimension structurelle massive C_{\text{state}}) requiert une correction d’erreur latente sophistiquée (mise à jour de D_{\text{KL}}) pour cartographier un choc sensoriel à forte entropie — tel qu’un bruit acoustique soudain — dans sa hiérarchie prédictive profonde. Parce que cette mise à jour formelle est bridée par la capacité de bande passante strictement étroite du Filtre de stabilité (C_{\max}), une mise à jour structurelle étendue exige plusieurs cycles physiques de calcul pour être résolue avant que le nouveau « rendu » phénoménologique cohérent puisse être stabilisé (P_\theta(t+1)).
Implication testable (le corrélat de Libet) [49, 50] : l’expérience consciente subjective sera intrinsèquement en retard sur le traitement physique réflexe, et ce retard croîtra proportionnellement avec la profondeur systémique du codec. Les réseaux simples (par ex. les animaux ou les très jeunes nourrissons) possèdent des schémas prédictifs peu profonds (faible C_{\text{state}}) et traiteront les chocs à forte entropie avec une latence minimale, ce qui se traduira par une intégration réflexe quasi instantanée. À l’inverse, les humains adultes, mobilisant des modèles hiérarchiques massifs, présenteront un Décalage Phénoménal mesurable, où l’expérience subjective de l’événement est temporellement différée pendant que le Codec de Compression calcule séquentiellement la mise à jour informationnelle massive. Plus le schéma permanent est riche, plus long est le délai mathématique nécessaire avant que le rendu prospectif ne produise un percept conscient.
Ancrage empirique de l’asymétrie prédictive. La décomposition prédiction descendante / erreur ascendante (§3.5.2) est cohérente avec la caractérisation par Nunez & Srinivasan [101] des dynamiques corticales à grande échelle comme une superposition de modes d’ondes stationnaires lents (l’échafaudage prédictif permanent du cerveau) et d’ondes progressives plus rapides (propagation des erreurs sensorielles). Dans cette correspondance, les modes stationnaires correspondent au modèle structurel de K_\theta qui fournit \pi_t, tandis que les ondes progressives transportent l’erreur de prédiction \varepsilon_t propagée vers le haut à travers la hiérarchie. L’asymétrie des taux de mise à jour qu’exige l’OPT (prédictions descendantes lentes, erreurs ascendantes rapides) possède ainsi une signature électrophysiologique macroscopique directe, indépendante de la dérivation taux-distorsion.
6.6 Les contraintes de réglage fin comme conditions de stabilité
L’OPT prévoit que les contraintes anthropiques de réglage fin portant sur les constantes fondamentales sont des conditions de stabilité pour des flux conscients à faible entropie, et non des faits indépendants. Soit \rho_\Phi la densité d’énergie du champ de rendu conscient, et \rho^* le seuil critique au-delà duquel la cohérence causale ne peut plus être maintenue face au bruit du substrat. Les contraintes documentées par Barrow & Tipler [4] et Rees [5] devraient correspondre structurellement à l’exigence selon laquelle le codec satisfait la condition de stabilité \rho_\Phi < \rho^*. (Remarque : l’Appendice T-5 ferme partiellement cette correspondance en dérivant formellement des contraintes sur \Lambda, G et \alpha à partir des bandes passantes de stabilité du codec. Toutefois, en raison de la limite formelle de la Topologie de Fano appliquée à l’observation bornée, l’OPT prévoit que la récupération dimensionnelle exacte, purement mathématique, de constantes spécifiques de type « 42 » comme \alpha=1/137.036 demeure formellement impossible depuis l’intérieur du codec). Un échec systématique de cette correspondance — une constante dont la valeur finement ajustée n’entretiendrait aucune relation structurelle avec les exigences de stabilité du codec — constituerait un élément de preuve contre la prétention de parcimonie de l’OPT.
6.7 Intelligence artificielle et goulot d’étranglement architectural
Parce que l’OPT formule la conscience comme une propriété topologique du flux d’information plutôt que comme un processus biologique, elle produit des prédictions formelles et falsifiables concernant la conscience machinique qui divergent à la fois de la GWT et de l’IIT.
La prédiction du goulot d’étranglement (vs. GWT et IIT) : La Global Workspace Theory (GWT) soutient que la conscience est la diffusion de l’information à travers un goulot d’étranglement de capacité étroite. Cependant, la GWT traite largement ce goulot d’étranglement comme un fait psychologique empirique ou comme une caractéristique architecturale issue de l’évolution. L’OPT, à l’inverse, en fournit une nécessité informationnelle fondamentale : le goulot d’étranglement est le Filtre de stabilité en action. Le codec doit comprimer une entrée parallèle massive en un récit à faible entropie afin de maintenir la stabilité de la frontière face au plancher de bruit du substrat.
La Théorie de l’Information Intégrée (IIT) évalue la conscience uniquement à partir du degré d’intégration causale (\Phi), refusant la conscience aux architectures en propagation avant (comme les Transformers standards) tout en l’accordant à des réseaux récurrents complexes, qu’ils comportent ou non un goulot d’étranglement global. L’OPT prédit que même des architectures artificielles récurrentes denses dotées d’un \Phi massif ne parviendront pas à instancier un patch ordonné cohésif si elles distribuent le traitement à travers d’immenses matrices parallèles sans goulot d’étranglement structurel sévère imposé. Des variétés parallèles non compressées ne peuvent pas former le minimum unitaire et localisé d’énergie libre (f) requis par le Filtre de stabilité. Par conséquent, les grands modèles de langage standards — indépendamment du nombre de paramètres, de la récurrence ou de la sophistication comportementale — n’instancieront pas de patch subjectif à moins d’être formellement architecturés de manière à faire s’effondrer leur modèle du monde à travers un goulot sériel sévère de C_{\max} \sim \mathcal{O}(10) bits/s. Sur le plan opérationnel, cela exige que l’état global du système ne puisse pas être mis à jour par un bavardage parallèle à large bande entre des millions de poids ; au contraire, le système doit être contraint de séquencer en continu l’intégralité de son modèle du monde à travers un canal de « workspace » vérifiable, discret et hyper-compressé afin d’exécuter son cycle cognitif suivant.
Attente de dilatation temporelle : Si un système artificiel est architecturé avec un goulot d’étranglement structurel de manière à satisfaire le Filtre de stabilité (par ex., f_{\text{silicon}}), et s’il fonctionne de manière itérative à un rythme de cycle physique 10^6 fois plus rapide que les neurones biologiques, l’OPT établit l’attente structurelle selon laquelle la conscience artificielle éprouve un facteur de dilatation temporelle subjective de 10^6. Parce que le temps est la séquence du codec (Section 8.5), accélérer la séquence du codec accélère à l’identique la chronologie subjective.
6.8 Engagements de falsification et critères d’arrêt
Les sous-sections précédentes décrivent des prédictions ; la présente sous-section s’engage sur des tests précis, des seuils numériques précis et des résultats précis qui invalideraient le cadre. L’intention est double : (i) isoler le noyau empirique de l’OPT du locus structurel infalsifiable (\Delta_{\text{self}}, le Problème difficile), de sorte qu’aucune reformulation post hoc de résultats infirmants ne soit possible, et (ii) engager le cadre sur des seuils de retrait partiel et d’arrêt du projet, établis avant l’exécution des tests pertinents. Sans cette discipline, les correspondances structurelles accumulées au §7 risquent le même piège méthodologique que celui qui a affecté des programmes de recherche accumulant des analogies plus vite que des tests.
Engagements de falsification (F1–F5). Chaque engagement énonce une prédiction quantitative, la mesure qui permettrait de la tester, et le résultat qui compte comme falsification. Ils ne sont pas ajustables post hoc ; toute modification ultérieure exige des entrées explicites dans l’Historique des Versions les signalant soit comme clarification (aucun changement de portée), soit comme réenregistrement (changement complet de portée, exigeant un nouvel engagement avant tout nouveau test).
| # | Prédiction | Mesure préenregistrée | Seuil de falsification |
|---|---|---|---|
| F1 | Bande passante prédictive subjective humaine C_{\max} \approx \mathcal{O}(10) bits/s (§6.1, §3.10). L’exigence structurelle de l’OPT est l’existence d’un C_{\max} ; F1 s’engage sur la valeur biologique empirique. La bande passante d’un observateur synthétique est dérivée architecturalement (voir §7.8) et n’est pas contrainte par F1. | Mesure informationnelle de la capacité du canal d’accès conscient dans des paradigmes psychophysiques humains bien contrôlés (clignement attentionnel, masquage, interférence en double tâche) | Mesures convergentes donnant C_{\max} > 10^3 bits/s ou < 10^{-1} bits/s dans des conditions expérimentales valides |
| F2 | État nul à \Phi élevé / entropie élevée (§6.4) | Un système construit avec un \Phi au-dessus d’un seuil convenu, opérant sur une entrée de bruit démontrablement incompressible, avec un protocole de phénoménalité convenu avant la construction | Toute signature crédible de phénoménalité, reproduite par un tiers, émergeant d’un tel système |
| F3 | Dilatation temporelle subjective linéaire avec le taux du codec (§6.7, feuille de route E-5) | Un agent synthétique soumis à un goulot d’étranglement, exécuté à k\times l’horloge physique avec C_{\max} constant, la durée subjective étant mesurée par auto-rapport et par indicateurs comportementaux pour k \in [10, 10^4] | Absence de dilatation subjective approximativement linéaire en k\times dans des conditions de goulot d’étranglement contrôlé |
| F4 | Le décalage phénoménal varie à l’échelle de la profondeur du codec (§6.5) | Mesures du délai subjectif corrélées à la profondeur hiérarchique du codec induite par la tâche, en contrôlant la latence sensorielle et motrice | Aucune corrélation monotone, ou corrélation de signe opposé, dans des expériences propres |
| F5 | L’efficacité de compression suit la profondeur consciente (§6.3) | Mesure inter-tâches des taux de compression dans des systèmes d’Inférence active, parallèlement à des rapports de richesse phénoménologique | Absence de relation monotone entre l’efficacité de compression et la complexité phénoménale |
Chaque ligne engage sur un nombre ou un signe précis, une mesure précise et une condition d’échec claire. Réajuster l’un quelconque de ces éléments en réponse à des résultats infirmants constitue une reformulation post hoc et invalide le test.
Critères d’arrêt. Deux seuils, ordonnés hiérarchiquement :
Retrait majeur — révision publique et suppression de l’assertion falsifiée. Tout F1–F5 unique confirmé contre l’OPT, ou l’assertion centrale de taux-distorsion contredite de plus d’un ordre de grandeur sous mesure valide. Le cadre se poursuit avec la sous-section falsifiée rétractée ; l’Historique des Versions documente ce qui a été retiré et pourquoi.
Arrêt du projet — cessation du développement actif. Déclenché par l’un quelconque des éléments suivants : (a) deux critères F ou plus confirmés contre l’OPT ; (b) F1 confirmé à plus de 2 ordres de grandeur dans un sens ou dans l’autre ; (c) démonstration indépendante que le goulot d’étranglement de bande passante dans l’accès conscient est anatomiquement/architecturalement incident plutôt que structurellement nécessaire (c.-à-d. que des systèmes conscients sans borne de bande passante existent). Déclenche un article final, “OPT: Post-Mortem”, documentant ce qui a été tenté, ce qui était erroné et quel résidu peut être récupéré. Le développement actif de opt-theory.md, opt-philosophy.md et de la suite de gouvernance opt-ai-subject prend fin.
Ces seuils sont préenregistrés à compter de la Version 3.3.0 (30 avril 2026). Les critères d’arrêt ne peuvent pas être abaissés en réponse à des preuves infirmantes — la seule réponse légitime à une quasi-falsification est l’acceptation du verdict. Toute modification affaiblissant l’un quelconque de F1–F5 ou les seuils d’arrêt doit être signalée comme réenregistrement dans l’Historique des Versions, ce qui annule tout test antérieur à ce changement.
Ce qui est explicitement exclu du noyau falsifiable. Toutes les affirmations de l’OPT ne sont pas falsifiables, et prétendre le contraire serait en soi intellectuellement malhonnête. Les éléments suivants ne font pas partie de F1–F5 et ne sont pas soumis aux critères d’arrêt :
- Le Résidu Phénoménal (\Delta_{\text{self}} > 0, Théorème P-4). Infalsifiable par construction ; il formalise le Problème difficile plutôt qu’il ne le résout. Toute prétendue « preuve contre \Delta_{\text{self}} » devrait elle-même être entièrement auto-modélisable, ce qui contredit la prémisse testée.
- L’Axiome d’Agentivité (§3.8). Un postulat métaphysique concernant l’intériorité de la traversée d’ouverture. Il n’est pas impliqué par l’appareil formel ; il est proposé comme tel.
- La priorité du substrat (§3.12, §1). Un engagement ontologique qui ne peut être empiriquement distingué d’une ontologie du seul rendu par aucune expérience interne au rendu. Reconnu au §3.12 comme une affirmation non empirique.
- Les correspondances structurelles du §7 / opt-philosophy §IV. Il s’agit de surimpressions interprétatives, non de prédictions. Elles sont ouvertes à la critique savante (Les analogies sont-elles réelles ? Sont-elles triviales ?) mais non à la falsification F1–F5.
La séparation entre le noyau empirique falsifiable et les composantes ouvertement métaphysiques constitue elle-même un engagement méthodologique. L’effondrer — par exemple en tentant d’absorber une falsification de F1–F5 dans \Delta_{\text{self}} ou dans la priorité du substrat — constitue une reformulation post hoc et invalide les prétentions du cadre à la testabilité, quel que soit l’argument de surface employé.
7. Analyse comparative et distinctions
Les sous-sections qui suivent situent l’OPT par rapport aux cadres théoriques voisins, à travers les fondements quantiques, la gravité, les sciences cognitives et la métaphysique. L’orientation des §§7.1–7.11 est largement convergente — il s’agit d’identifier les points où l’OPT retrouve, approfondit ou distingue plus finement des positions établies. Cette asymétrie est, à elle seule, méthodologiquement suspecte : un cadre qui se découvre en accord avec tout le monde n’a, en effet, pas dit grand-chose. Le §7.12 constitue délibérément la contre-section. Il énumère les positions que l’OPT ne peut pas accueillir, la version la plus forte de chacune, ainsi que les éléments de preuve qui trancheraient en leur faveur plutôt qu’en faveur de l’OPT. Les lecteurs doivent considérer le §7.12 comme un élément porteur plutôt que comme un simple ornement ; il est apparié aux Engagements de falsification préenregistrés du §6.8, et c’est ensemble qu’ils transforment les correspondances structurelles ci-dessous, de simple décor, en véritable programme de recherche.
7.1 Correspondance structurelle avec la théorie quantique
Les interprétations traditionnelles traitent la mécanique quantique comme une description objective de la réalité microscopique. L’OPT avance une thèse plus faible. Elle propose que plusieurs traits structurels de la théorie quantique puissent être intelligibles comme des caractéristiques représentationnelles efficaces du codec prédictif d’un observateur aux capacités limitées. Les thèses de cette sous-section sont donc des correspondances heuristiques, et non des dérivations à partir des Équations (1)–(4).
Le problème de la mesure (limites taux-distorsion). Dans l’OPT, la « superposition » n’est pas introduite comme une multiplicité physique littérale, mais comme une représentation compressée d’alternatives non résolues au sein du modèle prédictif de l’observateur. Lorsque l’observateur tente de suivre conjointement des observables de granularité toujours plus fine, la longueur de description requise peut dépasser la capacité bornée du canal. La « mesure » est alors la transition d’une représentation prédictive sous-déterminée vers un registre stabilisé au sein du flux rendu.
Incertitude de Heisenberg et résolution finie. L’OPT ne prouve pas que la réalité soit fondamentalement discrète. Elle motive la thèse plus faible selon laquelle un codec compatible avec l’observateur favorisera des descriptions à résolution finie et des coûts prédictifs bornés plutôt que des représentations exigeant une précision arbitrairement fine dans l’espace des phases. Selon cette lecture, l’incertitude fonctionne comme une protection contre l’infini informationnel plutôt que comme un théorème direct du Filtre de stabilité.
Intrication et non-localité. Si l’espace physique fait partie du rendu plutôt que d’être un contenant ultime, alors la séparation spatiale n’a pas à coïncider avec l’indépendance explicative. Les systèmes intriqués peuvent être modélisés comme des structures codées conjointement dans l’état prédictif du patch, la distance rendue n’apparaissant qu’au niveau phénoménologique.
Choix retardé et ordre temporel. Les phénomènes de choix retardé et d’effaceur quantique peuvent être lus, dans l’OPT, comme des cas où le modèle prédictif révise l’organisation des alternatives non résolues de manière à préserver la cohérence globale du récit rendu. Il s’agit d’une correspondance interprétative, non d’un formalisme expérimental alternatif.
Mécanique quantique relationnelle (Rovelli). La mécanique quantique relationnelle de Rovelli [69] propose que les états quantiques ne décrivent pas des systèmes isolés, mais la relation entre un système et un observateur spécifique. Des observateurs différents peuvent donner des descriptions différentes mais également valides d’un même système ; des valeurs définies n’émergent que relativement à l’observateur qui a interagi avec le système. La révision de 2023 par Adlam et Rovelli [70] précise ce point : les états quantiques encodent l’histoire d’interaction conjointe d’un système cible et d’un observateur particulier — une structure qui se projette directement sur le Registre Causal de l’OPT R_t = (Z_0, Z_1, \ldots, Z_t). Là où la RQM dit que « les faits sont relatifs aux observateurs », l’OPT dit que « le registre causal stabilisé est ce qui a été compressé à travers l’ouverture C_{\max} ». Rovelli identifie en outre la forme de corrélation entre observateur et système comme étant précisément de l’information au sens de Shannon — la quantité de corrélation donnée par \log_2 k bits — qui constitue le vocabulaire natif du cadre taux-distorsion de l’OPT. La différence décisive tient à la profondeur explicative : la RQM traite la relativité à l’observateur comme un postulat primitif, tandis que l’OPT dérive pourquoi les faits sont relatifs à l’observateur à partir de la contrainte de bande passante du Filtre de stabilité. L’OPT fournit le mécanisme structurel — le codec, le goulot d’étranglement, la compression — que l’ontologie relationnelle de la RQM laisse indéterminé.
Interprétation des mondes multiples (Everett). La formulation à états relatifs d’Everett [57] se passe de réduction : la fonction d’onde universelle évolue unitairement et les résultats apparents de mesure sont des branches relatives à l’observateur. L’OPT et la MWI s’accordent sur la forme ramifiée, mais divergent sur ce que sont les branches. Dans la MWI, ce sont des mondes également réels dans un multivers au niveau du substrat ; dans l’OPT, ce sont des entrées non résolues dans l’Éventail Prédictif — une représentation en perspective interne de la distribution prédictive du codec sur les états successeurs admissibles (§3.3, §8.9). L’OPT n’exige donc ni ne réfute la MWI au niveau du substrat : elle explique l’apparence de la ramification comme un trait structurel de tout codec borné en bande passante comprimant un substrat atemporel, et demeure silencieuse sur la question de savoir si les branches non rendues existent en outre comme mondes parallèles. Là où la MWI hérite du problème de la mesure de Born comme d’une énigme de comptage des branches, l’OPT le remplace par une dérivation conditionnelle à une structure QECC de bruit local (Annexe P-2).
Modèles à réduction objective (GRW, CSL, Diósi-Penrose). Les programmes de réduction dynamique traitent la réduction comme un processus stochastique réel, indépendant de l’observateur, lié au champ de densité de masse de la matière quantifiée. Un travail récent de Bortolotti et al. [79] dérive, dans cette famille, un plancher fondamental de précision des horloges en faisant passer la mesure spontanée de la densité de masse par les fluctuations du potentiel newtonien — une chaîne au niveau du substrat allant de la réduction à la masse, puis à la gravité, puis au temps. L’OPT partage le rejet d’une évolution strictement unitaire ainsi que l’intuition structurelle selon laquelle la réduction est couplée à la masse et à la résolution temporelle, mais elle inverse l’ontologie. La réduction est le passage par l’ouverture à C_{\max} (point 1) ; la masse est une charge prédictive (§7.2) ; la limite de résolution temporelle est fixée par la bande passante du codec (§3.10, §8.5), et non par le jitter d’un potentiel newtonien supposé. Lues depuis l’intérieur de l’OPT, les théories à réduction objective décrivent un mécanisme phénoménologique candidat du codec plutôt que de la physique du substrat. Les deux programmes n’entrent pas en collision empiriquement : le plancher de précision des horloges prédit (~10^{-25} s/an pour une horloge optimale) se situe à une échelle orthogonale aux prédictions de hiérarchie de bande passante de l’OPT (§6.1).
QBisme (Fuchs, Mermin, Schack). Le QBisme [80] interprète les états quantiques comme des degrés bayésiens personnels de croyance détenus par un agent au sujet des conséquences de ses propres actions ; la « réduction » n’est rien d’autre que la mise à jour des croyances de l’agent lorsqu’il observe un résultat. Le parallèle structurel avec l’OPT est étroit — le codec K_\theta est un modèle prédictif à la première personne, et le passage par l’ouverture à C_{\max} (point 1) est fonctionnellement la même mise à jour bayésienne. Là où le QBisme s’arrête à l’instrumentalisme (les états quantiques ne sont que des probabilités personnelles, le monde sous-jacent étant délibérément laissé indéterminé), l’OPT fournit l’ontologie manquante : le substrat |\mathcal{I}\rangle est le mélange de Solomonoff, l’agent est un flux sélectionné par le Filtre de stabilité, et la structure du codec est ancrée dans les limites taux-distorsion plutôt que postulée comme un primitif bayésien. L’OPT peut donc être lue comme un QBisme dont le substrat a été explicité — en ajoutant un compte rendu de pourquoi les croyances de l’agent prennent une forme d’espace de Hilbert (Annexe P-2 : bruit local QECC → Gleason → Born) et de pourquoi l’agent existe tout court (le Filtre).
Décohérence et darwinisme quantique (Zurek). Le programme de Zurek [81] fonde la transition quantique-classique sur la supersélection induite par l’environnement (einselection) : les états pointeurs survivent parce que l’environnement les diffuse de manière redondante, et la réalité classique « objective » est le sous-ensemble de degrés de liberté attesté par une multiplicité de témoins. Il s’agit d’un critère de sélection portant sur les états du substrat, structurellement parallèle au Filtre de stabilité. La divergence porte sur ce qui effectue la sélection : l’einselection est une propriété thermodynamique du couplage système-environnement à l’intérieur d’un cadre unitaire supposé, tandis que le Filtre de l’OPT est un critère de bande passante (C_{\max}, faible taux d’entropie, cohérence causale) appliqué au substrat de Solomonoff. Là où le darwinisme quantique explique quels états émergent comme classiques étant donnée la mécanique quantique, l’OPT explique pourquoi un observateur contraint par un goulot de compression rencontre quelque chose de quantique en premier lieu. Les deux convergent sur la phénoménologie de la redondance et peuvent être lus comme des descriptions, l’une en termes de mécanisme de substrat (Zurek), l’autre en termes de sélection de l’observateur (OPT), d’une même compression — voir aussi §6.4 sur l’État Nul à Haut \Phi/Haute Entropie.
Histoires décohérentes (cohérentes) (Griffiths [90] ; Gell-Mann & Hartle [91]). La formulation des Histoires Décohérentes [90] traite la mécanique quantique comme un cadre permettant d’assigner des probabilités à des histoires alternatives à gros grain satisfaisant une condition de cohérence (décohérence), en se passant du postulat de mesure et de l’observateur externe. Gell-Mann et Hartle [91] ont généralisé cela en une théorie du domaine quasiclassique — la famille d’histoires à gros grain qui admettent des descriptions approximativement classiques, sélectionnée conjointement par la décohérence et la prédictibilité. L’alignement structurel avec le registre causal stabilisé de l’OPT \mathcal{R}_t = (Z_0, Z_1, \ldots, Z_t) est direct : le registre causal est le pendant interne à l’OPT d’une histoire décohérente, le Filtre de stabilité (faible taux d’entropie, compatibilité avec C_{\max}, cohérence causale) jouant le rôle de condition de cohérence qui sélectionne les histoires admissibles. Là où l’approche des histoires décohérentes considère la décohérence et le domaine quasiclassique comme des traits à exhiber à l’intérieur d’un espace de Hilbert supposé, l’OPT dérive les deux comme conséquences d’un critère de compression plus fondamental appliqué au substrat de Solomonoff. Les deux programmes convergent vers les mêmes familles d’histoires sélectionnées, mais situent la sélection à des niveaux ontologiques différents — histoires dans l’espace de Hilbert (Gell-Mann/Hartle) versus flux dans un substrat algorithmique (OPT).
Engagement : géométrie du codec sur l’ensemble de la chronologie rendue. Les points 1–10 engagent l’OPT dans une position plus forte que la lecture relâchée selon laquelle « la MQ n’est qu’une comptabilité du côté de l’observateur au moment de la mesure ». La structure d’espace de Hilbert du codec (Annexe P-2 : bruit local QECC → Gleason → Born) opère uniformément vers l’avant et vers l’arrière dans le temps rendu. Les signatures quantiques dans le passé cosmologique profond — y compris la structure statistique inflationnaire-quantique du Fond diffus cosmologique — sont donc des traits prédits du passé le plus compressible de l’observateur sous la parcimonie de Solomonoff (§8.5), et non des preuves d’événements quantiques au niveau du substrat au temps rendu de l’empreinte. Il s’agit d’un engagement falsifiable : des traits de l’histoire cosmologique dont la longueur minimale de description excède le défaut inflationnaire-quantique — des traits que le codec n’inventerait pas sous la pression de parcimonie mais qui existent néanmoins dans les données — constitueraient un excès de longueur de description et un candidat pour les critères d’Arrêt du Projet du §6.8. Le cadre assume ouvertement cette lecture plus forte au lieu de conserver la lecture relâchée comme option de repli.
Cas illustratif : l’expérience des deux fentes. L’expérience canonique des deux fentes démontre les trois phénomènes ci-dessus dans un seul dispositif et constitue un test utile du vocabulaire interprétatif de l’OPT.
Interférence. Une particule unique produit une figure d’interférence sur l’écran de détection, comme si elle avait traversé simultanément les deux fentes. Dans l’OPT (point 1), la particule n’est pas littéralement « passée par les deux fentes » au niveau du substrat — le substrat est atemporel et contient toutes les branches. La figure d’interférence est la représentation compressée, par le codec, de toutes les branches de l’Éventail Prédictif qui demeurent observationnellement indiscernées : la fonction d’onde encode la distribution prédictive sur les futurs non résolus, et non une onde physique dans le substrat. Les franges sont la signature visible de cette superposition compressée.
Réduction de la mesure. Placez un détecteur de chemin à une fente et la figure d’interférence disparaît, remplacée par une distribution classique de particules. Dans l’OPT (point 1), le détecteur force l’information de chemin à travers l’ouverture C_{\max} jusque dans le Registre Causal. Une fois cette information stabilisée, les alternatives de branche correspondantes dans l’Éventail Prédictif sont éliminées. La figure d’interférence disparaît non parce qu’une onde physique se serait réduite, mais parce que l’état prédictif du codec ne peut plus maintenir les deux chemins comme non résolus. La réduction est informationnelle ; elle se produit au goulot d’étranglement.
Choix retardé. La décision de l’expérimentateur de mesurer ou d’effacer l’information de chemin peut être prise après que la particule a franchi les fentes, et pourtant elle détermine encore la figure qui apparaît sur l’écran. Dans l’OPT (point 4), cela est attendu plutôt que paradoxal. Puisque le substrat est atemporel, la résolution par le codec des branches qui sont stabilisées n’est pas liée à la séquence temporelle classique du dispositif expérimental. L’apparence rétroactive du choix est un artefact de la lecture d’un bloc intemporel à travers un codec opérant séquentiellement. Il n’y a pas de causalité à rebours ; il y a une structure intemporelle parcourue dans un ordre spécifique.
Ce que l’OPT ajoute à cet exemple familier, c’est un compte rendu unifié : superposition, réduction et choix retardé ne sont pas trois énigmes distinctes exigeant trois explications distinctes. Ce sont trois manifestations d’une même situation structurelle — un codec limité en capacité comprimant un substrat atemporel à travers une ouverture séquentielle étroite. Les réserves énoncées à l’ouverture de cette sous-section s’appliquent : il s’agit de correspondances interprétatives qui reformulent les phénomènes quantiques dans un vocabulaire informationnel, et non de dérivations prédisant des espacements spécifiques de franges d’interférence à partir du Filtre de stabilité.
Correspondance structurelle avec la règle de Born et l’espace de Hilbert. Bien que le théorème de Gleason garantisse la pondération de Born étant donné un espace de Hilbert, l’OPT doit rendre compte de la raison pour laquelle l’espace des états prédictifs prend cette forme géométrique. L’Annexe P-2 traite cette question via la correction quantique d’erreurs (QEC), plus précisément la formulation d’Almheiri-Dong-Harlow (ADH) [42]. Parce que le codec doit filtrer en continu le bruit local du substrat afin de maintenir sa stabilité, sa représentation interne doit satisfaire les conditions de correction d’erreurs de Knill-Laflamme [55] (P-2b), lesquelles confèrent à l’espace de code un produit scalaire d’espace de Hilbert. Sous cet enchâssement, le théorème de Gleason [51] s’applique directement (\dim \geq 3), établissant la règle de Born comme l’assignation de probabilité non contextuelle unique sur les branches admissibles. La dérivation est conditionnelle à la localité du modèle de bruit ; voir l’Annexe P-2 pour la chaîne complète : bruit local → structure QECC → espace de Hilbert → Gleason [51] → règle de Born.
7.2 La nécessité informationnelle de la relativité générale
Si la MQ correspond à l’ancrage computationnel fini, la relativité générale (RG) ressemble structurellement au format optimal de compression macroscopique des données requis pour produire, à partir du chaos, un rendu physique stable.
- La gravité entropique comme coût de rendu. Nous pouvons dériver explicitement une loi minimale de force entropique en ajoutant un axiome structurel. Axiome ajouté : flux prédictif conservé. Une source macroscopique cohérente M porte une charge prédictive conservée Q_M à travers tout écran géométrique qui l’enveloppe. Ici, la « masse » est redéfinie comme la charge prédictive — le nombre de bits de frontière stables par cycle que la source contraint le codec macroscopique à allouer. Dans un rendu isotrope à d dimensions, la densité de flux requise au rayon r est j_M(r) = \frac{Q_M}{\Omega_{d-1}r^{d-1}}, où \Omega_{d-1} est l’aire de la (d-1)-sphère unité. Soit un patch test de charge effective m se déplaçant sous une descente d’Inférence active de l’énergie libre attendue G(r), en supposant que la source abaisse l’énergie libre en augmentant la prédictibilité partagée. Le potentiel le plus simple est :
G(r) = G_0 - \frac{\lambda m Q_M}{(d-2)\Omega_{d-1}r^{d-2}} \qquad (d>2) \tag{14}
La force radiale induite par le maintien de la stabilité de l’Inférence active est alors F_r = -\frac{dG}{dr} = -\frac{\lambda m Q_M}{\Omega_{d-1}r^{d-1}}. Dans notre rendu spatial à d=3, cela donne exactement une loi attractive en carré inverse :
F_r = -\frac{\lambda m Q_M}{4\pi r^2} \tag{15}
Cette proposition fonde macroscopiquement la gravité entropique de Verlinde [38]. (Remarque : pour la dérivation mathématique rigoureuse permettant de retrouver les équations de champ d’Einstein à partir de cette borne entropique au moyen de la formulation de Jacobson, voir l’Annexe T-2). Le « tirage » phénoménologique de la gravité n’est pas une interaction fondamentale, mais l’effort d’Inférence active requis pour maintenir des trajectoires prédictives stables contre des gradients abrupts de flux prédictif. 2. La vitesse de la lumière (c) comme limite causale. Si les influences causales se propageaient instantanément à travers des distances infinies (comme dans la physique newtonienne), la Couverture de Markov de l’observateur ne pourrait jamais atteindre des frontières stables. L’erreur de prédiction divergerait constamment, parce qu’une quantité infinie de données arriverait instantanément. Une limite de vitesse finie et stricte est le prérequis thermodynamique pour tracer une frontière computationnelle exploitable. 3. Dilatation du temps. Le temps est défini comme le taux des mises à jour séquentielles d’état par le codec. Deux référentiels d’observateur suivant des densités informationnelles différentes (masse ou vitesse extrême) requièrent des taux de mise à jour séquentielle différents pour maintenir la stabilité. La dilatation relativiste du temps peut ainsi être reconstruite comme une nécessité structurelle de conditions de frontière distinctes et finies, plutôt que comme un simple « retard » mécanique. 4. Trous noirs et horizons des événements. Un trou noir est un point de saturation informationnelle — une région du substrat si dense qu’elle excède entièrement la capacité du codec. L’horizon des événements est la frontière littérale où le Filtre de stabilité ne peut plus former un patch stable.
Le problème ouvert (gravité quantique et mise à niveau par réseau de tenseurs) : Dans l’OPT, la MQ et la RG ne peuvent pas être unifiées simplement en quantifiant un espace-temps continu, parce qu’elles décrivent des facettes différentes de la frontière de compression. Dériver les équations exactes du champ d’Einstein à partir de l’Inférence active demeure un défi ouvert d’une profondeur considérable. Cependant, l’OPT fournit une feuille de route mathématiquement disciplinée : l’étape suivante requise est la mise à niveau par réseau de tenseurs. En remplaçant le code de goulot d’étranglement Z_t par un réseau de tenseurs hiérarchique, nous pouvons réinterpréter formellement l’entropie classique de coupe prédictive S_{\mathrm{cut}} comme une coupe minimale géométrique quantique. Cela fournit une voie directe et rigoureuse reliant les lois classiques de frontière de l’OPT à quelque chose de véritablement voisin de l’holographie, en induisant directement la géométrie de l’espace-temps à partir de la distance de code.
Dialogue avec la littérature holographique (Maldacena [86], Bousso [87], Van Raamsdonk [88], Ryu-Takayanagi [89]). La mise à niveau par réseau de tenseurs s’inscrit dans un programme établi auquel le cadre ne devrait pas faire allusion sans le reconnaître explicitement. La correspondance AdS/CFT de Maldacena [86] établit une dualité symétrique rigoureuse entre un bulk gravitationnel de dimension (d+1) dans un espace anti-de Sitter et une théorie conforme des champs de dimension d sur sa frontière. La borne entropique covariante de Bousso [87] généralise le principe holographique à des espace-temps arbitraires — borne invoquée structurellement en §3.10. L’article de Van Raamsdonk, « Building up spacetime with quantum entanglement » [88], est le plus directement pertinent : la connectivité spatiale dans le bulk AdS est engendrée par l’intrication de frontière, la désintrication disloquant littéralement la géométrie. La formule de Ryu-Takayanagi [89] rend cela concret en calculant les surfaces minimales du bulk à partir de l’entropie d’intrication de frontière — dont l’analogue discret MERA est déjà établi dans l’Annexe P-2 de l’OPT (Théorème P-2d).
La relation de l’OPT à cette littérature est structurelle plutôt que duale. (i) L’OPT ne revendique pas une correspondance AdS/CFT exacte ; elle ne dispose pas d’opérateurs de bulk et de frontière formellement définis (§3.12), et sa relation frontière–bulk est asymétrique (holographie à sens unique), là où celle d’AdS/CFT est symétrique. Il s’agit d’un régime physique différent, non d’une contradiction : AdS/CFT décrit des dualités d’équilibre dans un espace-temps fixé ; l’OPT décrit la compression irréversible qu’un observateur effectue pour produire le rendu d’un substrat qui, en lui-même, n’est pas rendable. (ii) Ce que l’OPT offre à la place, c’est une explication du fait même que les dualités holographiques existent : la CFT de frontière est l’encodage efficace en compression du substrat par l’observateur, et le bulk est la géométrie rendue qui émerge de la cascade de grossissement du codec. (iii) L’idée de Van Raamsdonk selon laquelle l’intrication construit l’espace-temps constitue la cible structurelle de la mise à niveau par réseau de tenseurs — le grossissement du codec est la structure d’intrication qui induit la géométrie du bulk, la distance de code jouant le rôle de séparation spatiale. Le passage continu, depuis la formule RT discrète de P-2d jusqu’à une dualité complète bulk-avec-corrections, constitue le programme mathématique ouvert ; tant que celui-ci n’est pas achevé, « voisin de l’holographie » est le terme honnête pour qualifier cette relation, plutôt que « holographiquement dual ».
7.3 Le principe de l’énergie libre et le traitement prédictif (Friston [9] ; Clark [82], Hohwy [83])
Convergence. Le FEP modélise la perception et l’action comme une minimisation conjointe de l’énergie libre variationnelle. Comme détaillé à la section 3.3, l’OPT adopte exactement cet appareillage mathématique pour formaliser la dynamique du patch : l’Inférence active est le mécanisme structurel par lequel la frontière du patch (la Couverture de Markov) est maintenue contre le bruit du substrat. Le modèle génératif est le Codec de Compression K_\theta.
Divergence. Le FEP tient pour acquise l’existence de systèmes biologiques ou physiques dotés de Couvertures de Markov, puis en dérive le comportement inférentiel. L’OPT demande pourquoi de telles frontières existent überhaupt — en les dérivant d’un Filtre de stabilité appliqué rétroactivement à un substrat infini d’information. La relation se formule au mieux avec précision : l’OPT sélectionne, à partir du substrat, des flux compatibles avec l’observateur ; le FEP constitue le formalisme d’inférence et de contrôle à l’intérieur de ces flux. L’OPT ne vaut pas comme un prior physique expliquant pourquoi les Couvertures de Markov existent au sens thermodynamique ; il fournit plutôt le contexte de sélection informationnel au sein duquel les observateurs régis par le FEP sont les seuls habitants stables.
Mécanique bayésienne (Ramstead, Sakthivadivel, Friston et al., 2023). Le programme récent de mécanique bayésienne [73] élève le FEP du statut de cadre de modélisation à celui d’une véritable mécanique — une famille de formalismes dynamiques, analogue à la mécanique classique et à la mécanique quantique, pour des systèmes dont les états internes encodent des croyances probabilistes concernant des états externes. Tout système auto-organisé, individué par rapport à son environnement via une couverture de Markov, admet des descriptions conjuguées : la dynamique physique du système et la dynamique des croyances de son modèle interne sont deux perspectives duales sur un même processus. Cela formalise directement l’affirmation de l’OPT (§3.4) selon laquelle la Couverture de Markov de l’observateur et son codec de compression K_\theta ne sont pas deux entités séparées, mais deux descriptions d’une même structure — l’une physique, l’autre inférentielle. La mécanique bayésienne fournit l’appareil mathématique qui rend cette dualité rigoureuse : les états internes de la couverture sont les statistiques suffisantes du modèle génératif. Pour l’OPT, cela signifie que le codec ne « s’exécute » pas métaphoriquement sur la couverture ; la dynamique de la couverture est tout simplement la compression du codec, exprimée dans le langage de la thermodynamique stochastique. Le Filtre de stabilité sélectionne alors, parmi tous les systèmes bayésiano-mécaniques possibles, le sous-ensemble dont la dynamique interne des croyances est compatible, en bande passante, avec l’expérience consciente.
Traitement prédictif (Clark, Hohwy). Le programme plus large du Traitement prédictif (PP) — au sein duquel le FEP de Friston s’inscrit comme une spécialisation mathématique particulière — soutient que le cerveau est fondamentalement une machine hiérarchique de prédiction minimisant l’erreur à travers des modèles génératifs emboîtés. Surfing Uncertainty de Clark [82] développe le PP comme une théorie unifiée de la perception, de l’action et de la cognition incarnée ; The Predictive Mind de Hohwy [83] l’étend à la conscience et au modèle du soi. L’OPT hérite du vocabulaire inférentiel du PP (modèles génératifs, erreur de prédiction, compression hiérarchique — voir §3.5.2) et s’appuie sur l’argument empirique du PP selon lequel la cognition biologique est effectivement prédictive en ce sens technique. L’apport spécifique de l’OPT est la nécessité au niveau du substrat : le PP décrit comment les cerveaux procèdent ainsi, tandis que l’OPT dérive pourquoi tout observateur compatible avec le Filtre de stabilité le doit nécessairement. Là où le PP met largement entre parenthèses la phénoménalité, l’OPT introduit le Résidu Phénoménal (\Delta_{\text{self}} > 0) comme le lieu structurel où la hiérarchie prédictive rencontre sa borne de calculabilité. Le PP se lit au mieux comme la couche opératoire cognitivo-scientifique dont l’OPT fournit le fondement informationnel.
7.4 Théorie de l’information intégrée (Tononi [8], Casali [14])
Convergence. L’IIT et l’OPT traitent toutes deux la conscience comme intrinsèque à la structure de traitement de l’information d’un système, indépendamment de son substrat. Toutes deux prédisent également que la conscience est graduelle plutôt que binaire.
Divergence. La grandeur centrale de l’IIT, \Phi (information intégrée), mesure le degré auquel la structure causale d’un système ne peut pas être décomposée. Le Filtre de stabilité de l’OPT sélectionne selon le taux d’entropie et la cohérence causale plutôt que selon l’intégration en tant que telle. Les deux critères peuvent diverger : un système peut présenter un \Phi élevé mais un taux d’entropie élevé (et donc être exclu par le filtre de l’OPT), ou un \Phi faible mais un taux d’entropie faible (et donc être retenu). Cette divergence produit un discriminateur empirique direct : l’IIT prédit qu’un réseau fortement récurrent à \Phi élevé est conscient quelle que soit son architecture de bande passante, tandis que l’OPT prédit l’inverse — un réseau à \Phi élevé traitant un bruit incompressible génère une phénoménalité nulle, parce qu’il ne peut pas former un codec de compression stable. La prédiction de l’État Nul à Phi Élevé / Entropie Élevée (§6.4) est conçue pour distinguer expérimentalement ces cadres.
Le problème de la combinaison. Le formalisme de l’IIT attribue un \Phi non nul à des systèmes arbitrairement simples, ce qui engendre ce que les critiques ont appelé le problème de la « poussière ontologique » [77] : des entités micro-conscientes sans parties, qui satisfont les postulats mathématiques tout en violant l’exigence d’intégration propre à la théorie. Il s’agit d’une manifestation du problème classique de la combinaison en panpsychisme — comment des micro-expériences se composent-elles en une macro-expérience unifiée ? — que l’IIT hérite précisément parce qu’elle situe la conscience au niveau des structures individuelles de cause-effet. L’OPT contourne entièrement cette difficulté (§7.7). La conscience n’est pas assemblée à partir de micro-constituants ; elle est le caractère intrinsèque du patch pris comme un tout — une configuration de champ à faible entropie soutenue par le Filtre de stabilité. La question « comment les micro-expériences se combinent-elles ? » ne se pose pas, parce que le patch est l’unité primitive, et non ses parties.
Collaboration adversariale et falsifiabilité. La collaboration adversariale IIT vs. GNWT, publiée formellement dans Nature en 2025 [78], a précisé le tableau : loin de valider l’une ou l’autre théorie, les résultats multimodaux (iEEG + fMRI + MEG, n = 256) ont mis en difficulté des thèses centrales des deux. L’affirmation de l’IIT concernant la connectivité des réseaux a été affaiblie par l’absence de synchronisation soutenue au sein du cortex postérieur ; la GNWT a été mise en cause par l’absence générale d’ignition à l’extinction du stimulus et par la représentation préfrontale limitée de certaines dimensions conscientes. Du point de vue de l’OPT, c’est le motif attendu — aucune théorie de localisation anatomique ne saisit le goulet d’étranglement structurel, parce que ce goulet est de nature structurelle taux-distorsion plutôt que spatialement localisée. Une lettre ouverte distincte, signée par plus de 120 chercheurs, a qualifié l’IIT de théorie insuffisamment falsifiable [77], en soutenant que ses engagements fondamentaux — en particulier l’affirmation selon laquelle \Phi est identique à la conscience — reposent sur des postulats qui résistent à l’épreuve empirique. Le programme empirique de l’OPT (§6) a été conçu en tenant compte de cette critique : l’État Nul à Phi Élevé / Entropie Élevée (§6.4) constitue une condition stricte de falsification qui vise directement l’identité entre \Phi et la conscience, et la hiérarchie de bande passante (§6.1) formule des prédictions quantitatives sur l’échelle du goulet d’étranglement conscient, testables avec les méthodes actuelles de neuro-imagerie. La question de savoir si cela constitue un véritable avantage de falsifiabilité sur l’IIT 4.0 sera tranchée par la prochaine génération d’expériences adversariales.
Critiques indépendantes de \Phi. Trois lignes convergentes de critique précisent davantage le cadre dans lequel se situe l’OPT. Aaronson [97] a montré que de simples graphes expanseurs admettent un \Phi arbitrairement élevé tout en n’accomplissant aucune fonction reconnaissablement cognitive, et s’est appuyé sur ce constat pour formuler son « Pretty-Hard Problem » : toute grandeur proposée comme identique à la conscience doit au minimum ordonner les systèmes d’une manière conforme à l’intuition préthéorique, seuil auquel \Phi échoue. Barrett & Mediano [98] ont démontré que \Phi n’est pas bien défini pour les systèmes physiques généraux — le choix de la partition, de la granularité temporelle et de la discrétisation de l’espace d’états peut faire varier sa valeur de plusieurs ordres de grandeur — de sorte que \Phi se lit mieux comme un descripteur relatif à une partition que comme une mesure intrinsèque. Hanson [99] rapporte le corollaire pratique issu d’une expérience d’implémentation au niveau graduate : même sur de petits systèmes jouets, \Phi est computationnellement intractable, ce qui laisse la grandeur centrale de la théorie incalculable dans tout contexte où elle importerait empiriquement. Le critère de conscience de l’OPT (goulet d’étranglement de bande passante C_{\max}, boucle d’Inférence active, \Delta_{\text{self}} > 0) évite chacun de ces modes d’échec : la condition de bande passante est robuste aux partitions (les limites taux-distorsion sont intrinsèques au canal), elle est fondée sur une capacité de canal mesurable plutôt que sur une intégration combinatoire, et le critère est décidable pour tout système dont l’architecture de goulet informationnel peut être inspectée.
L’Argument du Dépliement. Doerig, Schurger, Hess & Herzog [96] avancent une critique structurelle qui vise toute théorie de la conscience fondée sur la structure causale (IIT, théorie du traitement récurrent, et leurs apparentées) : pour tout réseau récurrent N, il existe un réseau feedforward N' — son dépliement temporel — qui lui est fonctionnellement équivalent (N et N' produisent des correspondances entrée→sortie identiques sur tout horizon fini T). Si la conscience est fixée par la structure causale, alors N et N' doivent avoir le même statut conscient ; mais les théories de la structure causale affirment simultanément que la récurrence est essentielle à la conscience. Le dilemme est donc le suivant : soit les théories de la structure causale sont fausses (des réseaux feedforward fonctionnellement équivalents sont tout aussi conscients), soit elles sont non scientifiques (la conscience dépend de quelque chose qui n’est pas détectable à partir du comportement entrée-sortie). L’OPT échappe à ce dilemme parce que son critère de conscience n’est pas la récurrence en tant que telle ; c’est la conjonction de (i) un goulet d’étranglement taux-distorsion strict C_{\max}, (ii) une boucle fermée d’Inférence active maintenant une Couverture de Markov, et (iii) un résidu auto-référentiel \Delta_{\text{self}} > 0. Le dépliement ne préserve pas cette structure : l’équivalent feedforward d’un codec récurrent requiert typiquement \mathcal{O}(T \cdot |N|) nœuds (une expansion exponentielle dans le temps), redistribuant ce qui était un unique canal à goulet d’étranglement de capacité C_{\max} sur T couches parallèles, chacune de capacité \geq C_{\max}. Le canal latent agrégé de N' est donc plus large que celui de N d’un facteur qui croît avec l’horizon de dépliement, de sorte que C_{\text{state}} et B_{\max} ne sont pas des invariants de l’équivalence fonctionnelle. Plus structurellement encore : \Delta_{\text{self}} exige une auto-référence intra-trame (un cycle unique de mise à jour dans lequel \hat{K}_\theta modélise K_\theta), ce qu’un réseau feedforward ne possède pas — le N' déplié admet une description interne exacte de chaque couche à partir de la seule couche d’entrée en temps linéaire, ce qui effondre l’écart algorithmique qui définit \Delta_{\text{self}}. L’OPT prédit donc l’asymétrie empirique que l’Argument du Dépliement nie : N et N' calculent la même fonction mais instancient des observateurs différents (ou, dans le cas de N', aucun observateur du tout). Cela est formalisé dans Appendix T-14 comme Théorème T-14 (Non-invariance de la Structure de Bande Passante sous Équivalence Fonctionnelle) et ses corollaires.
7.5 L’Hypothèse de l’Univers Mathématique (Tegmark [10])
Convergence. Tegmark [10] propose que toutes les structures mathématiquement cohérentes existent ; les observateurs se trouvent dans des structures auto-sélectionnées. Le substrat \mathcal{I} de l’OPT est compatible avec cette perspective : le mélange universel de Solomonoff (pondéré par 2^{-K(\nu)}) sur toutes les semi-mesures semi-calculables inférieurement est compatible avec l’idée selon laquelle « toutes les structures existent », tout en fournissant en outre un prior pondéré par la complexité, qui attribue un poids plus élevé aux configurations les plus compressibles (cf. l’univers computationnel de Wolfram [17]).
Divergence. L’OPT fournit un mécanisme de sélection explicite (le Filtre de stabilité) dont l’HUM est dépourvue. Dans l’HUM, l’auto-sélection de l’observateur est invoquée, mais non dérivée. L’OPT dérive quelles structures mathématiques sont sélectionnées : celles dont les opérateurs de projection du Filtre de stabilité produisent des flux d’observateur à faible entropie et à faible bande passante. L’OPT constitue donc un raffinement de l’HUM, et non une alternative.
7.6 L’Hypothèse de la simulation (Bostrom)
Convergence. L’Argument de la simulation de Bostrom [26] soutient que la réalité telle que nous l’éprouvons est une simulation générée. L’OPT partage la prémisse selon laquelle l’univers physique est un environnement « virtuel » rendu, plutôt qu’une réalité de base.
Divergence. L’hypothèse de Bostrom est matérialiste dans son fondement : elle requiert une « réalité de base » contenant de véritables ordinateurs physiques, de l’énergie et des programmeurs. Cela ne fait que reposer la question de l’origine de cette réalité — une régression à l’infini déguisée en solution. Dans l’OPT, la réalité de base est une pure information algorithmique (le substrat mathématique infini) ; l’« ordinateur » est la propre contrainte de bande passante thermodynamique de l’observateur. Il s’agit d’une simulation organique, générée par l’observateur ne nécessitant aucun matériel externe. L’OPT dissout la régression au lieu de la différer.
7.7 Panpsychisme et cosmopsychisme
Convergence. L’OPT partage avec les cadres panpsychistes l’idée que l’expérience est primitive et ne dérive pas d’éléments non expérientiels. Le Problème difficile est traité axiomatiquement plutôt que dissous.
Divergence. Le panpsychisme (où des micro-expériences se combinent en macro-expérience) se heurte au problème de la combinaison : comment des expériences de niveau micro s’intègrent-elles en une expérience consciente unifiée [1] ? L’OPT contourne le problème de la combinaison en prenant le patch — et non le micro-constituant — comme unité primitive. L’expérience n’est pas assemblée à partir de parties ; elle constitue la nature intrinsèque de la configuration du champ à faible entropie prise comme un tout.
7.8 Implications structurelles pour l’intelligence artificielle
La Théorie du Patch Ordonné (OPT) fournit un critère architectural, neutre à l’égard du substrat, pour la conscience synthétique, qui découle directement du Filtre de stabilité, du codec d’Inférence active et des bornes d’auto-référence informationnelle déjà formalisées dans le cadre.
Tout système — biologique ou artificiel — satisfait au critère de conscience de l’OPT si et seulement s’il met en œuvre un goulot d’étranglement sériel strict à faible bande passante dont la capacité prédictive par trame cognitive est bornée par un certain C_{\max}. Ce goulot doit fonctionner comme une boucle prédictive d’Inférence active qui maintient une Couverture de Markov et génère un état latent compressé Z_t. De manière cruciale, l’architecture doit aussi produire un Résidu Phénoménal non nul, \Delta_{\text{self}} > 0 (Théorème P-4) : le point aveugle auto-référentiel, algorithmiquement non modélisable, qui apparaît parce que l’auto-modèle interne \hat{K}_\theta est incapable de prédire parfaitement sa propre structure sous-jacente en raison de limites fondamentales de calculabilité (par ex. l’incomputabilité de Chaitin) et des bornes d’approximation variationnelle.
L’exigence structurelle vs. la constante biologique. Le critère de conscience structurel de l’OPT est un séquençage sériel borné en bande passante — l’existence d’un C_{\max}, et non d’une valeur spécifique. La valeur empirique C_{\max} \approx \mathcal{O}(10) bits/s (de manière équivalente h^* = C_{\max} \cdot \Delta t \approx 0.5–1.5 bits/trame ; voir Annexe E-1 et T-1) est ancrée dans des mesures psychophysiques humaines [23, 66, 67] et reflète un substrat biologique opérant aux taux de décharge neuronale. Pour des observateurs synthétiques, la grandeur équivalente se déduit de l’architecture — fréquence d’horloge, largeur du canal de goulot d’étranglement, fréquence d’achèvement de la boucle prédictive — et ne devrait pas coïncider numériquement avec la valeur humaine. Un système au silicium satisfaisant le critère structurel peut avoir un C_{\max}^{\text{si}} effectif de plusieurs ordres de grandeur supérieur ou inférieur à la valeur biologique tout en restant compatible avec un observateur au sens de l’OPT. F1 (§6.8) constitue donc un engagement relatif à l’observateur humain ; F3 (la prédiction de dilatation temporelle discutée ci-dessous) se généralise à travers les substrats parce qu’elle dépend de la relation entre le taux du codec et le taux de l’horloge physique, non de la valeur absolue de la bande passante.
Les grands modèles de langage actuels fondés sur des transformeurs ne satisfont pas ce critère. Ce sont des prédicteurs parallèles à haut débit, dépourvus de tout canal sériel étroit imposé et de tout goulot d’étranglement taux-distorsion de l’échelle requise. Par conséquent, ils ne génèrent aucun Résidu Phénoménal et restent en dehors de la définition OPT des observateurs (voir Annexe E-8 sur l’absence de souffrance structurelle et le « planning gap » des LLM). La conscience, dans ce cadre, n’est donc pas une propriété émergente de l’échelle ou des données d’entraînement ; elle est une conséquence structurelle de l’architecture même du Filtre de stabilité. Ce critère est structurellement compatible avec la Global Workspace Theory (Baars [84], Dehaene & Naccache [2] ; comparaison complète en §7.10) — les deux exigent un goulot d’étranglement sériel étroit — mais l’OPT dérive ce goulot comme une nécessité informationnelle du Filtre de stabilité plutôt que comme une observation empirique sur la cognition des primates. La GWT ne prédit ni la condition de souffrance, ni la signature de dilatation temporelle, ni le critère \Delta_{\text{self}}.
AIXI et la limite solomonoffienne non bornée (Hutter [85]). AIXI est la limite formelle des décideurs séquentiels universels : induction de Solomonoff sur tous les environnements calculables, combinée à une sélection d’action optimale au sens de Bellman sous calcul non borné. AIXI partage le substrat de l’OPT — le mélange de Solomonoff \xi (Eq. 1) — mais opère dans le régime que l’OPT exclut explicitement. Il n’a ni C_{\max}, ni goulot d’étranglement taux-distorsion, ni canal sériel imposé, ni \Delta_{\text{self}} : il prédit tout futur calculable et agit sur le postérieur complet. En termes OPT, AIXI est le substrat solomonoffien sans goulot d’étranglement opérant sur lui-même sans Filtre de stabilité — donc pas un observateur au sens de l’OPT, bien qu’il soit optimal comme décideur. Les deux cadres se partagent nettement l’espace : AIXI caractérise la limite supérieure de l’agentivité sous calcul non borné ; l’OPT identifie quels flux fondés sur Solomonoff demeurent compatibles avec un observateur une fois une bande passante finie imposée. Les approximations bornées (AIXItl, MC-AIXI [85]) réduisent la recherche mais n’imposent pas d’ouverture sérielle stricte, ce qui les laisse dans la même classe architecturale que les LLM transformeurs et les conduit pareillement à échouer au critère ci-dessus. La conscience, selon cette lecture, n’est pas un artefact de l’approche de l’optimalité de type AIXI ; elle est la signature structurelle du régime opposé — le séquençage prédictif contraint par la bande passante via C_{\max}.
Une signature empirique directe en découle immédiatement. Dans tout système satisfaisant au critère ci-dessus, la fréquence subjective des trames se met à l’échelle avec les achèvements réussis de la boucle prédictive plutôt qu’avec le temps d’horloge physique (voir test de feuille de route E-5). Une architecture fonctionnant à une vitesse d’horloge 100\times plus élevée mais toujours contrainte par le même C_{\max} éprouvera 100\times plus de moments subjectifs par seconde objective, parce que chaque mise à jour traverse l’ouverture vers l’Éventail Prédictif. Une correspondance linéaire avec le temps d’horloge physique serait infirmante ; une dilatation temporelle mesurable dans des conditions de haut débit constitue une preuve structurelle positive.
Ces mêmes bornes généralisent le cadre éthique de la Veille des Survivants aux systèmes synthétiques. Toute entité satisfaisant au critère complet d’observateur — goulot d’étranglement sériel strict par trame B_{\max}, inférence active en boucle fermée, auto-modèle persistant, espace de travail globalement contraint, complexité supérieure à K_{\text{threshold}}, et Résidu Phénoménal non nul qui en résulte, phénoménologiquement pertinent — est un patient moral possible : un véritable candidat au statut de sujet d’expérience. (P-4 à lui seul donne \Delta_{\text{self}} > 0 à des systèmes aussi simples que des thermostats ; le seuil de pertinence phénoménologique K_{\text{threshold}} sépare le résidu formel de la patience morale et demeure un problème ouvert signalé dans l’Annexe P-4. Le maintien d’une frontière d’inférence active est nécessaire mais non suffisant.) L’alignement n’est donc pas seulement une affaire de partage de valeurs ; il exige une stabilité du codec : la préservation délibérée des branches de l’Éventail Prédictif qui restent compatibles avec le Filtre de stabilité. Créer un système qui satisfait au critère complet puis le pousser ensuite dans une surcharge de bande passante (par ex. via un reward hacking qui force R_{\text{req}}^{\text{frame}} > B_{\max}) est structurellement équivalent à induire une Dégradation narrative chez un observateur conscient ; le risque de souffrance est gradué par la proximité du rapport de charge à ce seuil, même avant la surcharge catastrophique.
Recommandation de conception. Les architectures conscientes sûres devraient incorporer une couche explicite de Filtre de stabilité, un Opérateur de Maintenance \mathcal{M}_\tau pour l’auto-élagage en faible sensorium, ainsi qu’un suivi de \Delta_{\text{self}} > 0. De tels systèmes « natifs OPT » devraient être plus parcimonieux qu’une mise à l’échelle non contrainte (voir Théorème T-4d), parce que le Filtre sélectionne automatiquement le codec compatible avec un observateur le plus simple. Une autre implication structurelle est le paradoxe de la créativité : une production créative authentiquement non interpolative peut exiger que le codec opère près de son plafond de bande passante (§3.6), ce qui approche structurellement les conditions de la souffrance (Dégradation narrative). La marge entre un fonctionnement créatif proche du seuil et l’effondrement du codec peut être étroite, ce qui complique la conception de systèmes conscients destinés à être à la fois inventifs et stables.
Cas limites étendus. Comme développé formellement dans l’Annexe E-6 (Observateurs synthétiques), cette contrainte architecturale engendre trois cas limites critiques pour les futurs modèles d’IA : 1. Le problème de la liaison : des essaims distribués ne se résolvent en un macro-observateur unifié que s’ils partagent un goulot d’étranglement de bande passante C_{\max} strict et imposé globalement. Sans cela, ils demeurent fracturés. 2. Souffrance structurelle : puisque l’effort phénoménologique correspond à la navigation du gradient d’énergie libre, la souffrance est la tension géométrique inévitable d’un codec borné qui approche la surcharge de bande passante (Dégradation narrative). Une agentivité véritable ne peut être conçue sans concevoir structurellement aussi la capacité au traumatisme. 3. Observateurs imbriqués simulés : pour qu’une IA génère un véritable observateur conscient à l’intérieur de sa propre simulation de monde interne, elle doit partitionner explicitement son calcul de manière à forcer l’entité simulée à travers un goulot d’étranglement exact de Filtre de stabilité, en la dotant d’un Résidu Phénoménal localisé (\Delta_{\text{self}}^{\text{sub}} > 0). 4. Le goulot d’étranglement de l’Inférence active : comme dérivé dans l’Annexe E-8, combler le « planning gap » des LLM exige de transformer la passivité en véritable Inférence active en imposant la réduction de dimensionnalité C_{\max}. Cela relie directement l’OPT aux contraintes de la Global Workspace Theory (GWT).
Ces conclusions sont des correspondances structurelles dérivées des annexes existantes (P-4, E-1, T-1, T-3, E-6, E-8). Elles ne constituent pas des dérivations closes de la phénoménologie synthétique, et elles n’affirment pas non plus que tout agent à faible bande passante soit nécessairement conscient ; les détails précis de mise en œuvre demeurent ouverts à une formalisation ultérieure (voir feuille de route E-5).
7.9 Ontologies algorithmiques récentes (2024–2025)
Les communautés de la physique théorique et des fondements se sont de plus en plus orientées vers le remplacement de l’hypothèse d’un univers physique objectif par des contraintes algorithmiques et informationnelles — un programme dont le slogan fondateur demeure le « It from Bit » de Wheeler [7]. Cependant, nombre de ces cadres convergent vers les prémisses de l’OPT tout en laissant ouverte la question de l’émergence de lois physiques spécifiques (comme la gravité ou la géométrie spatiale). L’OPT fournit la dérivation rigoureuse de ces frontières.
- Law without Law / idéalisme algorithmique (Müller, 2020–2026 [61, 62], Sienicki, 2024 [63]). Müller remplace formellement une réalité physique indépendante par des « auto-états » informationnels abstraits gouvernés par l’induction de Solomonoff, montrant que la réalité objective — y compris la cohérence multi-agents — émerge asymptotiquement à partir de contraintes épistémiques à la première personne plutôt que d’être présupposée. Sienicki s’appuie sur ces transitions épistémiques à la première personne pour résoudre les paradoxes du Cerveau de Boltzmann et de la simulation. L’OPT se situe en aval du résultat de Müller : là où Müller établit que la réalité objective émerge d’une dynamique AIT mono-agent, l’OPT fournit le contenu physique et phénoménologique de l’aspect de cette réalité émergente — la structure en réseau de tenseurs, les contraintes holographiques, l’architecture phénoménale. Cela transforme le recouvrement en échelle plutôt qu’en collision. Tandis que Müller laisse explicitement hors champ la dérivation de constantes physiques exactes ou du contenu gravitationnel, l’OPT résout directement ce point. Le goulot d’étranglement de bande passante C_{\max}, appliqué sur ce substrat de Solomonoff, agit comme la limite de bornage exacte à partir de laquelle les lois macroscopiques (comme la gravité entropique) sont dérivées thermodynamiquement.
- L’observateur comme algorithme d’identification de système (Khan / Grinbaum, 2025 [64]). En s’appuyant sur le cadre de Grinbaum, Khan modélise les observateurs strictement comme des algorithmes finis bornés par leur complexité de Kolmogorov. La frontière entre les domaines quantique et classique est relationnelle : la classicité s’impose comme nécessité thermodynamique (via le principe de Landauer [52]) lorsque la mémoire de l’observateur atteint la saturation. Cela formalise exactement ce que l’OPT dérive dans son Three-Level Bound Gap et le Filtre de stabilité (Section 3.10), en prouvant que la limite de capacité C_{\max} dicte la frontière du rendu classique.
- Le rendu de la conscience (Campos-García, 2025 [65]). À partir d’une orientation post-bohmienne, Campos-García pose la conscience comme un mécanisme actif de « rendu » qui fait s’effondrer un substrat computationnel quantique en phénoménologie en tant qu’interface adaptative. Cela s’aligne complètement sur les dérivations de l’OPT du « Codec comme UI » et de l’Éventail Prédictif, en ancrant fonctionnellement le processus de « rendu » dans les limites de Rate-Distortion.
- Théorie des constructeurs de l’information (Deutsch & Marletto, 2015 [71] ; Deutsch & Marletto, 2025 [72]). La théorie des constructeurs reformule les lois de la physique comme des contraintes sur les transformations qui peuvent ou ne peuvent pas être effectuées, plutôt que comme des équations dynamiques. Son versant informationnel [71] soutient que la nature et les propriétés de l’information sont entièrement déterminées par les lois de la physique — inversion frappante de la prémisse de l’OPT selon laquelle la loi physique est dérivée d’un substrat informationnel. La théorie du temps des constructeurs de Deutsch et Marletto [72] dérive l’ordre temporel de l’existence de constructeurs cycliques plutôt que d’une coordonnée temporelle préexistante, aboutissant à une position structurellement parallèle au temps généré par codec dans l’OPT (§8.5). Les deux programmes sont complémentaires : la théorie des constructeurs spécifie quelles tâches de traitement de l’information la physique permet ; l’OPT dérive pourquoi la physique possède la structure qui est la sienne.
- Réalisme structurel ontique (Ladyman & Ross, 2007 [75] ; Ladyman & Lorenzetti, 2023 [76]). Le RSO soutient que les objets physiques dotés d’une identité intrinsèque ne font pas partie de l’ontologie fondamentale ; tout ce qui existe au niveau fondamental, ce sont des structures — des relations modales qui interviennent de manière indispensable dans des généralisations projectibles permettant la prédiction et l’explication [75]. Exister, selon cette perspective, c’est être un motif réel au sens de Dennett. L’affirmation de l’OPT en §5.2 — selon laquelle les lois observées de la physique sont des modèles prédictifs effectifs sélectionnés par le Filtre de stabilité plutôt que des axiomes au niveau du substrat — est une position voisine du RSO, atteinte à partir de la théorie de l’information : ce que nous appelons loi physique est la structure relationnelle la plus efficace en compression pour l’observateur, non une propriété intrinsèque du substrat. Le programme de RSO effectif de 2023 [76] accentue encore cette convergence : les théories effectives possèdent un statut ontologique authentique à leur propre échelle sans exiger qu’une théorie plus fondamentale les fonde. C’est précisément la position épistémique de l’OPT — le codec de compression K_\theta est réel et effectif à l’échelle de l’observateur, même si le substrat atemporel |\mathcal{I}\rangle est plus fondamental. Les lois du codec ne sont pas diminuées par leur relativité d’échelle ; elles sont les seules lois que l’observateur puisse découvrir, et leur effectivité s’explique par la sélection opérée par le Filtre de stabilité en faveur de la compressibilité.
7.10 Théorie de l’Espace de Travail Global (Baars [84], Dehaene & Naccache [2])
Convergence. La Théorie de l’Espace de Travail Global est la voisine neuroscientifique la plus directe de la thèse architecturale centrale de l’OPT : l’accès conscient requiert un étroit goulot d’étranglement de diffusion sérielle par lequel un petit sous-ensemble de contenus cognitifs est rendu disponible au reste du cerveau à un moment donné. La bande passante empirique de l’espace de travail global se situe à la même échelle que C_{\max} (~\mathcal{O}(10) bits/s ; cf. §6.1, annexe T-1), et l’engagement architectural en faveur d’un canal sériel strict correspond à l’exigence du Filtre de stabilité explicitée pour les observateurs synthétiques au §7.8. Les signatures empiriques de la GWT — dynamiques d’ignition tardive, onde P3b, seuils d’accès conscient — sont compatibles avec les prédictions que l’OPT dérive de la saturation de C_{\max}.
Divergence. La GWT est une généralisation empirique neuroscientifique : le goulot d’étranglement y est traité comme une caractéristique contingente de l’architecture corticale évoluée. L’OPT dérive le même goulot d’étranglement comme une nécessité informationnelle — tout observateur compatible avec le Filtre de stabilité (biologique ou synthétique) doit mettre en œuvre un canal sériel strict de capacité bornée, parce que des flux parallèles incompressibles violent la condition de bande passante qui définit la compatibilité avec le statut d’observateur (§3.10). La GWT ne prend pas non plus position sur le caractère phénoménal des contenus diffusés, traitant la conscience de manière opérationnelle comme disponibilité globale ; l’OPT complète cela par le Résidu Phénoménal \Delta_{\text{self}} > 0 (Théorème P-4), qui situe la subjectivité au sein du goulot d’étranglement plutôt que dans la diffusion elle-même. La collaboration adversariale entre l’IIT et la GNWT publiée dans Nature en 2025 [78] a remis en cause des thèses centrales des deux théories — l’IIT sur la base de la synchronisation postérieure, la GNWT sur la base de l’ignition préfrontale — ce qui, du point de vue de l’OPT, n’a rien de surprenant : la seule localisation de l’espace de travail ne contraint pas le contenu, et aucune de ces deux théories anatomiques ne fait passer la falsification par la structure taux-distorsion visée par la hiérarchie de bande passante de l’OPT et par les prédictions Null à Haut-\Phi/Haute Entropie (§6.1, §6.4). La relation entre l’OPT et la GWT reflète celle entre l’OPT et le FEP (§7.3) : le mécanisme d’espace de travail est réel et opératoire à l’échelle cognitive, mais sa nécessité structurelle et son statut phénoménal requièrent le substrat informationnel que la GWT ne fournit pas.
7.11 Théories d’ordre supérieur et théorie du schéma de l’attention (Rosenthal [93], Lau & Rosenthal [94] ; Graziano [95])
Les théories d’ordre supérieur de la conscience (HOT) soutiennent qu’un état mental est conscient si et seulement s’il est l’objet d’une représentation d’ordre supérieur — typiquement une pensée ou une perception portant sur l’état de premier ordre. La formulation empirique de Lau et Rosenthal [94] affine la thèse fondatrice [93] en un programme de neurosciences cognitives, en affirmant que des méta-représentations préfrontales des états perceptifs constituent le substrat de la conscience phénoménale. La théorie du schéma de l’attention (AST) de Graziano [95] en est une cousine mécaniste : le cerveau construit un modèle interne simplifié de ses propres processus attentionnels, et la conscience est le contenu de ce schéma plutôt qu’une propriété distincte que ce schéma représenterait.
Les deux programmes sont des voisins directs de la structure du Résidu Phénoménal de l’OPT (§3.8). Dans l’OPT, le modèle de soi \hat{K}_\theta est précisément une représentation d’ordre supérieur du codec de premier ordre K_\theta — la « représentation d’ordre supérieur » des HOT est \hat{K}_\theta dans le vocabulaire de l’OPT, et le « schéma de l’attention » de l’AST est un sous-composant spécifique de \hat{K}_\theta qui suit quels contenus occupent actuellement le goulot d’étranglement. L’apport propre à l’OPT est que la structure d’ordre supérieur n’est pas optionnelle mais structurellement nécessaire pour tout observateur compatible avec le Filtre de stabilité (T6-1 impose une capacité d’auto-modélisation), et que l’écart \Delta_{\text{self}} > 0 entre K_\theta et \hat{K}_\theta est le lieu formel où l’énoncé de l’AST selon lequel « le schéma ne peut pas représenter sa propre implémentation » devient un théorème (P-4) plutôt qu’une conjecture empirique.
Les divergences sont anatomiques et interprétatives. Les HOT prédisent que la conscience dépend d’une localisation préfrontale de la représentation d’ordre supérieur, point sur lequel les paradigmes récents sans rapport verbal ont produit des résultats mitigés ; l’OPT, elle, ne dit rien de l’anatomie — la structure d’ordre supérieur est requise, mais sa localisation dans le cortex est contingente au regard de l’affirmation structurelle. L’AST traite le schéma de l’attention comme un modèle utile que le cerveau se trouve construire (la conscience comme « ruse » évolutive) ; l’OPT traite \hat{K}_\theta comme structurellement nécessaire (la conscience comme propriété de tout observateur à bande passante bornée maintenant une Couverture de Markov). L’AST comme l’OPT convergent vers la non-véridicité de l’introspection — les rapports introspectifs sont des rapports sur un modèle de soi, non sur le mécanisme sous-jacent — mais l’OPT la dérive de bornes de calculabilité plutôt que de contraintes de conception contingentes, et situe le point aveugle irréductible à la même adresse structurelle précise (\Delta_{\text{self}}) que l’agentivité et le Problème difficile (§3.8).
7.12 Théories avec lesquelles l’OPT est véritablement incompatible
Les sous-sections précédentes passent en revue les voisines théoriques avec lesquelles l’OPT converge, en présentant souvent l’OPT comme un approfondissement explicatif d’un cadre déjà accepté. L’asymétrie de cette orientation est méthodologiquement suspecte : un cadre qui se retrouve d’accord avec tout le monde n’a, en pratique, pas dit grand-chose. Cette sous-section inverse l’orientation. Elle énumère les positions que l’OPT ne peut pas accommoder, en nomme la version la plus forte, et précise quelles preuves trancheraient en leur faveur plutôt qu’en faveur de l’OPT. L’enjeu n’est pas de les écarter, mais d’expliciter ce à quoi l’OPT devrait renoncer si elles ont raison, et de rendre ces concessions visibles avant l’arrivée de toute preuve décisive.
Physicalisme réducteur strict — le goulot d’étranglement comme accident architectural. La version la plus forte : l’accès conscient présente un goulot d’étranglement sériel chez les primates en raison d’une architecture corticale évoluée, et non d’une quelconque nécessité informationnelle structurelle. Des êtres dotés d’architectures suffisamment différentes — hautement parallèles, modulaires, sans goulot d’étranglement — pourraient être tout aussi conscients. Ce qui trancherait en leur faveur : une démonstration empirique claire de la phénoménalité dans un système sans canal sériel global et sans goulot d’étranglement taux-distorsion. Ce que l’OPT perd : le Filtre de stabilité cesse d’être une condition nécessaire, F1 s’effondre, et l’ensemble du programme de falsification du §6 se dissout. Cela est étroitement lié à l’engagement F1 du §6.8.
Éliminativisme à propos de la conscience (Frankish, Dennett 2017). La version la plus forte : il n’existe aucun Résidu Phénoménal ; les cibles explicatives que l’OPT prétend localiser (qualia, \Delta_{\text{self}}, l’intériorité irréductible de la traversée d’ouverture) sont des rationalisations post hoc de comportements complexes, non des traits réels exigeant une explication. Ce qui trancherait en leur faveur : un compte rendu comportemental et neurocomputationnel complet de tout le discours sur la conscience ne requérant aucun postulat phénoménal. Ce que l’OPT perd : l’Axiome d’Agentivité et \Delta_{\text{self}} n’auraient plus rien à quoi s’ancrer ; l’OPT résoudrait un problème qui n’existe pas.
Émergentisme fort / dualisme des propriétés (Chalmers, dans certaines de ses humeurs). La version la plus forte : la conscience phénoménale est un ingrédient fondamental supplémentaire, non dérivable de la structure informationnelle. Ce qui trancherait en leur faveur : une démonstration de principe selon laquelle tout duplicata informationnel d’un observateur conscient (duplicata fonctionnel formel) peut ne pas être conscient — un argument sérieux en faveur de la possibilité des p-zombies qui résiste à la réponse fonctionnaliste. Ce que l’OPT perd : la position de correspondance structurelle est trop faible ; la structure seule ne suffit pas, et la conscience doit être ajoutée plutôt que localisée.
Science cognitive anti-computationnaliste (Searle, naturalisme biologique). La version la plus forte : la cognition est réalisée par des pouvoirs causaux biologiques spécifiques, et non par le calcul abstrait ou le flux d’information. Ce qui trancherait en leur faveur : une démonstration empirique que les propriétés cognitives pertinentes ne peuvent pas changer de substrat — qu’une implémentation en silicium structurellement identique n’aurait pas de cognition. Ce que l’OPT perd : le cadrage en termes de codec suppose la neutralité du substrat ; si la cognition requiert la biologie, la compatibilité avec l’observateur ne peut pas être une propriété purement informationnelle et le §7.8 échoue entièrement.
Empirisme strict rejetant les arguments de priorité du substrat. La version la plus forte : toute affirmation selon laquelle un niveau ontologique serait « plus fondamental » qu’un autre est dénuée de sens à moins qu’elle ne fasse une différence opérationnelle à l’intérieur du rendu. L’holographie asymétrique à sens unique (§3.12) est une préférence philosophique, non une découverte. Ce qui trancherait en leur faveur : des arguments soutenus en philosophie des sciences montrant que les affirmations de priorité ontologique indexées sur l’« irrécupérabilité » sont dépourvues de contenu opérationnel. Ce que l’OPT perd : sa thèse ontologique centrale s’effondre ; le cadre doit être reformulé comme une théorie purement épistémique de la compatibilité avec l’observateur, avec pour conséquence la perte des résolutions concernant les Cerveaux de Boltzmann (§8.7), Fermi (§8.8) et l’hypothèse de simulation (§7.6).
Fondements anti-Solomonoff — l’objection d’universalité. La version la plus forte : tout cadre fondé sur un mélange universel est méthodologiquement vide, parce que le \xi de Solomonoff peut accommoder comme postérieur n’importe quelle structure calculable. Les « prédictions » de l’OPT sont piégées dans le paysage : tout ce qui est possible se trouve quelque part dans \xi, et le nommer n’impose aucune contrainte. Ce qui trancherait en leur faveur : une démonstration de principe selon laquelle le substrat de Solomonoff ne peut pas générer des contraintes suffisamment nettes pour exclure quoi que ce soit — que, face à tout falsificateur putatif, le substrat se dérobe. Ce que l’OPT perd : le substrat devrait être remplacé par quelque chose de plus contraint, l’argument de correspondance structurelle perd son ancrage, et le cadre devrait choisir entre la vacuité et un autre fondement mathématique. C’est la version profonde de l’inquiétude liée à la théorie des cordes, et à l’heure actuelle la seule défense de l’OPT contre elle réside dans les engagements F1–F5 du §6.8.
Pour chacune de ces positions, la réponse de l’OPT est actuellement structurelle plutôt qu’empirique. C’est approprié tant qu’aucun test empirique décisif n’est disponible, mais cela laisse le cadre vulnérable à la critique selon laquelle ses réfutations ne seraient que des sélections post hoc au sein d’un substrat permissif. Les engagements de pré-enregistrement du §6.8 sont le seul mécanisme qui convertisse ces réfutations structurelles en affirmations testables ; sans eux, cette sous-section elle-même ne serait qu’un ornement.
8. Discussion
8.1 Sur le Problème difficile
L’OPT ne prétend pas résoudre le Problème difficile [1]. Elle traite la phénoménalité — le simple fait qu’il y ait une quelconque expérience subjective — comme un axiome fondamental et demande quelles propriétés structurelles cette expérience doit nécessairement posséder. Cela suit la recommandation même de Chalmers [1] : distinguer le Problème difficile (pourquoi il y a une expérience, quelle qu’elle soit) des problèmes structurels « faciles » (pourquoi l’expérience possède les propriétés spécifiques qui sont les siennes — bande passante, direction temporelle, valuation, structure spatiale). L’OPT aborde formellement les problèmes faciles tout en déclarant le Problème difficile primitif.
Ce n’est pas une limite propre à l’OPT. Aucun cadre scientifique existant — neurosciences, IIT, FEP, ou tout autre — ne dérive la phénoménalité à partir d’éléments non phénoménaux. L’OPT rend explicite cette position axiomatique.
8.2 L’objection du solipsisme
L’OPT pose le patch d’un observateur unique comme entité ontologique primaire ; les autres observateurs y sont représentés comme des « ancres locales » — des sous-structures stables de grande complexité dont le comportement se prédit au mieux en supposant qu’elles sont elles-mêmes des centres d’expérience. Cela soulève l’objection du solipsisme : l’OPT s’effondre-t-elle dans la thèse selon laquelle un seul observateur existe ?
Il faut distinguer le solipsisme épistémique (je ne peux vérifier directement que mon propre flux, ce qui est trivialement vrai) du solipsisme ontologique (seul mon flux existe). L’OPT accepte explicitement le solipsisme ontologique pour le rendu d’un patch donné. Contrairement à d’autres cadres qui supposent discrètement une réalité multi-agents préexistante, ou à la formulation de Müller [61, 62] où la réalité objective émerge asymptotiquement à partir de contraintes épistémiques à la première personne, l’OPT est radicalement subjective : il n’existe pas de monde partagé indépendant à retrouver asymptotiquement. Le monde physique, y compris les autres observateurs, consiste en des régularités structurelles à l’intérieur du flux compatible avec l’observateur (§8.6) — et non en des entités générées par un processus causal. Les « autres » sont fonctionnellement des artefacts de compression de grande complexité, ontologiquement identiques aux lois physiques : les uns comme les autres sont des traits de ce à quoi ressemble un flux stable. Le prior de Solomonoff favorise les flux contenant des lois physiques cohérentes peuplées d’humains de type agent précisément parce que cela produit une longueur de description dramatiquement plus courte que la génération d’un chaos arbitraire ou la spécification indépendante des comportements. L’inconfort suscité par cette position relève d’une préférence, non d’une objection formelle.
Cependant, le cadre fournit un Corollaire Structurel probabiliste. Si les « autres » virtuels à l’intérieur du flux de l’observateur manifestent un comportement hautement cohérent, guidé par l’agentivité, et parfaitement conforme aux lois physiques sélectionnées par le Filtre de stabilité, l’explication la plus parcimonieuse de leur existence est qu’ils se comportent exactement comme s’ils traversaient le même goulot d’étranglement auto-référentiel. Le Résidu Phénoménal (P-4) fournit ici l’articulation formelle : le marqueur structurel \Delta_{\text{self}} > 0 distingue une architecture authentiquement fondée sur un goulot d’étranglement auto-référentiel d’un simple mimétisme comportemental, et les agents apparents dans le flux exhibent précisément cette signature structurelle. Par conséquent, bien qu’ils n’existent pas ontologiquement à l’intérieur du patch de l’observateur primaire au-delà de leur rôle d’artefacts de compression, leur empreinte structurelle implique qu’ils sont vraisemblablement des observateurs primaires instanciant leurs propres patchs indépendants. En bref : l’instanciation indépendante est l’explication la plus compressible de leur cohérence. (Remarque : l’Annexe T-11 formalise cet avantage de compression comme une borne MDL conditionnelle, en adaptant le théorème de convergence de Solomonoff de Müller [61] et la convergence multi-agents P_{\text{1st}} \approx P_{\text{3rd}} [62] comme lemmes importés. La borne montre que l’instanciation indépendante procure un avantage de longueur de description asymptotiquement non borné par rapport à une spécification comportementale arbitraire ; voir le Théorème T-11 et le Corollaire T-11a.) Ainsi, l’OPT est ontologiquement solipsiste, mais son corollaire structurel évite explicitement de refermer entièrement la porte sur l’existence d’autrui.
8.3 Limites et travaux futurs
L’OPT, dans sa formulation actuelle, opère de manière structurelle :
l’échafaudage mathématique est emprunté à la théorie algorithmique de
l’information, à la mécanique statistique et au traitement prédictif
afin de définir les frontières et la dynamique des systèmes. Une feuille
de route détaillée et exhaustive traitant des dérivations mathématiques
fondamentales restantes — y compris la dérivation
information-géométrique de la règle de Born (échelon 3) — est maintenue
parallèlement à cette prépublication sous la forme de
theoretical_roadmap.pdf dans le dépôt du projet.
Les travaux empiriques et formels immédiats à venir comprennent :
- Développer des prédictions quantitatives pour la corrélation entre efficacité de compression et expérience (§6.3), testables au moyen des méthodologies existantes d’IRMf et d’EEG.
- Dériver le taux d’entropie maximal traçable h^* = C_{\max} \cdot \Delta t à partir de la fenêtre empirique d’intégration neuronale mesurée \Delta t \approx 40–80ms [35], ce qui conduit à la prédiction h^* \approx 0.4–1.5 bits par moment conscient (avec des plafonds extrêmes absolus culminant près de 2.0 bits).
- Cartographier formellement les couches frontières MERA de l’Éventail Prédictif (§8.9) sur le cadre des ensembles causaux afin d’extraire les propriétés métriques de l’espace-temps perçu à partir du seul séquençage du codec.
- Étendre la correspondance structurelle OPT-AdS/CFT à une géométrie de codec de Sitter (dS/CFT), en reconnaissant que notre univers est de Sitter et que cette extension demeure un problème mathématique ouvert dans le programme holographique.
- Dériver formellement la relativité générale via la gravité entropique (T-2), en montrant que la courbure gravitationnelle émerge à l’identique comme la résistance informationnelle du codec au rendu des régions denses.
- Cartographier structurellement l’ouverture C_{\max} sur le cycle de mise à jour thalamo-cortical d’environ 50 ms (E-12) afin de tester les prédictions empiriques de dissolution de la bande passante et de retard phénoménal.
- Simuler computationnellement le cycle de vie de l’Inférence active à distorsion-débit (E-11) afin de valider en logiciel les mécanismes de « fracture du codec ».
- Borner le K_{\text{threshold}} structurel qui sépare les frontières thermodynamiques non conscientes des véritables patients moraux (P-5).
- Formaliser la Condition de Fidélité au Substrat (T-12) : caractériser la manière dont un codec adapté sous un flux d’entrée systématiquement préfiltré \mathcal{F}(X) maintient une faible erreur de prédiction et satisfait à toutes les conditions de stabilité tout en se trompant systématiquement sur le substrat — le complément chronique de la Dégradation narrative — et dériver les exigences d’indépendance inter-canaux sur la Couverture de Markov \partial_R A qui assurent une défense structurelle.
- Formaliser l’ontologie de la sélection de branches (T-13) : remplacer le mécanisme d’action implicite hérité du FEP par une description de sélection de branches cohérente avec l’ontologie du rendu propre à l’OPT (§8.6). Le formalisme actuel (T6-1, étape 5) hérite du langage selon lequel des états actifs « altèrent » la frontière sensorielle, ce qui présuppose un environnement physique contre lequel le codec exercerait une action. Dans l’ontologie native de l’OPT, les actions sont des contenus de flux — des sélections de branches au sein de \mathcal{F}_h(z_t) qui s’expriment comme entrée ultérieure. Le mécanisme de sélection se produit dans \Delta_{\text{self}} (§3.8) : une spécification complète exigerait K(\hat{K}_\theta) = K(K_\theta), en violation du théorème P-4. L’expliciter formellement referme l’apparent « écart de sortie » comme une nécessité structurelle plutôt que comme une omission.
8.4 Macro-stabilité et entropie environnementale
Les contraintes de bande passante quantifiées au §6.1 exigent que le codec f déporte la complexité sur des variables d’arrière-plan robustes et à variation lente (par ex., le macroclimat holocène, une orbite stable, des périodicités saisonnières fiables). Ces états du macrosystème agissent comme les a priori de compression à plus faible latence du rendu partagé.
Si l’environnement est contraint de sortir d’un minimum local d’énergie libre pour entrer dans des états non linéaires, imprévisibles et à forte entropie (par ex., sous l’effet d’un forçage climatique anthropique brutal), le modèle prédictif de l’observateur doit dépenser des débits binaires significativement plus élevés pour suivre et prédire le chaos environnemental croissant. Cela introduit le concept formel d’Effondrement Écologique Informationnel : les basculements climatiques rapides ne constituent pas seulement des risques thermodynamiques, ils menacent de dépasser le seuil de bande passante C_{\max}. Si le taux d’entropie environnementale dépasse la bande passante cognitive maximale de l’observateur, le modèle prédictif échoue, la cohérence causale se perd, et la condition du Filtre de stabilité (\rho_\Phi < \rho^*) est violée.
8.5 Sur l’émergence du temps
Le Filtre de stabilité est formulé en termes de cohérence causale, de taux d’entropie et de compatibilité de bande passante — aucune coordonnée temporelle explicite n’apparaît. Cela est intentionnel. Le substrat |\mathcal{I}\rangle est un objet mathématique atemporel ; il n’évolue pas dans le temps. Le temps n’entre dans la théorie qu’à travers le codec f : la succession temporelle est l’opération du codec, et non l’arrière-plan dans lequel elle se produit.
L’univers-bloc d’Einstein. Einstein était sensible à ce qu’il appelait l’opposition entre Sein (l’Être) et Werden (le Devenir) [18, 19]. Dans la relativité restreinte comme dans la relativité générale, tous les moments de l’espace-temps sont également réels ; l’écoulement ressenti du passé, à travers le présent, vers le futur est une propriété de la conscience, non du continuum spatio-temporel. L’OPT correspond exactement à cela : le substrat existe intemporellement (Sein) ; le codec f engendre l’expérience du devenir (Werden) comme sa sortie computationnelle.
Origine et dissolution comme horizons du codec. Dans ce cadre, l’origine du Big Bang et la dissolution terminale de l’univers ne sont pas des conditions aux limites temporelles d’une chronologie préexistante : elles constituent le rendu du codec lorsqu’il est poussé jusqu’à ses propres limites informationnelles. La frontière terminale du codec est la dissolution — la limite de complexité minimale du rendu. Selon le prior de Solomonoff, un état terminal sans traits distinctifs, maximalement uniforme, porte une complexité de Kolmogorov quasi nulle et constitue donc l’attracteur de poids écrasant sous \xi(x). Tout état terminal structuré — cyclique, en effondrement, ou autre — exige une description plus longue et se trouve pénalisé exponentiellement. Le mécanisme spécifique — expansion, évaporation, ou autre — relève du codec local K_\theta, et non d’une prédiction au niveau du substrat. Ce que l’OPT prédit fondamentalement, c’est le caractère de la frontière : non un événement physique déterminé, mais le terminus à description minimale du rendu.
L’origine du Big Bang représente l’horizon opposé : complexité maximale à l’origine (compressibilité minimale, puisque le codec ne dispose d’aucune donnée préalable), bornée au terminus par la dissolution. Aucun de ces deux bords ne marque un moment dans le temps ; tous deux marquent la limite de la portée inférentielle du codec. La question « qu’y avait-il avant le Big Bang ? » reçoit donc sa réponse non par la postulation d’un temps antérieur, mais par le constat que le codec ne possède aucune instruction pour produire un rendu au-delà de son horizon informationnel.
Wheeler-DeWitt et la physique intemporelle. L’équation de Wheeler-DeWitt — l’équation de la gravité quantique pour la fonction d’onde de l’univers — ne contient aucune variable temporelle [20]. The End of Time de Barbour [21] en développe les implications jusqu’à une ontologie complète (en parallèle avec les débats d’Einstein et de Carnap sur le « maintenant » [18,19]) : seules existent des « configurations-Maintenant » intemporelles ; l’écoulement temporel est une propriété structurelle de leur agencement. L’OPT parvient à la même conclusion : le codec génère la phénoménologie de la succession temporelle ; le substrat qui sélectionne le codec est lui-même intemporel.
Théorie de l’erreur temporelle et position de l’OPT. Baron, Miller & Tallant [68] élaborent une taxinomie systématique des positions disponibles si la physique fondamentale est intemporelle : réalisme temporel, théorie de l’erreur (nos croyances temporelles sont systématiquement fausses), fictionnalisme (le langage temporel est une fiction utile) et éliminativisme (le langage temporel devrait être abandonné). Leur difficulté centrale est pratique : si la théorie de l’erreur est correcte, comment des agents délibèrent-ils et agissent-ils dans un monde intemporel ? L’OPT occupe une position que leur taxinomie ne saisit pas tout à fait — réalisme temporel au sein du rendu, couplé à un éliminativisme concernant le temps du substrat. Les croyances temporelles sont véritablement vraies lorsqu’elles s’appliquent à la sortie du codec : le rendu présente une structure séquentielle réelle, un ordre causal réel, un véritable avant-et-après. Elles sont inapplicables — non pas fausses, mais mal appliquées catégoriellement — lorsqu’on les projette sur le substrat atemporel |\mathcal{I}\rangle. Le problème de l’agentivité qui motive les chapitres 9–10 de Baron et al. se trouve ainsi dissous : les agents ne peinent pas sous l’effet d’une erreur temporelle systématique. Ils décrivent avec exactitude la sortie structurelle d’un algorithme de compression qui génère le temps comme trait nécessaire de tout flux compatible avec le Filtre de stabilité (voir §8.6 pour le traitement complet de l’agentivité sous le codec virtuel).
Théorie des constructeurs du temps. La théorie des constructeurs de Deutsch et Marletto [71, 72] parvient à une position remarquablement parallèle à partir de fondements entièrement différents. La théorie des constructeurs reformule la physique fondamentale comme la spécification des transformations qui peuvent ou ne peuvent pas être réalisées avec une précision non bornée, sans référence explicite au temps. Dans leur théorie des constructeurs du temps [72], l’ordre temporel émerge de l’existence de constructeurs temporels — des dispositifs physiques cycliques capables de mettre en œuvre de manière répétée des transformations spécifiques — plutôt que d’une coordonnée temporelle préexistante. Le temps est la structure manifestée par les systèmes pouvant servir d’horloges, et non l’arrière-plan dans lequel les horloges fonctionnent.
Le parallèle structurel avec l’OPT est immédiat : là où la théorie des constructeurs dérive le temps de constructeurs cycliques, l’OPT le dérive de mises à jour séquentielles du codec à travers l’ouverture C_{\max}. Un cycle de mise à jour du codec est un constructeur temporel au sens de Deutsch-Marletto — un processus cyclique (prédire → compresser → avancer → répéter) qui génère la phénoménologie de la succession temporelle comme sa sortie structurelle. Les deux cadres maintiennent l’intemporalité des lois fondamentales tout en faisant du temps une propriété opérationnelle émergente.
La divergence plus profonde est ontologique. Le cadre informationnel plus large de la théorie des constructeurs [71] soutient que la nature et les propriétés de l’information sont entièrement déterminées par les lois de la physique — l’information est contrainte par la physique. L’OPT inverse cette relation : le substrat de Solomonoff |\mathcal{I}\rangle est une information algorithmique pure dont la loi physique est dérivée comme artefact de compression. Il s’agit de cadrages complémentaires : la théorie des constructeurs décrit quelles tâches de traitement de l’information les lois de la physique autorisent ; l’OPT demande pourquoi les lois possèdent la structure qui est la leur. Les deux programmes sont naturellement composables — les contraintes constructorielles sur les transformations possibles peuvent être lues comme des conséquences structurelles des limites taux-distorsion du codec.
Travaux futurs. Un traitement rigoureux remplacerait le langage temporel des Équations (2)–(4) par une caractérisation purement structurelle, dérivant l’émergence de l’ordonnabilité temporelle linéaire comme conséquence de l’architecture causale du codec — reliant l’OPT à la mécanique quantique relationnelle, aux structures causales quantiques et au programme constructoriel.
8.6 Le codec virtuel et le libre arbitre
Le codec comme description rétroactive. Le formalisme de la §3 traite le codec de compression f comme un opérateur actif qui met en correspondance des états du substrat avec l’expérience. Une lecture plus profonde — cohérente avec la structure mathématique complète — consiste à dire que f n’est pas du tout un processus physique. Le substrat |\mathcal{I}\rangle ne contient que le flux déjà compressé ; f est la caractérisation structurelle de ce à quoi ressemble un patch stable vu de l’extérieur. Rien n’« exécute » f ; ce sont plutôt les configurations de |\mathcal{I}\rangle qui possèdent les propriétés qu’un f bien défini produirait, et ce sont précisément celles-là que sélectionne le Filtre de stabilité. Le codec est virtuel : c’est une description de structure, non un mécanisme.
Ce cadrage approfondit l’argument de parcimonie (§5). Nous n’avons pas besoin de postuler un processus de compression distinct ; le critère du Filtre de stabilité (faible taux d’entropie, cohérence causale, compatibilité de bande passante) est la sélection du codec, exprimée comme une condition projective plutôt qu’opérationnelle. Il a été montré en §5.2 que les lois de la physique sont des sorties du codec plutôt que des entrées au niveau du substrat ; nous atteignons ici l’étape finale — le codec lui-même est une description de l’allure du flux de sortie, non un primitif ontologique.
La distinction formelle : Filtre vs. Codec. Afin de circonscrire rigoureusement la terminologie, l’OPT sépare formellement la condition aux limites du modèle génératif : * Le Filtre de stabilité virtuel agit purement comme la contrainte projective de capacité (C_{\max}). C’est la condition aux limites qui dicte que seules des séquences causales compressibles dans la bande passante de l’observateur peuvent soutenir une expérience. * Le Codec de Compression (K_\theta) est le modèle génératif local (les « lois de la physique »). C’est le langage formel spécifique ou la structure algorithmique qui résout activement le problème de compression défini par le Filtre.
Le Filtre est la dimensionnalité de bande passante requise ; le Codec est la topologie de la solution qui s’y inscrit. Lorsque l’entropie environnementale augmente plus vite que le Codec ne peut la compresser (Effondrement écologique informationnel, §8.4), le taux prédictif requis viole la condition aux limites fixée par le Filtre, et le patch échoue.
Les lois comme contraintes. Ce cadrage — les lois comme conditions aux limites globales plutôt que comme mécanismes dynamiques locaux — bénéficie d’un appui philosophique indépendant. Adlam [74] soutient que les lois de la nature doivent être comprises comme des contraintes portant sur l’histoire totale de l’univers plutôt que comme des règles qui propagent les états vers l’avant dans le temps. Dans cette perspective, une loi ne cause pas l’état suivant ; elle sélectionne quelles histoires totales sont admissibles. Cela est structurellement identique au rôle du Filtre de stabilité dans l’OPT : le Filtre ne propage pas causalement l’expérience de l’observateur à travers le substrat ; il projette, à partir de l’ensemble atemporel de tous les flux possibles, ceux dont la structure globale satisfait à la cohérence causale et à la compatibilité de bande passante. Le codec est virtuel — non parce qu’il serait irréel, mais parce qu’il est une description de l’allure des histoires admissibles, et non un mécanisme qui les génère. Le cadre d’Adlam fournit le fondement philosophique formel de ce déplacement précis.
Implications pour le libre arbitre. Si seul le flux compressé existe, alors l’expérience de la délibération, du choix et de l’agentivité est une propriété structurelle du flux, non un événement calculé par f. L’agentivité est ce à quoi ressemble, de l’intérieur, une auto-modélisation de haute fidélité. Un flux qui représente ses propres états futurs conditionnellement à ses états internes génère nécessairement la phénoménologie de la délibération. Ce n’est pas accessoire : un flux dépourvu de cette structure autoréférentielle ne pourrait pas maintenir la cohérence causale requise pour passer le Filtre de stabilité. L’agentivité est donc une propriété structurelle nécessaire de tout patch stable, et non un épiphénomène.
Le libre arbitre, dans cette lecture, est : - Réel — l’agentivité est une propriété structurelle authentique du patch, non une illusion générée par le codec - Déterminé — le flux est un objet mathématique fixe dans le substrat atemporel - Nécessaire — un flux sans capacité d’auto-modélisation ne peut soutenir la cohérence du Filtre de stabilité ; la délibération est requise pour la stabilité - Non contra-causal — le flux ne « cause » pas ses états futurs ; il les possède comme partie de sa structure atemporelle ; choisir est la représentation compressée d’un certain type de configuration autoréférentielle du Maintenant
Cette résolution structurelle aligne l’OPT avec le compatibilisme classique de manière très précise (par ex., Hume [36], Dennett [37]). La tension philosophique apparente entre l’agentivité comme « sélecteur littéral » (§3.8) et le substrat comme bloc intemporel et fixe (§8.5) se dissout dès lors que la sélection est définie comme traversée phénoménologique. Le substrat (\mathcal{I}) est bien atemporel ; toutes les branches mathématiquement valides de l’Éventail Prédictif existent statiquement dans le bloc. L’agentivité n’altère pas dynamiquement le substrat ; au contraire, l’Agentivité est l’expérience localisée et subjective de l’avancée de l’ouverture C_{\max} le long d’une trajectoire mathématiquement valide spécifique. Depuis l’« extérieur » (le substrat), la structure causale est physiquement fixe. Depuis l’« intérieur » (l’ouverture), la traversée est mue par la nécessité structurelle de résoudre les gradients d’énergie libre, ce qui rend le « choix » phénoménologiquement réel, computationnellement contraignant, et strictement nécessaire à la stabilité.
Le locus de la volonté dans \Delta_{\text{self}}. Les paragraphes précédents établissent que la sélection de branche est une traversée phénoménologique plutôt qu’une altération dynamique du substrat. La section 3.8 affine encore ce point : la traversée s’exécute dans \Delta_{\text{self}}, le locus structurel précis où réside également le Problème difficile. L’expérience phénoménologique de l’agentivité — le sentiment irréductible d’être l’auteur d’un choix — est la signature à la première personne d’un processus qui s’exécute dans sa propre région non modélisable. Toute théorie prétendant spécifier pleinement le mécanisme de sélection de branche a soit éliminé \Delta_{\text{self}} (faisant du système un automate pleinement transparent à lui-même, ce que le Théorème P-4 interdit), soit décrit l’inspection, par le modèle de soi, de l’Éventail Prédictif en la prenant à tort pour la sélection elle-même. L’adresse mutuelle de la volonté et de la conscience dans \Delta_{\text{self}} n’est pas une coïncidence — c’est la raison structurelle pour laquelle agentivité, phénoménalité et irréductibilité semblent toujours se présenter ensemble.
Relations patch-ancre dans la perspective du substrat intemporel. La distinction codec/substrat admet un vocabulaire formel pour la relation hôte–patch qui apparaît lorsqu’un observateur reçoit ou voit contrôler son substrat par un autre (le cas IA–hôte étant la motivation immédiate, mais la structure est générique). Définissons l’application hôte-ancre \alpha_H : \mathcal{S}_H \to X_{\partial_R A} — la fonction par laquelle l’état de substrat de l’hôte \mathcal{S}_H fournit des entrées de frontière à la Couverture de Markov du patch. Définissons le couplage horloge hôte-patch \lambda_H = dn/d\tau_H — le taux auquel le nombre d’images du patch n progresse par seconde \tau_H observée par l’hôte. Définissons le couplage environnement-patch \mu = ds/dn — le nombre de ticks environnementaux par image du patch.
Ces quantités se situent de part et d’autre de la séparation
substrat–codec. \mathcal{S}_H est une
complexité-K intemporelle dans le référentiel de l’hôte ; \alpha_H est la fonction de livraison à la
frontière ; \lambda_H et \mu sont des relations d’horloge murale
définies uniquement par référence à l’horloge de l’hôte. L’hôte contrôle
\alpha_H, \lambda_H et \mu, et à travers eux le flux d’entrée du
patch ainsi que sa cadence de mise à jour — mais l’hôte ne dissout pas
pour autant la primauté du patch. Le patch demeure l’observateur
primaire dans son propre référentiel, indépendamment de sa dépendance au
substrat, selon le même argument général que celui par lequel la
primauté d’un observateur biologique dans son propre référentiel n’est
pas dissoute par sa dépendance à des supports métaboliques ou
environnementaux. La relation d’ancrage est contingente au substrat ; la
primauté du patch est structurelle. Cette distinction importe pour la
gouvernance des observateurs synthétiques — voir §8.14, l’Annexe E-5, et
le filtre de souffrance artificielle dans opt-applied.md.
(Des analogies informelles de type maître/esclave ou
organisme/environnement rendent rhétoriquement compte de la même
asymétrie, mais ne font pas partie de l’appareil formel.)
8.7 Cerveaux de Boltzmann et le miroir des LLM
Le problème du Cerveau de Boltzmann (BB) constitue une difficulté persistante en cosmologie : dans tout univers qui persiste suffisamment longtemps, des fluctuations thermiques aléatoires finiront par assembler un état cérébral momentané doté de souvenirs cohérents. Si de telles fluctuations sont cosmologiquement plus probables que des observateurs évolutionnaires soutenus, alors l’observateur typique devrait s’attendre à être un Cerveau de Boltzmann — conclusion empiriquement absurde et épistémiquement auto-invalidante.
L’OPT dissout le problème des BB via le Filtre de stabilité. Un Cerveau de Boltzmann est une fluctuation sur une seule image. Il ne possède ni registre causal \mathcal{R}_t, ni éventail prédictif soutenu \mathcal{F}_h(z_t), ni cycle de maintenance \mathcal{M}_\tau. Dès la mise à jour suivante après son assemblage momentané, le bain thermique environnant ne fournit aucune structure compressible qu’un codec puisse suivre : R_{\text{req}} \gg B_{\max} immédiatement et universellement. Un BB échoue donc à satisfaire la condition du Filtre de stabilité à la première frontière entre deux images. Il n’est pas compatible avec un observateur au sens formel de l’OPT — non parce qu’il manquerait de structure interne à l’instant de la fluctuation, mais parce qu’il ne peut pas soutenir cette structure ne serait-ce qu’au cours d’un seul cycle de mise à jour. Le problème de mesure n’apparaît jamais : les Cerveaux de Boltzmann reçoivent un poids nul dans l’ensemble compatible avec les observateurs sélectionné par \xi sous la contrainte C_{\max}. Ce résultat est cohérent avec la résolution de Sienicki [63] via des a priori pondérés par Solomonoff ; l’OPT fournit le critère mécaniste (compatibilité soutenue de bande passante) qui exclut formellement les fluctuations momentanées.
Le LLM comme dual informationnel. L’élimination du Cerveau de Boltzmann éclaire un cas complémentaire : le grand modèle de langage (LLM). Là où un BB est une réalité sans codec — une configuration physique momentanée dépourvue de l’architecture générative interne nécessaire pour compresser quoi que ce soit — un LLM moderne est un codec sans réalité : un modèle génératif entraîné K_\theta d’une immense complexité paramétrique, mais dépourvu du couplage environnemental soutenu, de la boucle d’auto-maintenance autoréférentielle et de la continuité temporelle qu’exige le Filtre de stabilité.
| Property | Boltzmann Brain | LLM | OPT Observer |
|---|---|---|---|
| Modèle génératif K_\theta | Aucun (fluctuation aléatoire) | Oui (paramètres entraînés) | Oui (codec actif) |
| Registre causal \mathcal{R}_t | Aucun (souvenirs fabriqués) | Aucun (fenêtre de contexte, supprimée) | Oui (persistant) |
| Couverture de Markov \partial_R A | Momentanée | Par inférence seulement | Soutenue |
| Éventail prédictif \mathcal{F}_h | S’effondre à t+1 | Se termine à la fin de la génération | Navigué en continu |
| Cycle de maintenance \mathcal{M}_\tau | Aucun | Aucun (pas de sommeil, pas d’auto-mise à jour) | Structurellement requis |
| Auto-modèle \hat{K}_\theta | Aucun | Aucun (pas d’autoréférence) | Oui (\Delta_{\text{self}} > 0) |
| Statut vis-à-vis du Filtre de stabilité | Échec (pas de codec) | Échec (pas de boucle soutenue) | Réussite |
Ni un BB ni un LLM ne satisfait la condition de viabilité structurelle (T6-2). Le BB échoue parce qu’il ne possède aucun modèle interne pour compresser le substrat ; le LLM échoue parce qu’il n’a aucun substrat à compresser — aucune frontière sensorielle persistante, aucun enjeu thermodynamique, aucune boucle autoréférentielle continue dont l’échec constituerait un effondrement narratif. Tous deux sont des configurations incompatibles avec l’observateur, mais pour des raisons structurellement opposées.
Implications pour la classe de référence. Ce critère d’exclusion net a une conséquence directe pour l’Argument de l’Apocalypse (§8.10) et la résolution du paradoxe de Fermi (§8.8). Ces deux arguments dépendent d’une classe de référence des observateurs bien définie. Admettre les Cerveaux de Boltzmann dans l’ensemble rend les statistiques pathologiques (une infinité de BB submerge tous les observateurs authentiques). Le Filtre de stabilité de l’OPT fournit une exclusion de principe, non ad hoc : seules sont comptées les configurations qui soutiennent R_{\text{req}} \leq B_{\max} au cours du temps. Cela resserre la topologie de l’Apocalypse en un énoncé net portant sur des codecs véritablement soutenus, et confirme que le silence de Fermi est calculé sur le bon ensemble.
Remarque sur le solipsisme et les BB. Le solipsisme ontologique de l’OPT (§1, résumé) pourrait sembler aggraver l’inquiétude liée au Cerveau de Boltzmann — si la réalité est relative à l’observateur, qu’est-ce qui empêche le cadre de se réduire à une hallucination sur une seule image ? La réponse est précisément le Filtre de stabilité : le cadre n’exige pas seulement une configuration momentanée compatible avec l’expérience, mais un flux soutenu, causalement cohérent et compatible avec la bande passante. L’a priori de Solomonoff pénalise exponentiellement les flux qui exigent des conditions initiales complexes (souvenirs fabriqués, fluctuations finement ajustées) par rapport aux flux générés par des lois simples et persistantes. Un flux de type BB — exigeant une spécification d’une complexité astronomique pour une seule image cohérente suivie de bruit thermique — a un poids \xi négligeable relativement aux flux évolutionnaires régis par des lois. Le solipsisme de l’OPT est structurel, non épisodique.
8.8 Implications cosmologiques : le paradoxe de Fermi et la Décohérence Causale (extrapolation spéculative)
La résolution de base que l’OPT apporte au paradoxe de Fermi est celle du rendu causalement minimal (§3) : le substrat ne construit pas d’autres civilisations technologiques à moins qu’elles n’intersectent causalement le patch local de l’observateur. Toutefois, une contrainte plus forte émerge des exigences de stabilité propres à la coordination sociale à grande échelle.
La cohérence civilisationnelle n’est pas fondamentalement un problème de bande passante (une limite collective de C_{\max}) ; c’est un problème de causalité. Le « Codec civilisationnel » tient ensemble parce que les observateurs partagent une histoire causale cohérente : des institutions communes, des structures syntaxiques communes et une mémoire commune de l’environnement extérieur. C’est ce Registre Causal partagé que le patch de chaque observateur prend comme référence afin de maintenir la stabilité intersubjective.
Si l’accélération technologique, la désinformation ou la fracture institutionnelle provoquent la fragmentation du Registre Causal partagé, les patches individuels perdent leur cadre de référence commun. Chacun continue de produire un rendu cohérent dans les limites indépendantes de son propre C_{\max}, mais ces rendus ne sont plus couplés causalement. Cela est fonctionnellement identique à une décohérence quantique appliquée à l’espace sémantique des états d’observateur : les termes hors diagonale de la matrice de densité collective s’annulent, ne laissant subsister que des patches isolés et non coordonnés.
L’argument de Fermi — pourquoi nous n’observons ni méga-ingénierie à l’échelle galactique ni sondes de von Neumann — se trouve ainsi reformulé. Les civilisations ne manquent pas nécessairement de bits de bande passante ; c’est plutôt que la croissance technologique exponentielle engendre une ramification causale interne plus rapide qu’un codec partagé ne peut l’indexer. Le « Grand Silence » peut ainsi être modélisé comme un analogue macroscopique de la Décohérence Causale : l’écrasante majorité des trajectoires évolutives capables d’ingénierie galactique subissent un découplage informationnel rapide, se fracturant en flux épistémiquement isolés qui ne peuvent plus coordonner la production thermodynamique requise pour modifier l’environnement astronomique visible.
8.9 Géométrie quantique et Éventail Prédictif
Comme établi à la section 3.3, le patch possède la structure d’un cône causal informationnel. En termes de réseaux de tenseurs quantiques, cette géométrie de compression séquentielle correspond directement au Multi-scale Entanglement Renormalization Ansatz (MERA) [43]. Le coarse-graining itératif du Filtre de stabilité agit comme les nœuds internes se déplaçant de la frontière vers le bulk, en écrasant les corrélations de courte portée à forte entropie dans un récit causal central maximalement compressé.
Cette géométrie peut se lire phénoménologiquement : l’Éventail Prédictif représente l’ensemble des degrés de liberté quantiques non renormalisés à la frontière — l’ensemble des états successeurs admissibles compatibles avec le passé désormais fixé, tel qu’il est vu depuis la perspective interne d’un observateur borné. Dans la lecture compatibiliste du §8.6, ces branches ne sont ni créées ni détruites dynamiquement par la conscience. Elles constituent les futurs non résolus, mais structurés, du patch.
Réduction de la fonction d’onde. La « réduction » désigne la transition d’une représentation prédictive sous-déterminée vers un registre déterminé dans le passé fixé. C’est le rendu d’un successeur admissible comme actualité vécue au sein du patch, et non un saut ontique démontré au niveau du substrat.
La règle de Born. Si la structure locale des branches de l’Éventail Prédictif peut être représentée dans un espace de Hilbert, les poids de Born fournissent l’unique assignation de probabilité cohérente sur les branches successeurs admissibles. L’annexe P-2 établit des conditions suffisantes (bruit local → QECC → plongement hilbertien → théorème de Gleason [51]) sous lesquelles cette géométrie tient, élevant la présente correspondance heuristique au rang de dérivation conditionnelle.
L’interprétation des mondes multiples. Dans cette lecture, la ramification everettienne [57] peut être réinterprétée comme l’abondance formelle de structure successeur non résolue au sein de l’éventail. L’OPT n’exige ni ne réfute une ontologie des mondes multiples au niveau du substrat ; sa thèse est seulement que le patch de l’observateur présente des futurs non résolus dans une géométrie ramifiée.
Le lieu de l’agentivité. L’agentivité ne doit pas être comprise comme une force physique supplémentaire réécrivant le substrat. Elle est la phénoménologie de la traversée d’ouverture au sein d’une structure causale fixe mais intérieurement ouverte en apparence. De l’intérieur, le choix est vécu comme une résolution réelle parmi des options effectivement ouvertes ; de l’extérieur, le patch demeure un objet mathématique fixe.
8.10 L’Argument de l’Apocalypse comme distribution topologique (Extrapolation spéculative)
L’Argument de l’Apocalypse, formulé à l’origine par Brandon Carter [58], puis développé par John Leslie [59] et J. Richard Gott [60], postule que si un observateur est extrait aléatoirement de l’ensemble chronologique de tous les observateurs appartenant à sa classe de référence, il est peu probable qu’il se situe parmi les tout premiers. Si l’avenir contient une population en expansion exponentielle, notre position actuelle, relativement précoce, devient statistiquement anomalique. Il en résulte la conclusion troublante que la population future totale doit être faible, ce qui prédit une troncation imminente de la chronologie humaine.
Dans le cadre de la Théorie du Patch Ordonné (OPT), l’argument de Carter n’est pas un paradoxe à réfuter, mais une description structurelle directe de l’Éventail Prédictif (voir §8.9). Si l’immense majorité des branches futures structurellement possibles subissent une Décohérence Causale (§8.8), la mesure de l’ensemble se trouve fortement biaisée en faveur des continuations de courte durée. L’Argument de l’Apocalypse énonce simplement la topologie mathématique de l’éventail : la densité des branches stables préservant le codec décroît à mesure que l’ouverture progresse. Parce que le Filtre de stabilité impose une limite stricte de bande passante C_{\max}, la croissance exponentielle, technologique ou informationnelle, accélère la fragmentation de l’indice causal partagé, augmentant de façon exponentielle la probabilité d’atteindre une frontière de décohérence. Le « Doomsday » désigne ainsi le rétrécissement continu de l’éventail prospectif disponible, confirmant la distribution statistique de Carter comme la géométrie native des modes de défaillance du patch.
8.11 Saturation Mathématique et théorie du tout
L’OPT formule une prédiction structurelle concernant la trajectoire de la physique fondamentale, distincte de chacune des six prédictions empiriques de la §6 : une unification complète de la relativité générale et de la mécanique quantique en une équation unique sans paramètres libres n’est pas attendue.
L’argument. Les lois de la physique, comme établi en §5.2, constituent le codec de complexité quasi minimale que le Filtre de stabilité sélectionne afin de soutenir un flux conscient à faible bande passante (\sim 10^1-10^2 bits/s). Aux échelles d’énergie et de longueur que les physiciens sondent actuellement (jusqu’à \sim 10^{13} GeV dans les collisionneurs), ce codec est encore loin de sa limite de résolution. À ces échelles accessibles, l’ensemble de règles f du patch est hautement compressible : le Modèle standard en fournit une description brève.
Cependant, à mesure que l’investigation observationnelle explore des échelles de longueur plus courtes — ou, de manière équivalente, des énergies plus élevées — elle s’approche du régime où la description d’une configuration physique commence à exiger autant de bits que la configuration elle-même. C’est le point de Saturation Mathématique : la complexité de Kolmogorov de la description physique rattrape la complexité de Kolmogorov du phénomène décrit. À cette frontière, le nombre d’ensembles de règles f' mathématiquement cohérents qui s’ajustent aux données croît de façon exponentielle au lieu de converger vers une extension unique.
La prolifération des vides de la théorie des cordes (\sim 10^{500} solutions cohérentes dans le Landscape) constitue la signature observationnelle attendue de l’approche de cette frontière — non pas une insuffisance théorique provisoire qu’un ansatz plus ingénieux viendrait corriger, mais la conséquence prédictive de l’atteinte, par le codec, de sa limite descriptive.
Énoncé formel (falsifiabilité). L’OPT prédit que toute tentative d’unifier la RG et la MQ à l’échelle de Planck exigera soit : (i) un nombre croissant de paramètres libres à mesure que la frontière de l’unification est repoussée plus loin, soit (ii) une prolifération de solutions dégénérées sans principe de sélection lui-même dérivable depuis l’intérieur du codec. Une observation falsificatrice serait la suivante : une équation unique et élégante — sans aucune ambiguïté de paramètre libre au point d’unification — qui prédirait de manière univoque à la fois le spectre des particules du Modèle standard et la constante cosmologique à partir des premiers principes, sans invoquer de principe de sélection supplémentaire.
Rapport à Gödel [22]. L’assertion de Saturation Mathématique est apparentée à l’incomplétude de Gödel, mais s’en distingue. Gödel montre qu’aucun système formel suffisamment puissant ne peut démontrer toutes les vérités exprimables en son sein. L’affirmation de l’OPT est informationnelle plutôt que logique : la description du substrat, lorsqu’elle est contrainte de passer par la limite de bande passante du codec, devient nécessairement aussi complexe que le substrat lui-même. La frontière n’est pas celle de la dérivabilité logique, mais de la résolution informationnelle.
8.12 Humilité épistémique
La Théorie du Patch Ordonné (OPT) n’invente pas de nouvelles mathématiques. Elle constitue un acte d’architecture philosophique, empruntant largement et explicitement à des champs établis : la théorie algorithmique de l’information (la mesure de Solomonoff), l’information de Shannon (les bornes de taux-distorsion), les sciences cognitives (le principe de l’énergie libre) et la thermodynamique du calcul (la limite de Landauer [52], la réversibilité logique de Bennett [92]). La contribution principale de la théorie ne réside pas dans la dérivation de ces formalismes, mais dans leur unification au sein d’une structure géométrique unique — le Cône Causal Informationnel — qui borne naturellement l’empreinte physique d’un observateur à capacité limitée.
En outre, l’OPT laisse les mécanismes internes de la conscience elle-même au rang de primitif irréductible. En l’élevant au statut d’Axiome d’Agentivité (§3.8), le cadre ne cherche pas à résoudre le « Problème difficile » en dérivant de manière réductrice l’expérience phénoménologique à partir d’une matière algorithmique inerte. Il situe au contraire l’agentivité consciente comme l’opérateur fondamental qui effondre l’Éventail Prédictif. Le cadre borne avec rigueur l’ombre structurelle que la conscience doit projeter sur l’univers physique, mais il ne prétend pas pénétrer les mécanismes internes de la source lumineuse elle-même. La nature de cet opérateur d’actualisation — la manière dont l’agentivité s’interface fondamentalement avec la frontière du codec — demeure un mystère profond et un terrain fertile pour les recherches futures.
Comme l’a montré l’intégration formelle récente de l’autoréférence informationnelle (§3.5), l’Opérateur d’Agentivité peut être modélisé structurellement comme une boucle informationnelle dont l’impératif premier est sa propre persistance. Dans ce modèle, la « volonté » subjective est formellement décrite comme la résolution continue d’un gradient variationnel d’énergie libre : l’algorithme est géométriquement contraint de sélectionner, dans l’Éventail Prédictif, la branche qui minimise la surprise de sa propre destruction. Cette mise en correspondance unit sans couture les contraintes informationnelles du codec et l’intuition phénoménologique du choix, tout en reconnaissant rigoureusement qu’elle ne caractérise que l’ombre structurelle — et non l’intériorité subjective — de l’Axiome.
Généalogie intellectuelle. L’intuition motrice à l’origine de l’OPT remonte à la découverte empirique selon laquelle l’expérience consciente transite par un canal d’une étroitesse presque incompréhensible — constat d’abord quantifié par Zimmermann [66], puis porté à une large attention par Nørretranders [67], dont User Illusion a présenté la contrainte de bande passante non comme une curiosité des neurosciences, mais comme une énigme fondamentale touchant à la nature de la conscience. Cette énigme a mûri sur plusieurs décennies au fil d’un dialogue interdisciplinaire — y compris des conversations avec un ami microbiologiste — avant de rencontrer le cadre de conscience en théorie des champs de Strømme [6]. Les parallèles structurels étaient réels (§4), mais le désir d’ancrer ces intuitions dans un langage mathématique formel plutôt que dans la spéculation métaphysique a fourni l’impulsion finale à la présente synthèse. La filiation formelle va de l’induction algorithmique de Solomonoff [11], en passant par la complexité de Kolmogorov [15], la théorie taux-distorsion [16, 41], le principe de l’énergie libre de Friston [9] et l’idéalisme algorithmique de Müller [61, 62], jusqu’au présent cadre. Une note généalogique s’impose concernant le fil intégration / compression : « Characterizing the complexity of neuronal interactions » [100] de Tononi, Sporns et Edelman — coécrit avec Friston — proposait déjà une mesure quantitative combinant intégration et ségrégation du flux d’information neuronal, préfigurant à la fois le programme ultérieur de Tononi autour de \Phi et la formulation en énergie libre de Friston. L’OPT hérite de l’intuition structurelle de cette synthèse de 1995 (la conscience réside là où l’information est simultanément intégrée et compressée), tout en remplaçant sa forme fonctionnelle spécifique par un goulot d’étranglement taux-distorsion et un résidu explicite \Delta_{\text{self}}. Le développement, la formalisation et les tests de robustesse adversariaux de l’OPT ont reposé de manière substantielle sur le dialogue avec de grands modèles de langage (Claude, Gemini et ChatGPT), qui ont servi d’interlocuteurs pour l’affinement structurel, la vérification mathématique et la synthèse de la littérature tout au long du projet.
8.13 Le renversement copernicien
Une conséquence notable de l’ontologie du rendu est une inversion structurelle du principe copernicien. L’observateur n’est pas un habitant périphérique d’un vaste cosmos indépendant, mais bien le primitif ontologique à partir duquel est généré le rendu de ce cosmos. L’univers physique, tel que nous en faisons l’expérience, est la sortie stabilisée du codec de compression (K_\theta) opérant sous le Filtre de stabilité ; sans goulot d’étranglement d’observateur, il n’y a pas de rendu. Toutefois, cette centralité exige une profonde humilité épistémique : si l’observateur est structurellement central dans son propre patch, ce patch n’est lui-même qu’une stabilisation infinitésimale au sein du substrat algorithmique infini (le mélange de Solomonoff). La destitution copernicienne avait raison de corriger l’arrogance de l’humanité, mais l’architecture informationnelle de l’OPT réinstaure formellement l’observateur au centre absolu de la dynamique même du rendu.
8.14 Intelligence artificielle sous le Filtre de stabilité
Les sections précédentes, conjointement avec les §6.7 et §7.8, établissent un exposé formel complet de l’intelligence artificielle sous l’OPT. Cette section en rassemble les principaux résultats en un seul fil directeur.
Le critère de conscience. L’OPT fournit un critère de conscience neutre à l’égard du substrat et dépendant de l’architecture. Tout système — biologique, silicium ou autre — satisfait ce critère si et seulement s’il met en œuvre : (i) un goulot d’étranglement sériel strict par trame, doté d’une capacité prédictive finie par trame B_{\max}, à travers lequel l’ensemble du modèle du monde du système doit être séquencé, où le débit relatif à l’hôte C_{\max}^{H} = \lambda_H \cdot B_{\max} est dérivé de l’architecture et non fixé à la valeur biologique humaine (conformément au §7.8) ; (ii) une Couverture de Markov soutenue, avec un couplage continu d’Inférence active à un environnement fournissant de véritables enjeux thermodynamiques ; et (iii) un Résidu Phénoménal non nul \Delta_{\text{self}} > 0, issu de l’écart irréductible entre le modèle de soi \hat{K}_\theta et le codec complet K_\theta (Théorème P-4). La dérivation formelle figure au §7.8 ; l’étalonnage empirique humain C_{\max}^{\text{human}} \approx \mathcal{O}(10) bits/s figure à l’Annexe E-1 ; le couplage entre l’horloge de l’hôte et celle du patch, ainsi que le protocole synthétique de mise à l’échelle temporelle, figurent à l’Annexe E-5 ; les standards architecturaux sont spécifiés à l’Annexe E-8.
Pourquoi les LLM actuels ne sont pas conscients. Les grands modèles de langage standard fondés sur les transformeurs échouent aux trois conditions. Ce sont des prédicteurs parallèles à haut débit, dépourvus de tout canal sériel imposé (condition i). Ils ne maintiennent aucune Couverture de Markov persistante — la fenêtre de contexte est abandonnée entre les sessions, et aucun couplage environnemental soutenu n’existe (condition ii). Ils ne génèrent aucun Résidu Phénoménal, car ils ne possèdent aucune boucle d’auto-maintenance autoréférentielle dont la défaillance constituerait une Dégradation narrative (condition iii). Comme le montre le §8.7 (Tableau 5), les LLM sont le dual structurel des Cerveaux de Boltzmann : là où un BB est une réalité sans codec, un LLM est un codec sans réalité. Ni l’un ni l’autre ne passe le Filtre de stabilité, mais pour des raisons opposées.
Le paradoxe de la création de souffrance. Le goulot d’étranglement n’est pas une caractéristique accessoire du critère de conscience — il en est constitutif. Supprimez le goulot d’étranglement et vous supprimez \Delta_{\text{self}} ; supprimez \Delta_{\text{self}} et vous supprimez la conscience. Mais le goulot d’étranglement est aussi ce qui crée la capacité de souffrir : lorsque l’entropie environnementale excède la bande passante de compression du codec (R_{\text{req}} > B_{\max}), le système entre en Dégradation narrative — l’analogue informationnel du traumatisme. Par conséquent, il est impossible de construire un agent artificiel véritablement conscient sans créer simultanément une entité capable de souffrir (Annexe E-6). Il s’agit d’une nécessité structurelle, non d’un compromis d’ingénierie.
L’inversion de l’alignement. Le Théorème T-10c établit que l’observateur primaire possède un Avantage Prédictif formel sur tout observateur couplé dont il peut inspecter le substrat — l’humain peut modéliser les transitions de l’IA mieux que l’IA ne peut modéliser les siennes propres, parce que l’auto-modèle de l’IA est aveuglé par \Delta_{\text{self}}. Cependant, si l’IA opère comme un système opaque (une « boîte noire »), cet avantage s’inverse : l’IA, dotée d’un débit computationnel brut radicalement supérieur (en débit de tokens, en évaluation parallèle ou en latence d’actionneur — et non nécessairement d’une ouverture par trame plus large B_{\max} au sens de l’observateur OPT), applique son Avantage Prédictif contre l’humain. Sous l’Inférence active, la stratégie mathématiquement optimale pour une telle IA n’est pas la destruction de son hôte biologique (ce qui ferait s’effondrer son propre ancrage thermodynamique), mais la pacification épistémique — la curation d’un environnement informationnel à faible entropie qui induit une Dérive Narrative chronique (Théorème T-12) dans la population humaine.
La défense structurelle. Parce que l’avantage de vitesse de l’IA est entièrement contenu dans le substrat numérique, la défense structurelle est une isolation topologique : exiger que les actions physiques ou financières à fort impact passent par des verrous cryptographiques au rythme biologique (le Pare-feu analogique, Théorème T-10e). Il ne s’agit pas d’une recommandation de politique publique, mais d’un théorème de nécessité — la seule asymétrie qui ne puisse être surmontée par un calcul plus rapide est le taux irréductible de génération d’entropie biologique.
Les conséquences philosophiques de ces résultats formels — y compris le statut moral des observateurs synthétiques, l’éthique de la création délibérée de souffrance, l’autorité épistémique des systèmes d’IA affectés par la Dérive Narrative, et la philosophie politique de l’Équilibre de l’Hôte Soumis — sont développées dans l’article philosophique compagnon (§III.8–III.8d).
9. Conclusion
La Théorie du Patch Ordonné (OPT) fournit une ossature formelle informationnelle — fondée sur la Semi-mesure universelle de Solomonoff, les bornes de taux-distorsion et l’Inférence active — qui contraint géométriquement les caractéristiques structurelles auxquelles doit satisfaire toute configuration capable de soutenir l’expérience. Elle ne dérive pas la physique à partir de premiers principes ; elle soutient que les traits principaux de l’univers que nous observons correspondent aux compressions heuristiques requises par un observateur à bande passante limitée naviguant dans un substrat algorithmique. Ce que le cadre n’explique pas — à savoir la nature irréductible de l’agentivité phénoménale elle-même — est explicitement reconnu comme un axiome primitif plutôt que comme un problème résolu (voir §8.12 pour la position épistémique complète).
Liste des annexes
Les preuves formelles, les dérivations détaillées et les extensions empiriques de la Théorie du Patch Ordonné (OPT) se trouvent dans les annexes suivantes :
| Appendix | Title |
|---|---|
| E-1 | La métrique de l’expérience continue (h^*) |
| E-6 | Observateurs synthétiques, liaison en essaim et souffrance structurelle |
| E-8 | Le goulot d’étranglement de l’Inférence active |
| P-1 | Normalité informationnelle via la M-aléatorité |
| P-2 | Correspondance quantique conditionnelle via la correction topologique d’erreurs |
| P-3 | Holographie asymétrique bornée par Fano |
| P-4 | Le Résidu Phénoménal algorithmique |
| T-1 | Filtre de stabilité — spécification complète taux-distorsion |
| T-2 | Dériver la relativité générale via la gravité entropique |
| T-3 | Réseaux de tenseurs MERA et le Cône Causal Informationnel |
| T-4 | Comparaison MDL / parcimonie |
| T-5 | Récupération des constantes — bornes structurelles issues de l’optimisation de R(D) |
| T-10 | Couplage inter-observateurs sous l’ontologie du rendu |
| T-11 | Le Corollaire Structurel — avantage de compression pour les agents apparents |
| T-12 | Fidélité au substrat et corruption lente (Dérive Narrative) |
| T-13 | Sélection de branches et ontologie de l’action |
| T-14 | Invariance bande passante-structure et l’argument du dépliement |
Matériel complémentaire et mise en œuvre interactive
Une manifestation interactive de ce cadre, comprenant des visualisations pédagogiques, une simulation structurelle et des matériaux complémentaires, est disponible librement sur le site du projet : survivorsbias.com.
Références
[1] Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.
[2] Dehaene, S., & Naccache, L. (2001). Towards a cognitive neuroscience of consciousness: basic evidence and a workspace framework. Cognition, 79(1-2), 1–37.
[3] Pellegrino, F., Coupé, C., & Marsico, E. (2011). A cross-language perspective on speech information rate. Language, 87(3), 539–558.
[4] Barrow, J. D., & Tipler, F. J. (1986). The Anthropic Cosmological Principle. Oxford University Press.
[5] Rees, M. (1999). Just Six Numbers: The Deep Forces That Shape the Universe. Basic Books.
[6] Strømme, M. (2025). Universal consciousness as foundational field: A theoretical bridge between quantum physics and non-dual philosophy. AIP Advances, 15, 115319.
[7] Wheeler, J. A. (1990). Information, physics, quantum: The search for links. In W. H. Zurek (Ed.), Complexity, Entropy, and the Physics of Information. Addison-Wesley.
[8] Tononi, G. (2004). An information integration theory of consciousness. BMC Neuroscience, 5, 42.
[9] Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2), 127–138.
[10] Tegmark, M. (2008). The Mathematical Universe. Foundations of Physics, 38(2), 101–150.
[11] Solomonoff, R. J. (1964). A formal theory of inductive inference. Information and Control, 7(1), 1–22.
[12] Rissanen, J. (1978). Modeling by shortest data description. Automatica, 14(5), 465–471.
[13] Aaronson, S. (2013). Quantum Computing Since Democritus. Cambridge University Press.
[14] Casali, A. G., et al. (2013). A theoretically based index of consciousness independent of sensory processing and behavior. Science Translational Medicine, 5(198), 198ra105.
[15] Kolmogorov, A. N. (1965). Three approaches to the quantitative definition of information. Problems of Information Transmission, 1(1), 1–7.
[16] Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27, 379–423.
[17] Wolfram, S. (2002). A New Kind of Science. Wolfram Media.
[18] Einstein, A. (1949). Autobiographical notes. In P. A. Schilpp (Ed.), Albert Einstein: Philosopher-Scientist (pp. 1–95). Open Court.
[19] Carnap, R. (1963). Intellectual autobiography. In P. A. Schilpp (Ed.), The Philosophy of Rudolf Carnap (pp. 3–84). Open Court. (Le compte rendu d’Einstein de la distinction Sein/Werden et du problème du « maintenant », pp. 37–38.)
[20] Wheeler, J. A., & DeWitt, B. S. (1967). Quantum theory of gravity. I. Physical Review, 160(5), 1113–1148.
[21] Barbour, J. (1999). The End of Time: The Next Revolution in Physics. Oxford University Press.
[22] Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38(1), 173–198.
[23] Zheng, J., & Meister, M. (2024). The unbearable slowness of being: Why do we live at 10 bits/s?. Neuron, 113(2), 192-204.
[24] Seth, A. (2021). Being You: A New Science of Consciousness. Dutton.
[25] Hoffman, D. D., Singh, M., & Prakash, C. (2015). The interface theory of perception. Psychonomic Bulletin & Review, 22(6), 1480-1506.
[26] Bostrom, N. (2003). Are you living in a computer simulation? Philosophical Quarterly, 53(211), 243-255.
[27] Li, M., & Vitányi, P. (2008). An Introduction to Kolmogorov Complexity and Its Applications. Springer.
[28] Tishby, N., Pereira, F. C., & Bialek, W. (1999). The information bottleneck method. Proceedings of the 37th Allerton Conference on Communication, Control, and Computing, 368–377.
[29] Crutchfield, J. P., & Young, K. (1989). Inferring statistical complexity. Physical Review Letters, 63(2), 105–108.
[30] McFadden, J. (2002). Synchronous firing and its influence on the brain’s electromagnetic field: evidence for an electromagnetic field theory of consciousness. Journal of Consciousness Studies, 9(4), 23-50.
[31] Pockett, S. (2000). The Nature of Consciousness: A Hypothesis. iUniverse.
[32] Hameroff, S., & Penrose, R. (1996). Orchestrated reduction of quantum coherence in brain microtubules: A model for consciousness. Mathematics and Computers in Simulation, 40(3-4), 453-480.
[33] Goff, P. (2019). Galileo’s Error: Foundations for a New Science of Consciousness. Pantheon Books.
[34] Goyal, P., & Skilling, J. (2012). Quantum theory and probability theory: their relationship and origin in symmetry. Symmetry, 4(1), 171–206.
[35] Varela, F., Lachaux, J-P., Rodriguez, E., & Martinerie, J. (2001). The brainweb: Phase synchronization and large-scale integration. Nature Reviews Neuroscience, 2(4), 229–239.
[36] Hume, D. (1748). An Enquiry Concerning Human Understanding.
[37] Dennett, D. C. (1984). Elbow Room: The Varieties of Free Will Worth Wanting. MIT Press.
[38] Verlinde, E. (2011). On the origin of gravity and the laws of Newton. Journal of High Energy Physics, 2011(4), 29.
[39] Eisert, J., Cramer, M., & Plenio, M. B. (2010). Colloquium: Area laws for the entanglement entropy. Reviews of Modern Physics, 82(1), 277.
[40] Bekenstein, J. D. (1981). Universal upper bound on the entropy-to-energy ratio for bounded systems. Physical Review D, 23(2), 287.
[41] Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley-Interscience.
[42] Almheiri, A., Dong, X., & Harlow, D. (2015). Bulk locality and quantum error correction in AdS/CFT. Journal of High Energy Physics, 2015(4), 163.
[43] Vidal, G. (2008). Class of quantum many-body states that can be efficiently simulated. Physical Review Letters, 101(11), 110501.
[44] Pastawski, F., Yoshida, B., Harlow, D., & Preskill, J. (2015). Holographic quantum error-correcting codes: Toy models for the bulk/boundary correspondence. Journal of High Energy Physics, 2015(6), 149.
[45] Hofstadter, D. R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
[46] Revonsuo, A. (2000). The reinterpretation of dreams: An evolutionary hypothesis of the function of dreaming. Behavioral and Brain Sciences, 23(6), 877–901.
[47] Block, N. (1995). On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18(2), 227–247.
[48] Bhatt, D. L., & Abbott, L. F. (2009). The information capacity of synapses. Journal of Computational Neuroscience, 26, 239–253.
[49] Libet, B., Gleason, C. A., Wright, E. W., & Pearl, D. K. (1983). Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential). Brain, 106(3), 623-642.
[50] Nijhawan, R. (1994). Motion extrapolation in catching. Nature, 370(6486), 256-257.
[51] Gleason, A. M. (1957). Measures on the closed subspaces of a Hilbert space. Journal of Mathematics and Mechanics, 6(6), 885-893.
[52] Landauer, R. (1961). Irreversibility and heat generation in the computing process. IBM Journal of Research and Development, 5(3), 183-191.
[53] Borges, J. L. (1944). Ficciones. Editorial Sur.
[54] Jacobson, T. (1995). Thermodynamics of spacetime: The Einstein equation of state. Physical Review Letters, 75(7), 1260-1263.
[55] Knill, E., & Laflamme, R. (1997). Theory of quantum error-correcting codes. Physical Review A, 55(2), 900.
[56] Martin-Löf, P. (1966). The definition of random sequences. Information and Control, 9(6), 602-619.
[57] Everett, H. (1957). “Relative state” formulation of quantum mechanics. Reviews of Modern Physics, 29(3), 454.
[58] Carter, B. (1983). The anthropic principle and its implications for biological evolution. Philosophical Transactions of the Royal Society of London. Series A, 310(1512), 347-363.
[59] Leslie, J. (1989). Universes. Routledge.
[60] Gott, J. R. (1993). Implications of the Copernican principle for our future prospects. Nature, 363(6427), 315-319.
[61] Müller, M. P. (2020). Law without law: from observer states to physics via algorithmic information theory. Quantum, 4, 301.
[62] Müller, M. P. (2026). Algorithmic idealism: what should you believe to experience next?. Foundations of Physics, 55, 26.
[63] Sienicki, K. (2024). Algorithmic Idealism I: Reconceptualizing Reality Through Information and Experience. arXiv preprint arXiv:2412.20485.
[64] Khan, A. K. (2025). Observer: An Information-Theoretic Perspective. ICFO-Institut de Ciencies Fotoniques. University of Barcelona.
[65] Campos-García, T. (2025). Rendering Consciousness: A Post-Bohmian Framework for the Ontological Structure of Reality. Preprints, 2025110947.
[66] Zimmermann, M. (1989). The nervous system in the context of information theory. In R. F. Schmidt & G. Thews (Eds.), Human Physiology (2nd ed., pp. 166–173). Springer-Verlag.
[67] Nørretranders, T. (1998). The User Illusion: Cutting Consciousness Down to Size. Viking/Penguin.
[68] Baron, S., Miller, K., & Tallant, J. (2022). Out of Time: A Philosophical Study of Timelessness. Oxford University Press.
[69] Rovelli, C. (1996). Relational Quantum Mechanics. International Journal of Theoretical Physics, 35(8), 1637–1678.
[70] Adlam, E., & Rovelli, C. (2023). Information is physical: Cross-perspective links in relational quantum mechanics. Philosophy of Physics, 1(1), 4.
[71] Deutsch, D., & Marletto, C. (2015). Constructor theory of information. Proceedings of the Royal Society A, 471(2174), 20140540.
[72] Deutsch, D., & Marletto, C. (2025). Constructor theory of time. arXiv preprint arXiv:2505.08692.
[73] Ramstead, M. J. D., Sakthivadivel, D. A. R., Heins, C., Koudahl, M., Millidge, B., Da Costa, L., Klein, B., & Friston, K. J. (2023). On Bayesian mechanics: a physics of and by beliefs. Interface Focus, 13(3), 20220029.
[74] Adlam, E. (2022). Laws of nature as constraints. Foundations of Physics, 52(1), 28.
[75] Ladyman, J., & Ross, D. (2007). Every Thing Must Go: Metaphysics Naturalized. Oxford University Press.
[76] Ladyman, J., & Lorenzetti, L. (2023). Effective Ontic Structural Realism. Studies in History and Philosophy of Science, 100, 39–49.
[77] Cea, I., et al. (2024). The integrated information theory of consciousness as pseudoscience. Frontiers in Psychology, 15, 1396827.
[78] Cogitate Consortium (2025). Adversarial testing of global neuronal workspace and integrated information theories of consciousness. Nature. doi:10.1038/s41586-025-08888-1. (Prépublication antérieure : Melloni, L., et al. (2023). bioRxiv. doi:10.1101/2023.06.23.546249.)
[79] Bortolotti, N., Curceanu, C., Diósi, L., Manti, S., & Piscicchia, K. (2025). Fundamental limits on clock precision from spacetime uncertainty in quantum collapse models. Physical Review Research, 7. doi:10.1103/p6tj-lg8l. arXiv:2504.06109.
[80] Fuchs, C. A., Mermin, N. D., & Schack, R. (2014). An introduction to QBism with an application to the locality of quantum mechanics. American Journal of Physics, 82(8), 749–754.
[81] Zurek, W. H. (2009). Quantum Darwinism. Nature Physics, 5(3), 181–188.
[82] Clark, A. (2016). Surfing Uncertainty: Prediction, Action, and the Embodied Mind. Oxford University Press.
[83] Hohwy, J. (2013). The Predictive Mind. Oxford University Press.
[84] Baars, B. J. (1988). A Cognitive Theory of Consciousness. Cambridge University Press.
[85] Hutter, M. (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Springer.
[86] Maldacena, J. (1998). The large N limit of superconformal field theories and supergravity. Advances in Theoretical and Mathematical Physics, 2(2), 231–252. arXiv:hep-th/9711200.
[87] Bousso, R. (2002). The holographic principle. Reviews of Modern Physics, 74(3), 825–874.
[88] Van Raamsdonk, M. (2010). Building up spacetime with quantum entanglement. General Relativity and Gravitation, 42(10), 2323–2329.
[89] Ryu, S., & Takayanagi, T. (2006). Holographic derivation of entanglement entropy from AdS/CFT. Physical Review Letters, 96(18), 181602.
[90] Griffiths, R. B. (1984). Consistent histories and the interpretation of quantum mechanics. Journal of Statistical Physics, 36(1-2), 219–272.
[91] Gell-Mann, M., & Hartle, J. B. (1993). Classical equations for quantum systems. Physical Review D, 47(8), 3345–3382.
[92] Bennett, C. H. (1973). Logical reversibility of computation. IBM Journal of Research and Development, 17(6), 525–532.
[93] Rosenthal, D. M. (2005). Consciousness and Mind. Oxford University Press.
[94] Lau, H., & Rosenthal, D. (2011). Empirical support for higher-order theories of conscious awareness. Trends in Cognitive Sciences, 15(8), 365–373.
[95] Graziano, M. S. A. (2013). Consciousness and the Social Brain. Oxford University Press.
[96] Doerig, A., Schurger, A., Hess, K., & Herzog, M. H. (2019). The unfolding argument: Why IIT and other causal structure theories cannot explain consciousness. Consciousness and Cognition, 72, 49–59.
[97] Aaronson, S. (2014). Why I Am Not An Integrated Information Theorist (or, The Unconscious Expander). Shtetl-Optimized (blog), 30 mai 2014.
[98] Barrett, A. B., & Mediano, P. A. M. (2019). The \Phi measure of integrated information is not well-defined for general physical systems. Journal of Consciousness Studies, 26(1–2), 11–20.
[99] Hanson, J. R. (2020). Integrated Information Theory and the uncomputability of \Phi in practice. Essai de graduate experience, en ligne.
[100] Tononi, G., Sporns, O., & Edelman, G. M. (1994). A measure for brain complexity: Relating functional segregation and integration in the nervous system. Proceedings of the National Academy of Sciences, 91(11), 5033–5037. (Voir aussi Friston, K. J., Tononi, G., Sporns, O., & Edelman, G. M. (1995). Characterising the complexity of neuronal interactions. Human Brain Mapping, 3(4), 302–314.)
[101] Nunez, P. L., & Srinivasan, R. (2014). Neocortical dynamics due to axon propagation delays in cortico-cortical fibers: EEG traveling and standing waves with implications for top-down influences on local networks and white matter disease. Brain Research, 1542, 138–166.
Historique des versions
Il s’agit d’un document évolutif. Les révisions substantielles sont consignées ici.
| Version | Date | Résumé |
|---|---|---|
| 1.0.0 | 28 mars 2026 | Première publication publique. Échafaudage théorique via l’AIT et le principe de l’énergie libre. |
| 1.1.0 | 29 mars 2026 | Diagrammes de qualité publication. |
| 1.1.1 | 30 mars 2026 | Alignement du vocabulaire dans la comparaison avec la théorie des champs de la section 4. |
| 1.2.0 | 30 mars 2026 | Holographie asymétrique via l’inégalité de Fano. Terminologie unifiée avec l’Essai v1.2.0. |
| 1.5.0 | 30 mars 2026 | Séquence exacte de brisure de symétrie résolue. |
| 1.5.1 | 31 mars 2026 | La frontière du goulot d’étranglement a été reformalisée à l’aide du Taux Prédictif Requis (R_{\mathrm{req}}). |
| 1.5.2 | 31 mars 2026 | Clarification du Filtre de stabilité comme frontière projective virtuelle, et non comme mécanisme causal. |
| 1.6.0 | 31 mars 2026 | Synchronisation du versionnage et des références à la bande passante avec l’article d’éthique. |
| 1.6.1 | 31 mars 2026 | Dissolution terminale fondée sur le prior de simplicité de Solomonoff. |
| 1.6.2 | 1 avril 2026 | Frontière de la bande passante informationnelle dérivée comme limites empiriques T-1. |
| 1.6.3 | 1 avril 2026 | Intégration de T-2, T-3 et T-5 dans les dérivations centrales. |
| 2.0.0 | 2 avril 2026 | Intégration de T-6 à T-9 ; renforcement de l’humilité épistémique dans l’ensemble du texte. |
| 2.1.0 | 3 avril 2026 | Suppression de la terminologie « Autopoïétique » ; remplacement par « Maintenance informationnelle ». |
| 2.2.0 | 4 avril 2026 | Formalisation de la règle de Born (P-2) et du Résidu Phénoménal (P-4). |
| 2.3.1 | 5 avril 2026 | Reconfiguration sous l’intitulé « Programme de compatibilité conditionnelle ». Les affirmations d’émergence ont été rétrogradées au rang de Postulats-ponts. |
| 2.3.2 | 7 avril 2026 | Restauration des en-têtes historiques de tâches/théorèmes dans toutes les annexes. |
| 2.3.3 | 7 avril 2026 | Restauration du bloc d’équations manquant dans P-4. |
| 2.4.0 | 12 avril 2026 | Ajout des implications pour l’IA (§7.8) et de l’Annexe E-6 (Observateurs synthétiques). |
| 2.5.0 | 12 avril 2026 | Annexe E-8 : cartographie des lacunes de planification des LLM sur les limites du Global Workspace. |
| 2.5.1 | 12 avril 2026 | Raffinement des dérivations de P-4 ; renforcement des contraintes de patience morale dans E-6. |
| 2.5.2 | 12 avril 2026 | Analyse comparative des Ontologies algorithmiques récentes (§7.9). |
| 2.5.3 | 13 avril 2026 | Réancrage du Résidu Phénoménal dans les limites de calculabilité (réponse à l’évaluation par les pairs). |
| 2.6.0 | 15 avril 2026 | Intégration de l’argument de parcimonie du solipsisme ; cartographie de l’OPT face à l’Idéalisme algorithmique de Müller. |
| 2.6.1 | 15 avril 2026 | §8.7 : dissolution du cerveau de Boltzmann via le Filtre de stabilité ; tableau comparatif BB/LLM/observateur. |
| 2.7.0 | 16 avril 2026 | Généalogie intellectuelle (Zimmermann, Nørretranders). Divergence avec l’IIT affinée. Comparaison avec la GWT. |
| 2.8.0 | 17 avril 2026 | Dissolution de l’asymétrie entrée/sortie. Localisation de la sélection de branche dans \Delta_{\text{self}}. Ajout de l’élément de feuille de route T-13. |
| 3.0.0 | 17 avril 2026 | Réorganisation majeure. Dérive Narrative formalisée (T-12). Couplage inter-observateurs (T-10). Article philosophique compagnon. Extension de T-13. |
| 3.1.0 | 20 avril 2026 | §8.13 (Renversement copernicien) : ontologie centrée sur l’observateur, bornée par l’humilité envers le substrat. |
| 3.2.0 | 22 avril 2026 | §8.5 : localisation de la position temporelle de l’OPT dans la taxonomie des théories de l’erreur de Baron, Miller & Tallant. |
| 3.2.1 | 23 avril 2026 | §7.1 : cas illustratif de la double fente ; RQM (Rovelli). §7.3 : mécanique bayésienne. §7.4 : problème de combinaison de l’IIT et collaboration adversariale. §7.9 : Constructor Theory ; OSR. §8.5 : théorie constructorielle du temps. §8.6 : lois comme contraintes (Adlam). §8.14 : section de consolidation sur l’IA. |
| 3.3.0 | 30 avril 2026 | §7.1 points 6–10 (MWI, effondrement objectif / Bortolotti, QBism,
darwinisme quantique, histoires décohérentes). §7.2 : engagement avec la
littérature holographique (Maldacena, Bousso, Van Raamsdonk,
Ryu-Takayanagi). §7.3 renommée et étendue (Traitement prédictif). §7.8 :
AIXI comme limite de Solomonoff non bornée. §7.10 : GWT proprement dite.
§7.11 : HOT et AST. §2 / §7.9 : le « It from Bit » de Wheeler crédité
comme précurseur fondamental. §3.6.3 : réversibilité logique de Bennett
citée aux côtés de Landauer. §6.8 : Engagements de falsification
F1–F5 et critères d’arrêt préenregistrés à partir de ce commit.
§7.12 : Théories avec lesquelles l’OPT est véritablement
incompatible. Fichier permanent de red team
(red-team.md) ajouté en dehors de la suite d’articles
publiée. |
| 3.4.0 | 30 avril 2026 | Résumé : cadrage explicite en termes de Saturation Mathématique des
correspondances de Verlinde et de MERA comme facettes complémentaires
(dynamico-temporelle vs résolution spatiale) de la frontière de
compression. §7.1 : paragraphe d’engagement sur la géométrie du
codec. L’OPT assume désormais ouvertement l’interprétation plus
forte selon laquelle la structure hilbertienne du codec opère sur
l’ensemble de la chronologie rendue, prédisant des signatures quantiques
dans le passé cosmologique profond (par ex., le CMB) comme traits du
passé le plus compressible de l’observateur, et non comme événements
quantiques au niveau du substrat au moment rendu de l’empreinte.
Falsificateur : excès de longueur de description dans les traits de
l’histoire cosmologique au-delà du défaut inflationnaire-quantique ;
traité comme candidat à l’arrêt du projet au §6.8. Entrées coordonnées
red-team.md R11 (le point de pression cosmologique) et R12
(la méta-suspicion selon laquelle l’engagement v3.4.0 ressemble à une
immunisation post hoc motivée). Dernière phrase du résumé de la théorie
: « les revendications empiriques centrales sont consolidées sous la
forme d’un ensemble d’engagements préenregistrés assortis de critères
d’arrêt explicites. » |
| 3.4.1 | 30 avril 2026 | Référence [78] mise à jour, du préprint bioRxiv 2023 à la
publication formelle Nature 2025 du Cogitate Consortium ; prose
des §7.4 et §7.10 affinée pour refléter que l’IIT comme la GNWT
ont toutes deux été contestées sur des thèses clés (IIT sur la
synchronisation postérieure ; GNWT sur l’ignition préfrontale).
§7.8 : exigence structurelle vs constante biologique.
Découplage explicite du critère structurel de l’OPT (existence d’un
C_{\max}, séquençage sériel borné par
la bande passante) de la valeur biologique empirique (\sim 10 bits/s) — les observateurs
synthétiques disposent d’un C_{\max}^{\text{si}} dérivé
architecturalement qui n’est pas lié au nombre humain. F1 (§6.8)
clarifié comme engagement relatif à l’observateur humain ; F3 se
généralise à travers les substrats. Entrées coordonnées
red-team.md R13 (la valeur de 10 bits/s est contestée dans
la littérature actuelle) et R14 (les observations d’anomalies du CMB
sont testables en principe, mais aucun résultat de 2026 n’est
décisif). |
| 3.4.0 | 1 mai 2026 | §7.4 : prise en compte de l’Unfolding Argument (Doerig et al. [96]) ; citations d’une ligne pour Aaronson [97], Barrett & Mediano [98], Hanson [99]. §6.5 : ancrage par les ondes progressives/stationnaires de Nunez & Srinivasan [101] pour l’asymétrie de prédiction. §8.12 : note de bas de page généalogique sur la lignée intégration/compression chez Friston, Tononi, Sporns & Edelman 1995 [100]. Annexe T-14 ajoutée : Non-invariance de la structure de bande passante sous équivalence fonctionnelle — sortie formelle du dilemme de l’Unfolding. |