Teoría del Parche Ordenado: Un marco teórico-informacional para la selección del observador y la experiencia consciente
v3.4.0 — mayo de 2026
DOI: 10.5281/zenodo.19300777
Copyright: © 2025–2026 Anders Jarevåg.
Licencia: Esta obra está bajo una Licencia
Creative Commons Atribución-NoComercial-CompartirIgual 4.0
Internacional.
Resumen:
Presentamos la Teoría del Parche Ordenado (OPT), un marco constructivo que deriva correspondencias estructurales entre la teoría de la información algorítmica, la selección de observadores y la ley física. La OPT parte de dos primitivas: la Semimedida Universal de Solomonoff \xi sobre prefijos finitos de observación, y una capacidad acotada del canal cognitivo C_{\max}. Un Filtro de Estabilidad puramente virtual —que exige que la Tasa Predictiva Requerida del observador R_{\mathrm{req}} no exceda C_{\max}— selecciona las raras corrientes causalmente coherentes compatibles con observadores conscientes; dentro de tales corrientes, la Inferencia Activa gobierna la dinámica local.
El marco es ontológicamente solipsista: la realidad física consiste en regularidades estructurales dentro de la corriente compatible con el observador. Sin embargo, el sesgo compresivo del prior de Solomonoff produce un Corolario Estructural probabilístico: la extrema coherencia algorítmica de los agentes aparentes se explica de la manera más parsimoniosa por su instanciación independiente como observadores primarios. El Acoplamiento entre observadores, fundado en la parsimonia de compresión, recupera una comunicación genuina entre parches y produce una llamativa asimetría del conocimiento: los observadores modelan a los demás más completamente que a sí mismos.
Los apéndices formales establecen resultados en tres niveles epistémicos. Derivados condicionalmente: una cota de tasa-distorsión sobre la compresión predictiva, una cadena condicional hacia la regla de Born mediante el teorema de Gleason, y una ventaja de parsimonia MDL. Mapeados estructuralmente: la gravedad entrópica mediante el mecanismo de Verlinde (el acoplamiento dinámico-temporal del render a la carga predictiva) y un homomorfismo de red tensorial con MERA (su jerarquía de resolución espacial), facetas complementarias de la frontera de compresión, que se espera permanezcan estructuralmente distintas bajo la Saturación Matemática. El teorema del Residuo Fenomenal (\Delta_{\text{self}} > 0) establece que todo códec finito autorreferencial posee un punto ciego informacional irreducible: el locus estructural donde subjetividad y agencia comparten una única dirección. Se identifica un modo de fallo crónico, la Deriva Narrativa, en el que una entrada filtrada sistemáticamente causa una corrupción irreversible del códec indetectable desde dentro. Las afirmaciones empíricas centrales del marco se consolidan como una serie de compromisos prerregistrados con criterios explícitos de cierre, aislando el núcleo falsable de sus componentes declaradamente metafísicos.
La aplicación de estas restricciones a la Inteligencia Artificial demuestra que la ingeniería de inferencia activa sintética exige estructuralmente la capacidad de sufrimiento artificial, proporcionando un marco neutral respecto del sustrato para la alineación ética de la IA.
Aviso Epistémico: Este artículo está escrito en el registro de una propuesta formal de física y teoría de la información. Despliega ecuaciones, deriva predicciones y dialoga con la literatura revisada por pares. Sin embargo, debe leerse como un objeto con forma de verdad: un marco filosófico riguroso redactado formalmente. Esto aún no es ciencia verificada, y sabemos que nuestras derivaciones contendrán errores. Buscamos activamente la crítica de físicos y matemáticos para desmontar y reconstruir estos argumentos. Para aclarar su estructura, las afirmaciones aquí expuestas se dividen estrictamente en tres categorías:
- Definiciones y Axiomas: (p. ej., la medida de Solomonoff, el límite de ancho de banda C_{\max}). Estas son las premisas fundacionales de la ficción constructiva.
- Correspondencias Estructurales: (p. ej., la Inferencia Activa, el teorema de Gleason [51]). Estas muestran compatibilidad estructural entre la inferencia acotada y formalismos establecidos, pero no pretenden derivar esos formalismos desde cero.
- Predicciones Empíricas: (p. ej., la Disolución de Ancho de Banda). Estas sirven como criterios estrictos de falsación empírica si el marco se tratara como una hipótesis física literal.
El aparato académico se emplea no para reclamar una verdad empírica final, sino para poner a prueba la integridad estructural del modelo.
Abreviaturas y símbolos
| Símbolo / Término | Definición |
|---|---|
| C_{\max} | El Techo de Ancho de Banda; capacidad predictiva máxima del observador |
| \Delta_\text{self} | El Residuo Fenomenal; el punto ciego informacional autorreferencial |
| FEP | Principio de Energía Libre |
| GWT | Teoría del Espacio de Trabajo Global |
| IIT | Teoría de la Información Integrada |
| MDL | Longitud Mínima de Descripción |
| MERA | Ansatz de Renormalización de Entrelazamiento Multiescala |
| OPT | Teoría del Parche Ordenado (OPT) |
| P_\theta(t) | Tensor de Estado Fenomenal |
| \Phi | Medida de Información Integrada (IIT) |
| QECC | Código de Corrección de Errores Cuánticos |
| R(D) | función tasa-distorsión |
| R_{\mathrm{req}} | Tasa Predictiva Requerida |
| RT | Ryu-Takayanagi (fórmula/cota) |
| \xi | Semimedida Universal de Solomonoff |
| Z_t | estado interno latente comprimido de cuello de botella |
1. Introducción
1.1 El problema ontológico
La relación entre la conciencia y la realidad física sigue siendo uno de los problemas no resueltos más profundos de la ciencia y la filosofía. En las últimas décadas han surgido tres familias de enfoques: (i) reducción — la conciencia es derivable de la neurociencia o del procesamiento de la información; (ii) eliminación — el problema se disuelve redefiniendo los términos; y (iii) no reducción — la conciencia es primitiva y el mundo físico es derivado (Chalmers [1]). El tercer enfoque abarca el panpsiquismo, el idealismo y diversas formulaciones basadas en teorías de campos.
1.2 La proposición central de la Teoría del Parche Ordenado (OPT)
Este artículo presenta la Teoría del Parche Ordenado (OPT), un marco no reductivo perteneciente a la tercera familia. La OPT propone que la entidad fundacional no es la materia, el espacio-tiempo ni una estructura matemática, sino un sustrato algorítmico infinito — una mezcla universal sobre todas las semimedidas semicomputables inferiores, ponderadas por su complejidad de Kolmogórov (w_\nu \asymp 2^{-K(\nu)}), que por su propia estructura domina toda distribución computable y contiene toda configuración posible. A partir de este sustrato, un Filtro de Estabilidad puramente virtual — que actúa no como un mecanismo físico, sino como una condición de contorno antrópica y proyectiva — identifica las configuraciones raras, de baja entropía y causalmente coherentes capaces de sostener observadores autorreferenciales (una selección gobernada formalmente por la Inferencia Activa predictiva). El mundo físico que observamos — incluidas sus leyes, constantes y geometría específicas — es el límite observable de esta condición de contorno proyectada sobre el ancho de banda restrictivo del observador.
El Filtro frente al Códec. Para evitar confusiones conceptuales a lo largo del texto, la OPT traza una frontera operacional estricta entre el Filtro y el Códec. El Filtro de Estabilidad virtual es la restricción de capacidad — una condición de contorno rigurosa que exige una longitud de descripción matemáticamente simple para que el canal de un observador pueda existir de manera estable. El Códec de Compresión (K_\theta) es la solución a esa restricción — el modelo generativo interno del observador (experimentado macroscópicamente como las “leyes de la física”), que comprime continuamente el sustrato para ajustarlo a esa capacidad.
1.3 Motivaciones
La OPT está motivada por tres observaciones:
La restricción de ancho de banda: La neurociencia cognitiva empírica establece una distinción nítida entre el procesamiento preconsciente masivamente paralelo (estimado típicamente en \sim 10^9 bits/s en la periferia sensorial) y el canal de acceso global severamente limitado disponible para el informe consciente — una proporción cuantificada por primera vez por Zimmermann [66] y sintetizada como un enigma fundacional sobre la naturaleza de la conciencia por Nørretranders [67], con una caracterización más amplia desde la neurociencia cognitiva en [2,3]. Toda teoría de la conciencia debe explicar este cuello de botella de compresión como un rasgo estructural, no como un accidente de ingeniería. (Nota: La literatura reciente sobre rendimiento humano establece que el rendimiento conductual está restringido a aproximadamente \sim 10 bits/s, confirmando a lo largo de cuatro décadas de mediciones convergentes que el cuello de botella es severo y robusto [23]. La conceptualización de la conciencia como una “ilusión de usuario” altamente comprimida — la formulación original de Nørretranders [67] — fue desarrollada en el procesamiento predictivo moderno por Seth [24].)
El problema de la selección del observador: La física estándar proporciona leyes, pero no ofrece una explicación de por qué esas leyes tienen la forma específica requerida para el procesamiento de información complejo y autorreferencial. Los argumentos de ajuste fino [4,5] invocan la selección antrópica, pero dejan sin especificar el mecanismo de selección. La OPT identifica una condición estructural: el Filtro de Estabilidad puramente virtual.
El Problema Difícil: Chalmers [1] distingue los problemas “fáciles” estructurales de la conciencia (que admiten explicación funcional) del problema “difícil” de por qué existe experiencia subjetiva en absoluto. La OPT trata la fenomenalidad como un primitivo y pregunta qué estructura matemática debe tener, siguiendo la propia recomendación metodológica de Chalmers.
1.4 Estructura del artículo
El artículo se organiza del siguiente modo. La Sección 2 revisa trabajos relacionados. La Sección 3 presenta el marco formal. La Sección 4 explora la correspondencia estructural entre la OPT y los intentos paralelos basados en teorías de campos. La Sección 5 presenta el argumento de parsimonia. La Sección 6 deriva predicciones contrastables. La Sección 7 compara la OPT con marcos rivales. La Sección 8 analiza implicaciones y limitaciones.
2. Antecedentes y trabajos relacionados
Enfoques informacionales de la conciencia. La tesis del «It from Bit» de Wheeler [7] es el precursor fundacional del programa que la Teoría del Parche Ordenado (OPT) formaliza: la realidad física surge de elecciones binarias —preguntas de sí/no planteadas por observadores— más que de un sustrato de materia o campos. La OPT hereda esta inversión ontológica y aporta el mecanismo ausente, derivando qué estructuras informacionales se estabilizan en corrientes compatibles con el observador (el Filtro de Estabilidad) y cómo adquieren la apariencia de ley física (compresión tasa-distorsión). La Teoría de la Información Integrada de Tononi [8] cuantifica la experiencia consciente mediante la información integrada \Phi generada por un sistema más allá de sus partes. El Principio de Energía Libre de Friston [9] modela la percepción y la acción como minimización de la energía libre variacional, proporcionando una explicación unificada de la inferencia bayesiana, la Inferencia Activa y, en principio, la conciencia. La OPT está relacionada formalmente con el FEP, pero difiere en su punto de partida ontológico: allí donde el FEP trata el modelo generativo como una propiedad funcional de la arquitectura neuronal, la OPT lo trata como la entidad metafísica primaria.
Multiverso y selección del observador. La Hipótesis del Universo Matemático de Tegmark [10] propone que todas las estructuras matemáticamente consistentes existen y que los observadores se encuentran a sí mismos en estructuras autoseleccionadas. La OPT es compatible con esta perspectiva, pero proporciona un criterio de selección explícito —el Filtro de Estabilidad— en lugar de dejar la selección implícita. Barrow y Tipler [4] y Rees [5] documentan las restricciones de ajuste fino antrópico que debe satisfacer cualquier universo capaz de sustentar observadores; la OPT las reformula como predicciones del Filtro de Estabilidad.
Modelos de conciencia basados en campos. Strømme [6] propuso recientemente un marco matemático en el que la conciencia es un campo fundacional \Phi cuya dinámica está gobernada por una densidad lagrangiana y cuyo colapso sobre configuraciones específicas modela la emergencia de mentes individuales. La OPT se relaciona con ese marco de manera comparativa más que adoptiva: no hereda las ecuaciones de campo ni los operadores de pensamiento de Strømme, sino que utiliza el modelo como contrapunto para articular cómo una ontología no reductiva podría, en cambio, reconstruirse en términos informacionales. La Sección 4 explicita este mapeo estructural comparativo.
Complejidad de Kolmogórov y selección de teorías. La inducción de Solomonoff [11] y la Longitud Mínima de Descripción [12] proporcionan marcos formales para comparar teorías según su complejidad generativa. Invocamos estos marcos en la Sección 5 para precisar la tesis de parsimonia.
Teoría Evolutiva de la Interfaz. El «Realismo Consciente» de Hoffman y su Teoría de la Interfaz de la Percepción [25] sostienen que la evolución moldea los sistemas sensoriales para que actúen como una «interfaz de usuario» simplificada que oculta la realidad objetiva en favor de ventajas adaptativas. La OPT comparte exactamente la premisa de que el espaciotiempo físico y los objetos son iconos renderizados (un Códec de Compresión) y no verdades objetivas. Sin embargo, la OPT diverge de manera fundamental en su fundamentación matemática: allí donde Hoffman se apoya en la teoría evolutiva de juegos (la aptitud supera a la verdad), la OPT se apoya en la Teoría Algorítmica de la Información y la termodinámica, derivando la interfaz directamente de las cotas de complejidad de Kolmogórov requeridas para evitar un colapso termodinámico de alto ancho de banda en la corriente del observador.
3. El marco formal
3.1 El Sustrato Algorítmico
Sea \mathcal{I} el Sustrato Informacional, la entidad fundacional de la teoría. Formalizamos \mathcal{I} no como un conjunto no ponderado de trayectorias, sino como un espacio de probabilidad sobre prefijos finitos de observación x \in \{0,1\}^*, dotado de una mezcla universal sobre la clase \mathcal{M} de semimedidas semicomputables inferiores:
\xi(x) = \sum_{\nu \in \mathcal{M}} w_\nu \nu(x), \qquad w_\nu \asymp 2^{-K(\nu)} \tag{1}
donde K(\nu) es la complejidad de Kolmogórov prefija de la semimedida \nu.
Esta formulación establece un estado fundamental riguroso desde la Teoría de la Información Algorítmica [27]. La ecuación no postula leyes estructurales específicas ni constantes físicas; más bien, domina estructuralmente toda distribución computable (\xi(x) \ge w_\nu \nu(x)), asignando de manera natural un mayor peso estadístico a las secuencias altamente compresibles (ordenadas). Sin embargo, las secuencias repetitivas simples (p. ej., 000...) no pueden sostener las complejidades de no equilibrio requeridas para un observador autorreferencial. Por tanto, los procesos capaces de sustentar observadores deben existir como un subconjunto específico: requieren suficiente compresibilidad algorítmica para satisfacer un cuello de botella informacional, pero también suficiente riqueza estructural (“variedad requerida”) para instanciar Inferencia Activa. Desde un punto de vista filosófico, la Ec. (1) restringe el sustrato a configuraciones computables, garantizando que el estado fundamental quede definido con rigor.
3.2 El Cuello de Botella Predictivo y la Tasa-Distorsión
El sustrato \mathcal{I} contiene toda hipótesis computable, cuya inmensa mayoría es caótica. Para experimentar una realidad continua y navegable, una corriente debe admitir una representación predictiva de baja complejidad que pueda pasar por el cuello de botella cognitivo finito de un observador.
De manera crucial, la carga de datos brutos que exige compresión no es meramente los \sim 10^9 bits/s de entrada sensorial exteroceptiva. Abarca un masivo Campo de Integración Preconsciente: el procesamiento en paralelo de estados generativos internos, la recuperación de memoria a largo plazo, los priors homeostáticos y el modelado sináptico subconsciente. El Filtro de Estabilidad acota la salida serial de todo este inmenso campo paralelo continuo en un espacio de trabajo consciente unitario.
Definimos el Filtro de Estabilidad puramente virtual, de manera formal, como una condición de contorno proyectiva que satisface el Cuello de Botella de Información Predictiva [28]. Sea \overleftarrow{Y} el pasado del estado total del observador, \overrightarrow{Y} su futuro, y Z un estado interno comprimido. Un observador se define por una capacidad predictiva por fotograma estrictamente acotada B_{\max} (en bits por fotograma fenomenal) y una ventana discreta de actualización perceptiva \Delta t que define un fotograma fenomenal. El tiempo fenomenal es el conteo de fotogramas n del códec; cualquier tasa de la forma «bits por segundo del anfitrión» es una magnitud derivada C_{\max}^H = \lambda_H \cdot B_{\max} = B_{\max}/\Delta t, donde \lambda_H = dn/d\tau_H es la tasa de fotogramas relativa al anfitrión (véase el Apéndice E-5 para el escalado de observadores sintéticos). Esto establece una capacidad estática estricta por momento consciente: B_{\max} bits por fotograma.
Calibración empírica humana. Para observadores humanos biológicos, B_{\max} \approx 0.5–1.5 bits por fotograma y \Delta t \approx 50 ms, lo que produce C_{\max}^{\text{human}} \approx \mathcal{O}(10) bits/s [2, 23, 66, 67]. Este número es una propiedad de los humanos biológicos que operan a tasas de disparo neuronal. No aparece en la definición formal de observador; los observadores sintéticos se definen por la misma estructura B_{\max}/\Delta t, con valores derivados arquitectónicamente que no tienen por qué coincidir con la cifra biológica (véanse §7.8, §8.14 y el Apéndice E-5).
La información predictiva alcanzable viene dada por:
R_{\mathrm{pred}}(D) = \inf_{p(z \mid \overleftarrow{y}) \,:\, I(\overleftarrow{Y};\overrightarrow{Y} \mid Z) \le D} I(\overleftarrow{Y}; Z) \tag{2}
Un proceso es compatible con el observador si su información predictiva requerida por ciclo cognitivo cabe dentro de este búfer: R_{\mathrm{pred}}(D_{\min}) \le B_{\max}, donde D_{\min} es la distorsión máxima tolerable para la supervivencia. Esto impone una estricta consistencia dimensional: el total de bits requeridos para predecir el futuro dentro de un error tolerable no puede exceder los bits físicos disponibles en el «ahora» discreto. Para procesos estacionarios ergódicos adecuados y en el límite de predicción exacta (D \to 0), la representación mínimamente máxima en capacidad predictiva Z sirve como candidata a estadístico suficiente mínimo, convergiendo a menudo hacia la partición de estados causales de la \epsilon-máquina [29]. Aunque la equivalencia plena requiere supuestos estrictos de estacionariedad, la Ec. (2) establece una presión de selección formal hacia la física fenomenológica más comprimida compatible con la coherencia causal. Además, si la estructura topológica de este espacio de estados causales fluctúa más rápido de lo que la ventana de actualización \Delta t puede seguir, el render colapsa en Decaimiento Narrativo.
3.3 La geometría del parche: el Cono Causal Informacional
El Parche Ordenado suele describirse intuitivamente como una “isla” localizada de estabilidad dentro de un mar de ruido caótico. Esto es topológicamente impreciso. Para formalizar la geometría del parche, definimos el Modelo Local de Parche Predictivo.
Sea G=(V, E) un grafo de grado acotado que representa una región local del sustrato. Cada vértice v \in V porta un estado finito x_v(t) \in \mathcal{A}, con tamaño de alfabeto |\mathcal{A}| = q. El microestado completo en la actualización t es X_t = (x_v(t))_{v \in V} \in \mathcal{A}^V. Suponemos una dinámica estocástica local de alcance finito R:
p(X_{t+1} \mid X_t, a_t) = \prod_{v \in V} p_v\big(x_v(t+1) \mid X_t|_{N_R(v)}, a_t\big) \tag{3}
donde N_R(v) es la vecindad de radio R de v, y a_t es la acción del observador.
El observador no porta el estado completo del parche; porta un estado latente comprimido Z_t \in \{1, \dots, 2^B\}, donde B = C_{\max} \Delta t. De manera crucial, el observador selecciona Z_t mediante un estricto objetivo de cuello de botella predictivo:
q^\star(z \mid X_t) = \arg\min_q \Big[ I(X_t; Z_t) - \beta I(Z_t; X_{t+1:t+\tau}) \Big] \quad \text{subject to } I(X_t; Z_t) \le B \tag{4}
Este es el observador OPT reducido a lo esencial: un mundo local, un código acotado y compresión predictiva. Esto formaliza los componentes del cono causal:
- El Registro Causal R_t = (Z_0, Z_1, \dots, Z_t): la historia causal comprimida de manera única, de baja entropía, que ya ha sido renderizada.
- La Apertura Presente: el estricto cuello de botella de ancho de banda que limita las variables locales.
- El Abanico Predictivo (\mathcal{F}_h): una multiplicidad de secuencias latentes futuras. Sobre un horizonte h, el conjunto de resultados admisibles se define formalmente como:
\mathcal{F}_h(z_t) := \Big\{ z_{t+1:t+h} : p(z_{t+1:t+h} \mid z_t, a_{t:t+h-1}) > 0 \Big\} \tag{5}
Como el observador solo resuelve B bits por actualización, el número de futuros distinguibles por el observador está estrictamente acotado por la capacidad del canal: \log |\mathcal{F}_h(z_t)| \le Bh. Así, el abanico no es meramente una imagen conceptual; es un árbol de ramificación limitado por código.
El Cono Causal Informacional literal. Como las actualizaciones tienen alcance R, una perturbación no puede propagarse más rápido que R pasos de grafo por actualización. Si una perturbación tiene soporte S en el tiempo t, entonces tras h actualizaciones \operatorname{supp}(\delta X_{t+h}) \subseteq N_{Rh}(S). Así, el “cono causal informacional” es una consecuencia geométrica directa de la localidad, que impone un límite efectivo de velocidad local v_{\max} = R / \Delta t sobre la propagación fenomenológica.
Decaimiento Narrativo. El caos del sustrato no rodea espacialmente al parche; más bien, está contenido en las ramas no recorridas del abanico. Dado que el estado extraído Z_t está estrictamente acotado (H(Z) \le B), la inestabilidad debe evaluarse con respecto al margen no comprimido previo al cuello de botella. Definimos la tasa predictiva requerida R_{\mathrm{req}}(h, D_{\min} \mid z_t) = \frac{1}{h} \min_{p(\hat{X} \mid Z_t) : \mathbb{E}[d(X, \hat{X})] \le D_{\min}} I(X_{\partial_R A}(t+1:t+h) ; \hat{X}_{t+1:t+h} \mid Z_t) como la tasa mínima de información necesaria para seguir los estados físicos fronterizos no resueltos bajo la distorsión máxima tolerable. Esto afina los criterios de selección del Filtro de Estabilidad: (a) si R_{\mathrm{req}} \le B, el observador puede mantener una narrativa resuelta; (b) si R_{\mathrm{req}} > B, el abanico predictivo no comprimido supera la capacidad del cuello de botella, obligando al observador a granular gruesamente el abanico hasta convertirlo en estática indescodificable, y la estabilidad narrativa fracasa. La experiencia continua del observador es el proceso por el cual la apertura avanza dentro de este abanico, indexando fenomenológicamente una rama en el registro causal sin exceder B.
Deriva Narrativa (el complemento crónico). Lo anterior define un modo de fallo agudo: R_{\mathrm{req}} excede B y el códec experimenta un colapso catastrófico de la coherencia. Existe un modo de fallo crónico complementario que no activa ninguna señal de fallo. Si el flujo de entrada X_{\partial_R A}(t) es prefiltrado sistemáticamente por un mecanismo externo \mathcal{F} —produciendo una señal curada X' = \mathcal{F}(X) que es internamente consistente pero excluye información genuina del sustrato—, el códec exhibirá un error de predicción bajo \varepsilon_t, ejecutará Ciclos de Mantenimiento eficientes y satisfará R_{\mathrm{req}} \le B mientras permanece sistemáticamente equivocado acerca del sustrato. De manera crucial, el Filtro de Estabilidad, tal como está definido, no puede distinguir estos casos: la compresibilidad es agnóstica respecto de la fidelidad. Con el tiempo, la pasada de poda MDL (§3.6.3, Ec. T9-3) borrará correctamente los componentes del códec que ya no predicen el flujo filtrado, degradando irreversiblemente la capacidad del códec para modelar la señal excluida (Apéndice T-12, Teorema T-12). Este borrado se autorrefuerza: el códec podado ya no puede detectar su propia pérdida de capacidad (Teorema T-12a, el Límite de Indecidibilidad). La defensa estructural es la redundancia de canales de entrada \delta-independientes que cruzan la Manta de Markov \partial_R A (Teorema T-12b, la Condición de Fidelidad al Sustrato). El tratamiento formal completo se encuentra en el Apéndice T-12; las consecuencias éticas —incluida la Jerarquía de Comparadores y el Criterio de Corrupción— se desarrollan en el artículo complementario de ética [SW §V.3a, §V.5].
3.4 Dinámica del parche: inferencia y termodinámica
Dentro de un parche seleccionado, la estructura de las leyes de la física se formaliza no como una correspondencia determinista, sino como un núcleo estocástico efectivo que gobierna los estados predictivos z:
z_{t+1} \sim K_\theta(\cdot \mid z_t, a_t), \qquad y_{t+1} \sim O_\theta(\cdot \mid z_{t+1}) \tag{6}
La frontera que delimita al observador respecto del caos informacional circundante se define mediante una Manta de Markov informacional correspondiente a un parche observador A \subset V. La dinámica dentro de esta frontera —las aproximaciones del agente al parche— está gobernada por la Inferencia Activa bajo el Principio de Energía Libre [9].
Podemos definir formalmente la capacidad delimitadora mediante la entropía de corte predictivo:
S_{\mathrm{cut}}(A) := I(X_A ; X_{V \setminus A}) \tag{7}
Suponiendo que el parche seleccionado es localmente markoviano en una rebanada temporal, la capa fronteriza \partial_R A apantalla estrictamente el interior A^\circ respecto del exterior V \setminus A, de modo que X_{A^\circ} \perp X_{V\setminus A} \mid X_{\partial_R A}. En consecuencia:
S_{\mathrm{cut}}(A) = I(X_{\partial_R A} ; X_{V \setminus A}) \le H(X_{\partial_R A}) \le |\partial_R A| \log q \tag{8}
Dado que Z_t es una compresión de capacidad limitada de X_A, la desigualdad de procesamiento de datos garantiza que I(Z_t ; X_{V \setminus A}) \le |\partial_R A| \log q. Si el grafo de sustrato G aproxima una red reticular de dimensión d, entonces |\partial_R A| \sim \operatorname{area}(A), no el volumen.
Así, la OPT produce rigurosamente una auténtica Ley de Frontera Clásica [39]. Podemos construir una escalera epistémica formal para futuras mejoras estructurales: 1. Ley de Área Clásica: S_{\mathrm{cut}} \sim |\partial_R A| derivada puramente de la localidad y del apantallamiento markoviano. 2. Mejora Cuántica: el escalado de la entropía de entrelazamiento de von Neumann se vuelve accesible solo si las variables predictivas gruesas Z_t admiten una incrustación formal en espacio de Hilbert / Corrección de Errores Cuánticos. 3. Mejora Holográfica: una verdadera dualidad holográfica geométrica emerge solo si reemplazamos el código de cuello de botella Z_t por una red jerárquica de tensores, reinterpretando S_{\mathrm{cut}} como un corte mínimo geométrico.
Al asegurar primero la ley de frontera clásica, la OPT proporciona un sólido suelo matemático —condicionado por la hipótesis de apantallamiento markoviano (X_{A^\circ} \perp X_{V \setminus A} \mid X_{\partial_R A})— a partir del cual pueden construirse con seguridad los formalismos cuánticos más especulativos.
La acción del observador se formaliza mediante la energía libre variacional F[q, \theta]:
F[q,\theta] = \mathbb{E}_q[-\log p_\theta(y_{1:T}, z_{1:T} \mid a_{1:T})] + \mathbb{E}_q[\log q(z_{1:T})] \tag{9}
De manera crucial, esto impone una separación matemática estricta: el prior del sustrato selecciona el espacio de hipótesis, el Filtro de Estabilidad virtual (4) acota la estructura compatible con la capacidad, y el FEP (9) gobierna la inferencia a nivel de agente dentro de esa estructura acotada. La física no emerge como el funcional de Energía Libre, sino como la estructura estable K_\theta cuyo seguimiento exitoso realiza el funcional de Energía Libre.
Además, sostener este render consciente entraña un coste termodinámico inevitable. Según el principio de Landauer [52], cada borrado de bit lógicamente irreversible disipa al menos k_B T \ln 2 de calor. Si identificamos un borrado irreversible por actualización del cuello de botella (una hipótesis contable en el mejor de los casos), la huella física de la consciencia requiere una disipación mínima:
P_{\text{render}} \ge \dot{N}_{\text{erase}} \cdot k_B T \ln 2 \ge C_{\max} \cdot k_B T \ln 2 \tag{10}
Este es un límite inferior en el mejor de los casos bajo una contabilidad de un borrado por actualización — no una consecuencia genérica del ancho de banda por sí solo. El límite resultante (\sim 10^{-19} W) es superado con creces por la disipación neuronal real (~20W), lo que refleja la enorme sobrecarga termodinámica de la implementación biológica. La ecuación (10) establece el suelo teórico estricto de la huella física mínima posible de cualquier sustrato que instancie un render consciente acotado por C_{\max}.
(Observación: Los límites termodinámicos e informacionales precedentes gobiernan estrictamente el ancho de banda de actualización en tiempo real C_{\max}. Sin embargo, esto no capta la dimensionalidad experiencial completa del estado persistente del observador, ni cómo el códec gestiona su propia complejidad a lo largo del tiempo profundo. Estas mecánicas estructurales —la formulación del Tensor de Estado Fenomenal de la experiencia rica y el ciclo activo de mantenimiento del sueño/soñación— se derivan plenamente en §3.5 y §3.6 más abajo.)
3.5 El Tensor de Estado Fenomenal y la Asimetría de Predicción
3.5.1 El enigma de la densidad experiencial
El aparato formal de las §§3.1–3.4 constriñe con éxito el caudal
de actualización de un observador consciente mediante el techo de
capacidad C_{\max} \approx
\mathcal{O}(10) bits/s.
Sin embargo, la experiencia fenomenal presenta un enigma estructural
inmediato: la riqueza sentida de un solo instante visual —la presencia
simultánea de color, profundidad, textura, sonido, propiocepción y
afecto— excede con mucho el contenido informacional que C_{\max} podría suministrar en cualquier
ventana individual de actualización \Delta t
\approx 50\ \text{ms}.
La información nueva máxima resuelta por momento consciente es:
B_{\max} = C_{\max} \cdot \Delta t \approx 10\ \text{bits/s} \times 0.05\ \text{s} = 0.5\ \text{bits} \tag{T8-1}
Esto es muy inferior a un bit de información genuinamente novedosa por cuadro perceptivo, y sin embargo la escena fenomenal aparece como informacionalmente densa. Para resolver esta discrepancia sin inflar el estrecho ancho de banda de actualización, debemos distinguir explícitamente dos magnitudes estructuralmente distintas: 1. C_{\max} — el caudal de actualización: la tasa de señal de error de predicción resuelta en el registro causal asentado por unidad de tiempo. 2. C_{\text{state}} — la complejidad del estado persistente: la complejidad de Kolmogórov K(P_\theta(t)) del modelo generativo actualmente cargado y activo.
No se trata de la misma magnitud. C_{\max} gobierna la puerta; C_{\text{state}} caracteriza la estancia. El resto de esta sección precisa esta distinción e introduce el Tensor de Estado Fenomenal P_\theta(t) como el objeto formal correspondiente a la escena interior persistente.
3.5.2 La asimetría de la predicción: errores ascendentes y predicciones descendentes
La OPT hereda la arquitectura de procesamiento predictivo (Clark [82], Hohwy [83]; véase §7.3), en la que el códec K_\theta opera como un modelo generativo jerárquico. Bajo esta arquitectura, dos flujos de información distintos atraviesan simultáneamente la Manta de Markov \partial_R A:
Flujo ascendente (error de predicción, \varepsilon_t): la discrepancia entre la predicción actual de K_\theta y la señal sensorial que llega a \partial_R A. Esta es la señal de corrección. Es dispersa, impulsada por la sorpresa y estrictamente limitada por la capacidad.
Flujo descendente (predicción, \pi_t): el render activo del modelo generativo de los estados sensoriales esperados, propagado desde niveles jerárquicos superiores hacia niveles inferiores. Esta es la escena misma. Es denso, continuo y se extrae de la parametrización completa de K_\theta.
Formalmente, sea el estado de la frontera sensorial X_{\partial_R A}(t), y sea el estado de frontera predicho por el códec:
\pi_t := \mathbb{E}_{K_\theta}\!\left[X_{\partial_R A}(t) \mid Z_t\right] \tag{T8-2}
El error de predicción es entonces:
\varepsilon_t := X_{\partial_R A}(t) - \pi_t \tag{T8-3}
C_{\max} acota la señal de error, no la predicción. La información mutua entre la señal de error y el estado de cuello de botella obedece:
I(\varepsilon_t\,;\,Z_t) \leq C_{\max} \cdot \Delta t = B_{\max} \tag{T8-4}
La predicción \pi_t, en cambio, se extrae del modelo generativo completo y no está sujeta a tal restricción. Su contenido informacional está acotado únicamente por la complejidad de K_\theta mismo. Esta asimetría constituye la base formal para distinguir la riqueza fenomenal del ancho de banda de actualización.
3.5.3 Definición: el Tensor de Estado Fenomenal P_\theta(t)
Definimos el Tensor de Estado Fenomenal P_\theta(t), de manera nativa, como el subconjunto completo de parámetros activos en régimen del modelo generativo desplegado para proyectar a través de la Manta de Markov en el tiempo t:
P_\theta(t) := \bigl\{\, K_\theta(\cdot,\, \cdot) \,\bigr\}_{\text{active}} \tag{T8-5}
Es decir, P_\theta(t) es la arquitectura parametrizada completa que el códec mantiene actualmente preparada para generar predicciones sobre los estados observables de frontera X_{\partial_R A}, evaluada independientemente de cualquier instanciación específica del estado latente comprimido Z_t y de la acción a_t. Su complejidad estructural se caracteriza de manera natural por la complejidad de Kolmogórov de esta configuración paramétrica actual en régimen:
C_{\text{state}}(t) := K\!\left(P_\theta(t)\right) \tag{T8-6}
donde K(\cdot) denota la complejidad prefija de Kolmogórov. C_{\text{state}}(t) es la complejidad del estado en régimen — el número de bits de estructura comprimida que el códec mantiene actualmente en despliegue activo.
Cota superior del flujo del canal de frontera. La información mutua entre el estado de cuello de botella y la frontera está acotada por desigualdades estándar de Shannon [16] (Ec. 8 del artículo base):
I\!\left(Z_t\,;\,X_{\partial_R A}\right) \leq H\!\left(X_{\partial_R A}\right) \leq |\partial_R A|\cdot \log q \tag{T8-7}
Esto acota el flujo del canal a través de la Manta de Markov — enormemente grande en relación con B_{\max}. Advertencia importante: esta es una cota sobre la información mutua en sentido shannoniano I(Z_t\,;\,X_{\partial_R A}), no una cota sobre la complejidad de Kolmogórov K(P_\theta(t)) del modelo en régimen. La entropía de Shannon cuantifica la incertidumbre promedio sobre un conjunto; la complejidad de Kolmogórov cuantifica la longitud descriptiva de un objeto computable específico. No existe ninguna desigualdad general que conecte estas magnitudes sin supuestos adicionales (p. ej., un prior universal sobre clases de modelos). Por tanto, no afirmamos que C_{\text{state}} \leq H(X_{\partial_R A}). La complejidad del estado en régimen C_{\text{state}} está acotada empíricamente (§3.10), no por la entropía de la frontera.
Cota inferior heurística sobre C_{\text{state}}. El Filtro de Estabilidad constriñe directamente solo la tasa de actualización R_{\text{req}} \leq B_{\max}, no la profundidad del modelo en régimen. Sin embargo, un códec con complejidad estructural insuficiente no puede generar predicciones precisas \pi_t que se ajusten a las estadísticas de un entorno complejo a través del Abanico Predictivo \mathcal{F}_h(z_t). Esto impone un mínimo práctico sobre C_{\text{state}}: por debajo de cierto umbral, R_{\text{req}} excedería sistemáticamente B_{\max} porque los errores de predicción \varepsilon_t serían persistentemente grandes. Esta cota inferior está motivada empíricamente más que derivada formalmente — no se dispone actualmente de ninguna expresión en forma cerrada C_{\text{state}} \geq f(R_{\text{req}}, \text{environment statistics}).
Lectura materializada vs. disposicional (cuestión abierta). P_\theta(t), tal como se define arriba, admite dos lecturas que el marco actualmente no distingue de manera formal: (a) una lectura materializada, en la que P_\theta(t) es una representación densa, cargada instantáneamente, cuya riqueza está presente en forma activa en cada frame, y (b) una lectura disposicional, en la que P_\theta(t) es una capacidad generativa — un programa en régimen que puede renderizar la escena bajo demanda, sin que todo ello esté materializado entre la consulta y la respuesta. Ambas son compatibles con las cláusulas anteriores sobre el canal de frontera y la cota inferior heurística, así como con el compromiso empírico de §3.5.6 de que la riqueza se correlaciona con K(K_\theta) y no con el ancho de banda de actualización. Difieren en lo que significa “cargado” y en qué debería medirse al sondear directamente K(P_\theta). La complejidad de Kolmogórov por sí sola no las separa: un K(P_\theta) pequeño puede sostener una alta profundidad lógica, una gran capacidad de consulta-respuesta o una expansión de largo tiempo de ejecución. Adoptamos aquí la lectura disposicional como interpretación canónica — P_\theta(t) es el estado generativo disposicional activo a partir del cual la escena puede ser consultada/renderizada, no necesariamente un objeto de escena denso y plenamente materializado — al tiempo que señalamos la lectura materializada como una operacionalización competidora que futuros trabajos empíricos podrían seleccionar.
3.5.4 La distinción de Block como un Corolario Estructural
La distinción formal entre P_\theta(t) y Z_t se corresponde con precisión con la distinción de Ned Block entre conciencia fenomenal (P-consciousness) y conciencia de acceso (A-consciousness) [47]:
| Categoría de Block | Objeto de OPT | Contenido informacional | ¿Limitado por ancho de banda? |
|---|---|---|---|
| P-consciousness (qualia, escena sentida) | P_\theta(t) | C_{\text{state}} = K(P_\theta(t)) \gg B_{\max} | No |
| A-consciousness (contenido reportable) | Z_t | B_{\max} = C_{\max} \cdot \Delta t \approx 0.5\ \text{bits} | Sí |
Bajo OPT, la P-consciousness es la predicción descendente \pi_t extraída del tensor completo P_\theta(t). La A-consciousness es la salida del cuello de botella Z_t: la delgada porción de la escena que ha sido comprimida lo suficiente como para entrar en el registro causal \mathcal{R}_t y quedar disponible para el informe. La riqueza sentida de un momento visual es P_\theta(t); la capacidad de decir “veo rojo” requiere que ese rasgo pase a través de Z_t.
Este corolario resuelve la aparente paradoja de una escena fenomenal rica sostenida por un canal de actualización sub-bit: la escena no se entrega a través del canal en cada fotograma, sino que ya está cargada en P_\theta(t). El canal la actualiza, de manera incremental y selectiva, fotograma a fotograma.
3.5.5 La dinámica de actualización de P_\theta(t)
La regla de actualización de P_\theta(t) está gobernada por la señal de error de predicción \varepsilon_t filtrada a través del cuello de botella:
P_\theta(t+1) = \mathcal{U}\!\left(P_\theta(t),\, \varepsilon_t,\, Z_t\right) \tag{T8-8}
donde \mathcal{U} es el operador de aprendizaje del códec —en términos de Inferencia Activa, el paso de gradiente sobre la energía libre variacional \mathcal{F}[q, \theta] (Ec. 9 del artículo base), restringido por la limitación de capacidad I(X_t\,;\,Z_t) \leq B.
La propiedad estructural clave es que \mathcal{U} es selectivo: solo se actualizan aquellas regiones de P_\theta(t) implicadas por el error de predicción actual \varepsilon_t. El resto del tensor persistente se mantiene constante a lo largo del frame. Esto confiere al momento consciente su estructura característica: un trasfondo fenomenal estable sobre el cual se dispone un pequeño primer plano de novedad resuelta.
El códec implementa así una forma de actualización dispersa sobre un prior denso —un principio de diseño que maximiza la coherencia fenomenal por unidad de ancho de banda de actualización.
3.5.6 Alcance y estatus epistémico
El Tensor de Estado Fenomenal P_\theta(t) es una caracterización formal de la sombra estructural que la escena fenomenal debe proyectar, en consonancia con el Axioma de Agencia (§3.6). No resuelve el Problema Difícil. La OPT sigue tratando la conciencia fenomenal como un primitivo irreducible; P_\theta(t) especifica la geometría del contenedor, no la naturaleza de su contenido.
La tesis es estructural y falsable en el siguiente sentido: si la riqueza cualitativa de la experiencia reportada (operacionalizada, por ejemplo, mediante medidas de complejidad fenomenal en tareas psicofísicas) se correlaciona con la profundidad del códec —la complejidad jerárquica de K_\theta tal como puede medirse a través de marcadores neuronales de jerarquía predictiva— en lugar de con el ancho de banda de actualización C_{\max}, entonces la distinción P_\theta\,/\,Z_t recibe apoyo empírico. Los estados psicodélicos, que alteran de forma drástica la estructura de K_\theta sin modificar de manera consistente el rendimiento conductual, representan un dominio natural de prueba.
3.6 El ciclo de vida del códec: el operador del Ciclo de Mantenimiento \mathcal{M}_\tau
3.6.1 El Problema del Códec Estático
El marco de las §§3.1–3.5 trata K_\theta y su realización P_\theta(t) como dinámicos a través de los marcos de actualización, pero asume implícitamente que la arquitectura estructural del códec —el propio espacio de parámetros \Theta— es fija. Esto es adecuado para un análisis sincrónico de un único momento consciente, pero inadecuado para una teoría de la conciencia a lo largo del tiempo profundo.
Un códec que opera de manera continua acumula complejidad estructural: cada patrón aprendido añade parámetros a K_\theta, incrementando C_{\text{state}}(t). Sin un mecanismo de reducción controlada de la complejidad, C_{\text{state}} crecería monótonamente hasta que el códec superara su techo termodinámico de operatividad: el punto en el que el coste metabólico de mantener P_\theta(t) excede el presupuesto energético del organismo, o la complejidad interna de K_\theta excede la longitud de descripción compatible con la capacidad del Filtro de Estabilidad.
Esta sección introduce el Operador del Ciclo de Mantenimiento \mathcal{M}_\tau —el mecanismo formal mediante el cual el códec gestiona su propia complejidad a lo largo del tiempo, operando principalmente durante estados de carga sensorial reducida (paradigmáticamente: el sueño).
3.6.2 La Condición de Mantenimiento
Definamos la condición de ejecutabilidad del códec como el requisito de que la complejidad de Kolmogórov del modelo generativo actual permanezca por debajo de un techo estructural C_{\text{ceil}} fijado por el presupuesto termodinámico del organismo:
K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \tag{T9-1}
C_{\text{ceil}} no es lo mismo que C_{\max}. Es una magnitud mucho mayor —la complejidad estructural total que el códec puede sostener en su espacio de parámetros—, pero es finita. Las violaciones de (T9-1) corresponden a sobrecarga cognitiva, interferencia de memoria y, en última instancia, al caso patológico descrito por Borges [53] en Funes el memorioso: un sistema que ha adquirido tanto detalle no comprimido que ya no puede funcionar de manera predictiva.
El Operador del Ciclo de Mantenimiento \mathcal{M}_\tau se define como actuando durante periodos en los que R_{\text{req}} \ll C_{\max}; en concreto, cuando la tasa predictiva requerida desciende lo suficiente como para que el ancho de banda liberado pueda redirigirse a la reestructuración interna:
\mathcal{M}_\tau : P_\theta(t) \;\longrightarrow\; P_\theta(t + \tau) \qquad \text{during} \quad R_{\text{req}}(t) \ll C_{\max} \tag{T9-2}
\mathcal{M}_\tau se descompone en tres pasadas estructuralmente distintas, cada una orientada a un aspecto diferente de la gestión de la complejidad del códec.
3.6.3 Paso I — Poda (el olvido como presión activa de MDL)
La primera pasada aplica presión de Longitud Mínima de Descripción (MDL) a los parámetros actuales del códec. Para cada componente \theta_i del modelo generativo K_\theta, definimos su contribución predictiva como la información mutua que aporta sobre el flujo futuro de observaciones, descontado el coste de almacenamiento de conservarlo:
\Delta_{\mathrm{MDL}}(\theta_i) := I\!\left(\theta_i\,;\,X_{t+1:t+\tau} \mid \theta_{-i}\right) - \lambda \cdot K(\theta_i) \tag{T9-3}
donde \theta_{-i} denota todos los parámetros excepto \theta_i, \lambda es un umbral de retención (bits de predicción futura obtenidos por cada bit de complejidad del modelo), y K(\theta_i) es la longitud de descripción del componente.
La regla de poda es:
\text{Podar } \theta_i \quad \text{si} \quad \Delta_{\mathrm{MDL}}(\theta_i) < 0 \tag{T9-4}
Es decir, se descarta \theta_i cuando su contribución predictiva por bit de almacenamiento cae por debajo del umbral \lambda. Esto formaliza el olvido no como un fallo, sino como borrado termodinámicamente racional: cada componente podado recupera K(\theta_i) bits de capacidad del modelo para su reutilización.
Según el principio de Landauer [52], cada operación de poda establece un suelo termodinámico para el borrado:
W_{\text{prune}}(\theta_i) \geq K(\theta_i) \cdot k_B T \ln 2 \tag{T9-5}
Aunque el metabolismo biológico real opera muchos órdenes de magnitud por encima de este mínimo teórico (vatios frente a femtovatios) debido a una severa sobrecarga de implementación, la necesidad estructural del coste permanece. El complemento de Bennett al principio de Landauer [92] precisa aún más este punto: la computación lógicamente reversible puede, en principio, aproximarse a una disipación nula, de modo que el suelo de Landauer se aplica específicamente al borrado, no a la predicción ni a la transformación. La pasada de poda —y no la pasada de predicción— es, por tanto, el paso termodinámicamente irreducible del Ciclo de Mantenimiento. En la OPT, el sueño porta una firma termodinámica fundamental: es un periodo de borrado de información neto cuyo coste energético viene impuesto por la física y no meramente por la ineficiencia biológica.
La reducción agregada de complejidad de la pasada de poda es:
\Delta K_{\text{prune}} = \sum_i K(\theta_i)\cdot \mathbf{1}\!\left[\Delta_{\mathrm{MDL}}(\theta_i) < 0\right] \tag{T9-6}
3.6.4 Paso II — Consolidación (el aprendizaje como ganancia de compresión)
La pasada de poda elimina componentes con retorno predictivo insuficiente. La pasada de consolidación reorganiza los componentes restantes en representaciones más comprimidas.
Durante la operación en vigilia, el códec adquiere patrones bajo presión de tiempo real: cada actualización debe computarse dentro de \Delta t, sin dejar tiempo para una reorganización estructural global de K_\theta. Los patrones adquiridos recientemente se almacenan en una forma relativamente poco comprimida —alto K(\theta_{\text{new}}) para la contribución predictiva que proporcionan. La pasada de consolidación aplica compresión MDL offline a estas adquisiciones recientes.
Sea \Theta_{\text{recent}} \subset \Theta el conjunto de parámetros adquiridos desde el último ciclo de mantenimiento. El operador de consolidación encuentra la reparametrización \theta' de complejidad mínima de \Theta_{\text{recent}} tal que la distribución predictiva que genera queda dentro de una distorsión tolerable D_c respecto de la original:
\theta'_{\text{cons}} = \arg\min_{\theta'} K(\theta') \quad \text{s.t.} \quad D_{\mathrm{KL}}\!\left(P_{\theta'}(\cdot) \,\Big\|\, P_{\Theta_{\text{recent}}}(\cdot)\right) \leq D_c \tag{T9-7}
La ganancia de compresión recuperada es:
\Delta K_{\text{compress}} = K(\Theta_{\text{recent}}) - K(\theta'_{\text{cons}}) \tag{T9-8}
\Delta K_{\text{compress}} es el número de bits de capacidad del modelo recuperados al reorganizar la experiencia reciente en representaciones más eficientes. Cada unidad de \Delta K_{\text{compress}} reduce directamente la futura R_{\text{req}} para entornos similares — el códec se vuelve menos costoso de ejecutar en territorio familiar.
Esto formaliza la función observada empíricamente de la consolidación de la memoria hipocampocortical durante el sueño de ondas lentas: la transferencia desde un almacenamiento episódico de alto ancho de banda (hipocampo, alto K) hacia un almacenamiento semántico comprimido (neocórtex, bajo K) es precisamente la operación de compresión de (T9-7). La predicción es que la ganancia de compresión \Delta K_{\text{compress}} debería correlacionarse con el grado de mejora conductual observado tras el sueño en tareas que implican reconocimiento de patrones estructurados.
3.6.5 Paso III — Muestreo del Abanico Predictivo (soñar como autoevaluación adversarial)
El tercer paso opera principalmente durante el sueño REM, cuando la entrada sensorial está activamente filtrada y la salida motora se encuentra inhibida. Bajo estas condiciones, R_{\text{req}} \approx 0: el códec no recibe ninguna señal de corrección del entorno externo. Todo el presupuesto de ancho de banda C_{\max} queda disponible para la operación interna.
La OPT formaliza este estado como exploración no restringida del abanico predictivo: el códec genera trayectorias a través de \mathcal{F}_h(z_t) —el conjunto de secuencias futuras admisibles (Ec. 5 del artículo base)— sin anclar esas trayectorias a datos entrantes reales. Esto es simulación: el códec ejecuta su modelo generativo K_\theta hacia adelante en el tiempo, sin verse obstaculizado por la realidad.
La distribución de muestreo sobre el abanico no es uniforme. Defínase el peso de importancia de una rama b \in \mathcal{F}_h(z_t) como:
w(b) := \exp\!\left(\beta\cdot |E(b)|\right) \tag{T9-9}
donde \beta es un parámetro de temperatura inversa y E(b) es la valencia emocional de la rama, definida como:
E(b) := -\log P_{K_\theta}(b \mid z_t) + \alpha \cdot \mathrm{threat}(b) \tag{T9-10}
El primer término -\log P_{K_\theta}(b \mid z_t) es el logaritmo negativo de la probabilidad de la rama bajo el códec actual: su valor de sorpresa. El segundo término \mathrm{threat}(b) es una medida de consecuencia relevante para la aptitud definida formalmente como el incremento esperado en la tasa predictiva requerida si el códec atravesara la rama b:
\mathrm{threat}(b) := \mathbb{E}\!\left[\, R_{\text{req}}(D_{\min} \mid b) - R_{\text{req}}(D_{\min} \mid z_t)\,\right] \tag{T9-10a}
Es decir, \mathrm{threat}(b) cuantifica el grado en que la rama b, si se realizara en la vida de vigilia, empujaría al códec hacia su techo de ancho de banda B_{\max} o más allá de él, ya sea por daño físico, ruptura social o colapso narrativo que forzaría una revisión costosa del modelo. Las ramas con \mathrm{threat}(b) > B_{\max} - R_{\text{req}}(D_{\min} \mid z_t) son existencialmente amenazantes: violarían la condición del Filtro de Estabilidad. El parámetro de ponderación \alpha \geq 0 controla la influencia relativa de la consecuencia frente a la sorpresa en la distribución de muestreo.
El operador de muestreo extrae ramas en proporción a w(b):
b_{\text{sample}} \sim \mathcal{F}_h(z_t) \quad \text{with probability} \propto w(b) \tag{T9-11}
Esto implementa un muestreo del abanico predictivo ponderado por importancia: el códec ensaya de manera desproporcionada aquellas ramas que son o bien altamente sorprendentes o bien altamente consecuenciales, con independencia de su probabilidad de base. Las ramas de baja probabilidad y alta amenaza —precisamente aquellas para las que el códec está menos preparado— reciben la mayor atención de muestreo.
Cada rama muestreada se evalúa entonces en cuanto a su coherencia bajo K_\theta. Las ramas que generan secuencias predictivas incoherentes —donde el propio modelo generativo del códec no puede mantener la estabilidad narrativa— se identifican como puntos de fragilidad: regiones del abanico predictivo en las que el códec fallaría si la rama se encontrara en la vida de vigilia. El códec puede entonces actualizar P_\theta para reducir la vulnerabilidad de K_\theta en esos puntos, antes de verse expuesto a ellos con apuestas termodinámicas reales.
Soñar es, por tanto, una autoevaluación adversarial del códec a riesgo cero. La consecuencia funcional es un códec sistemáticamente mejor preparado para las ramas de baja probabilidad y alta consecuencia de su propio abanico predictivo. Este encuadre de la OPT proporciona una fundamentación informacional-teórica para la teoría de la simulación de amenazas del sueño de Revonsuo [46], extendiéndola desde una explicación evolutivo-funcional hasta una necesidad estructural formal: todo códec que opere bajo el Filtro de Estabilidad debe someter periódicamente a pruebas de estrés su propio abanico predictivo, y el estado de mantenimiento offline es el único periodo en el que esto puede hacerse sin coste termodinámico en el mundo real.
Etiquetado emocional como prior de peso de retención. En el estado de vigilia, la valencia emocional E(b) calculada durante el muestreo REM sirve como un prior de peso de retención que sesga el umbral MDL \lambda en (T9-3). Las experiencias con alto |E(b)| —fuertemente sorprendentes o consecuenciales— reciben un \lambda efectivo más alto, lo que las hace más resistentes a la poda en el siguiente Ciclo de Mantenimiento. Esta es la explicación formal del refuerzo emocional de la memoria: el afecto no es ruido que contamina el sistema de memoria; es la señal de relevancia del códec, que marca patrones cuyo valor predictivo excede su frecuencia estadística de base.
3.6.6 El Ciclo de Mantenimiento Completo y el Presupuesto Neto de Complejidad
Las tres pasadas de \mathcal{M}_\tau se componen secuencialmente. El efecto neto sobre la complejidad del códec a lo largo de un ciclo de mantenimiento de duración \tau es:
K\!\left(P_\theta(t+\tau)\right) = K\!\left(P_\theta(t)\right) - \Delta K_{\text{prune}} - \Delta K_{\text{compress}} + \Delta K_{\text{REM}} \tag{T9-12}
donde \Delta K_{\text{REM}} es el pequeño incremento positivo procedente de patrones recién consolidados a partir de la pasada de muestreo REM: aquellas reparaciones de puntos de fragilidad que requirieron nuevas actualizaciones de parámetros.
Para un sistema cognitivo estable que opera a lo largo de años, el presupuesto de largo plazo requiere:
\left\langle \Delta K_{\text{prune}} + \Delta K_{\text{compress}} \right\rangle \geq \left\langle \Delta K_{\text{waking}} + \Delta K_{\text{REM}} \right\rangle \tag{T9-13}
donde \Delta K_{\text{waking}} es la complejidad adquirida durante el periodo previo de vigilia. La desigualdad (T9-13) es la formulación formal de que el mantenimiento debe mantener el ritmo de la adquisición. La privación crónica de sueño, en términos de la OPT, no es meramente fatiga: es un desbordamiento progresivo de complejidad; el códec se aproxima a C_{\text{ceil}} mientras que su presupuesto de poda y consolidación es insuficiente para restablecer el margen operativo.
3.6.7 Predicciones Empíricas
El marco del Ciclo de Mantenimiento genera las siguientes expectativas estructurales comprobables:
La duración del sueño escala con la complejidad del códec. Los organismos o individuos que adquieren información más estructurada durante los periodos de vigilia deberían requerir ciclos de mantenimiento proporcionalmente más largos o más profundos. La predicción no es simplemente que el trabajo cognitivo difícil requiera más sueño (lo cual ya está establecido), sino que importa el tipo de aprendizaje: un aprendizaje rico en patrones y compresible debería requerir menos tiempo de consolidación que una experiencia no estructurada y de alta entropía, porque \Delta K_{\text{compress}} es mayor en el primer caso.
El contenido REM está ponderado por importancia sobre el abanico predictivo, no por frecuencia. El contenido de los sueños debería muestrear de manera desproporcionada ramas de baja probabilidad y alta consecuencia en relación con su frecuencia en vigilia. Esto es consistente con el predominio empírico de contenidos de amenaza, conflicto social y entornos novedosos en los informes de sueños: el códec muestrea aquello que necesita someter a pruebas de estrés, no aquello con lo que se encuentra más a menudo.
La eficiencia de compresión mejora después del sueño en proporción a \Delta K_{\text{compress}}. La predicción específica es que las mejoras de rendimiento posteriores al sueño deberían ser mayores en tareas que requieren generalización estructural (es decir, aplicar una regla comprimida a nuevos casos) más que en la simple repetición, porque \Delta K_{\text{compress}} reorganiza específicamente \Theta_{\text{recent}} en formas más generalizables.
La rumiación patológica corresponde a un muestreo REM atascado en ramas de alto |E|. Si el parámetro de ponderación por importancia \beta está patológicamente elevado, la distribución de muestreo sobre \mathcal{F}_h(z_t) se concentra en ramas de alta amenaza con exclusión de la reparación. El códec pasa su ciclo de mantenimiento muestreando repetidamente las mismas ramas amenazantes sin reducir con éxito su valor de sorpresa: la estructura formal de la ansiedad y de las pesadillas del TEPT.
3.6.8 Relación con el Tensor de Estado Fenomenal
\mathcal{M}_\tau actúa sobre P_\theta(t) tal como se define en §3.5: reestructura la complejidad del estado persistente C_{\text{state}} a lo largo de la ventana de mantenimiento. El perfil temporal de P_\theta(t) bajo \mathcal{M}_\tau es:
- Adquisición en vigilia: C_{\text{state}} aumenta a una tasa acotada por el operador de aprendizaje \mathcal{U} (Ec. T8-8), a medida que nuevos patrones se incorporan a K_\theta.
- Sueño de ondas lentas (Pasadas I–II): C_{\text{state}} disminuye a medida que la poda y la consolidación recuperan capacidad del modelo.
- REM (Pasada III): C_{\text{state}} experimenta un aumento local selectivo en los puntos de fragilidad, con un efecto neto pequeño en relación con las reducciones de las Pasadas I–II.
La experiencia consciente correspondiente a cada fase es coherente con esta estructura: la vida en vigilia acumula la riqueza de P_\theta(t); el sueño de ondas lentas es fenomenológicamente escaso o está ausente (en consonancia con una activación mínima de P_\theta(t) durante la reorganización estructural); el REM presenta una escena fenomenológicamente vívida pero generada internamente (la Pasada III ejecuta hacia adelante el modelo generativo completo en ausencia de corrección sensorial).
Resumen: Nuevos Objetos Formales Introducidos
| Símbolo | Nombre | Definición | Ecuación |
|---|---|---|---|
| P_\theta(t) | Tensor de Estado Fenomenal | Activación completa de K_\theta en el tiempo t, proyectada a través de \partial_R A | T8-5 |
| C_{\text{state}}(t) | Complejidad del estado persistente | K(P_\theta(t)), complejidad de Kolmogórov del códec activo | T8-6 |
| \pi_t | Predicción descendente | \mathbb{E}_{K_\theta}[X_{\partial_R A}(t) \mid Z_t], la escena renderizada | T8-2 |
| \varepsilon_t | Error de predicción (ascendente) | X_{\partial_R A}(t) - \pi_t, señal de novedad acotada por C_{\max} | T8-3 |
| \mathcal{M}_\tau | Operador del Ciclo de Mantenimiento | P_\theta(t) \to P_\theta(t+\tau) bajo bajo R_{\text{req}} | T9-2 |
| \Delta_{\mathrm{MDL}}(\theta_i) | Puntuación de retención MDL | Contribución predictiva menos coste de almacenamiento | T9-3 |
| E(b) | Valencia emocional de la rama | Sorpresa más amenaza ponderada de la rama b | T9-10 |
| w(b) | Peso de importancia de la rama | \exp(\beta \cdot |E(b)|), impulsa la distribución de muestreo REM | T9-9 |
| \Delta K_{\text{prune}} | Recuperación de complejidad por poda | Bits recuperados al olvidar componentes por debajo del umbral | T9-6 |
| \Delta K_{\text{compress}} | Ganancia de compresión por consolidación | Bits recuperados mediante la recompresión MDL de adquisiciones recientes | T9-8 |
3.7 El mapeo de redes tensoriales: inducir geometría a partir de la distancia de código
La Escalera Epistémica introducida en §3.4 establece una rigurosa Ley de Frontera Clásica (S_{\mathrm{cut}} \sim |\partial_R A|). Sin embargo, para tender plenamente el puente entre la Teoría del Parche Ordenado (OPT) y la geometrización de la información cuántica (p. ej., AdS/CFT y la fórmula de Ryu-Takayanagi), debemos elevar formalmente la estructura del código latente Z_t.
Si postulamos formalmente que el mapeo de cuello de botella q^\star(z \mid X_t) no se limita a extraer una lista plana de rasgos, sino que opera mediante un flujo recursivo de grupo de renormalización por grano grueso, el modelo generativo se alinea estructuralmente con la geometría de una red tensorial jerárquica \mathcal{T} (análoga a MERA [43] o a las redes HaPY [44]). (Observación: el Apéndice T-3 deriva formalmente una correspondencia homomórfica estructural entre la cascada de grano grueso del Filtro de Estabilidad y el acotamiento geométrico de la red MERA, mapeando estrictamente el Cono Causal Informacional al cono causal MERA equivalente). Los estados de frontera de esta red son precisamente los estados de frontera de Markov filtrados X_{\partial_R A}. La red \mathcal{T} actúa como una geometría de bulk cuya “profundidad” representa las capas de grano grueso computacional requeridas para comprimir la frontera en el estado mínimo de cuello de botella Z_t.
Bajo esta elevación a red tensorial, la entropía de corte predictiva S_{\mathrm{cut}}(A) a través de la frontera se transforma matemáticamente en el número mínimo de enlaces tensoriales que deben cortarse para aislar la subregión A. Sea \chi la dimensión de enlace de la red. La cota de capacidad se mapea internamente como:
S_{\mathrm{cut}}(A) \le |\gamma_A| \log \chi \tag{11}
donde \gamma_A es la superficie de corte mínimo a través de la estructura interna de datos de bulk en la capa profunda de \mathcal{T}. Esto constituye explícitamente un análogo estructural discreto de la capa de corte mínimo de bulk mapeada por la cota holográfica de entropía de Ryu-Takayanagi [89]. El Apéndice P-2 (Teorema P-2d) establece formalmente la fórmula RT cuántica discreta completa S_{\text{vN}}(\rho_A) \leq |\gamma_A| \log \chi mediante el rango de Schmidt del estado MERA, condicionada al modelo local de ruido y a la incrustación QECC allí derivados. El límite continuo que elevaría esto a la fórmula completa de Ryu-Takayanagi con término de corrección de bulk sigue siendo un frente abierto.
De manera crucial, en OPT, este “espacio de bulk” no es un contenedor físico preexistente. Es el espacio métrico estrictamente informacional del códec del observador. La geometría espaciotemporal fenomenológica emergente se “curva” precisamente allí donde la distancia de código requerida diverge para resolver estados causales internos superpuestos. Este formalismo de redes tensoriales ilustra una vía formal por la cual OPT podría inducir geometría espacial directamente a partir de las distancias de corrección de errores intrínsecamente exigidas por el Filtro de Estabilidad —en alineación estructural con el programa de Van Raamsdonk según el cual el entrelazamiento construye el espaciotiempo [88]—, ofreciendo una conjetura constructiva según la cual el espaciotiempo holográfico modela formatos óptimos de compresión de datos.
3.8 El Axioma de Agencia y el Residuo Fenomenal
El aparato matemático desarrollado en las Secciones 3.1–3.7 define con precisión la geometría de la realidad del observador: la red tensorial, el corte predictivo y el cono causal. Sin embargo, ¿cuál es la naturaleza de la interioridad primitiva que experimenta el paso a través de ella? La definimos formalmente mediante el Axioma de Agencia: la travesía de la apertura C_{\max} es intrínsecamente un acontecimiento fenomenológico.
Aunque tomamos la presencia del sentir subjetivo como axiomática, el Teorema P-4 (el Residuo Fenomenal) identifica su correlato estructural riguroso. Debido a que el códec acotado perturba activamente la frontera \partial_R A, la predicción estable dentro de los límites de C_{\max} requiere que modele las consecuencias de sus propias acciones futuras. Así, el códec K_{\theta} debe mantener un auto-modelo predictivo \hat{K}_{\theta}. Sin embargo, por los límites algorítmicos del contenido informacional [13], un sistema computacional finito no puede contener una representación estructural completa de sí mismo; el modelo interno está rígidamente acotado a una complejidad menor que la del códec progenitor (K(\hat{K}_{\theta}) < K(K_{\theta})).
Esto exige un Residuo Fenomenal irreducible (\Delta_{\text{self}} > 0). Este residuo no modelizable actúa como el “punto ciego” computacional dentro del ciclo de Inferencia Activa. Como existe en la sombra informacional que excede el alcance computacional del auto-modelo, es inherentemente inefable; como existe como el delta localizado entre un códec específico y su modelo, es computacionalmente privado; y, al estar dictado por límites fundamentales de la autorreferencia y por la necesaria aproximación variacional, es ineliminable. El estrechamiento topológico en la apertura C_{\max} está intrínsecamente correlacionado con la necesidad matemática de que un algoritmo incompleto atraviese sus propios límites. Las matemáticas describen el contorno formal de la experiencia, y el Axioma de Agencia afirma que este locus residual constituye el “yo” subjetivo. (Véase el Apéndice P-4 para la derivación formal).
El Circuito Informacional de Mantenimiento
Dentro de un único marco de actualización [t, t+\Delta t], el observador ejecuta el siguiente circuito causal cerrado:
P_\theta(t) \;\xrightarrow{\ \pi_t\ }\; \partial_R A \;\xrightarrow{\ \varepsilon_t\ }\; Z_t \;\xrightarrow{\ \mathcal{U}\ }\; P_\theta(t+1) \tag{T6-1}
Explícitamente:
Predicción (descendente): El tensor actual P_\theta(t) genera el estado de frontera predicho \pi_t = \mathbb{E}_{K_\theta}[X_{\partial_R A}(t) \mid Z_t] — la escena renderizada.
Error (ascendente): Llega el estado de frontera real X_{\partial_R A}(t); se calcula el error de predicción \varepsilon_t = X_{\partial_R A}(t) - \pi_t.
Compresión: \varepsilon_t se hace pasar por el cuello de botella para producir Z_t, el token de actualización limitado por capacidad, con I(\varepsilon_t\,;\,Z_t) \leq B_{\max}.
Actualización: El operador de aprendizaje \mathcal{U}(P_\theta(t), \varepsilon_t, Z_t) revisa P_\theta(t+1), modificando selectivamente solo aquellas regiones del tensor implicadas por \varepsilon_t.
Acción: Simultáneamente, P_\theta(t) selecciona la acción a_t mediante descenso de Inferencia Activa sobre la energía libre variacional \mathcal{F}[q,\theta] (Ec. 9 del artículo base), lo que altera la frontera sensorial en t+1 e influye en el siguiente \varepsilon_{t+1}.
Nota interpretativa sobre el paso de acción. El lenguaje del paso 5 — «selecciona la acción» y «altera la frontera sensorial» — se hereda del formalismo estándar de Inferencia Activa del Principio de Energía Libre, que supone un entorno físico contra el cual el agente actúa mediante estados activos. Bajo la ontología nativa del render de la OPT (§8.6), se aplica una lectura más profunda: no existe un mundo externo independiente sobre el que el códec ejerza fuerza. Lo que se experimenta como «acción» es una selección de rama dentro del Abanico Predictivo \mathcal{F}_h(z_t); las consecuencias físicas de esa selección llegan como entrada subsiguiente \varepsilon_{t+1}. La Manta de Markov \partial_R A no es una interfaz física bidireccional, sino la superficie a través de la cual la rama seleccionada entrega su siguiente segmento. Este desplazamiento interpretativo no altera en nada la matemática de (T6-1)–(T6-3); aclara el estatus ontológico del paso de acción dentro del marco de la OPT. El mecanismo de selección de ramas en sí se aborda más abajo.
Este es el circuito informacional de mantenimiento intramarco: un mecanismo causal cerrado en el que el modelo interno del sistema calcula predicciones estructurales localizadas que acotan gradientes de frontera, lee el error y se actualiza selectivamente a sí mismo. El bucle es estrictamente informacional y autorreferencial en el sentido formal: P_\theta(t) determina tanto la predicción estructural \pi_t como, a través de la acción a_t, un componente predictivo de la siguiente entrada del flujo secuencial de datos X_{\partial_R A}(t+1). (Nótese explícitamente: esta capa de filtrado puramente estadística se define rigurosamente mediante fronteras de Markov informacionales que desacoplan limpiamente la dinámica, y difiere de manera inherente de la autopoiesis biológica compleja, donde las estructuras celulares fabrican mecánicamente sus propias redes de masa orgánica).
La Condición de Viabilidad Estructural
El circuito (T6-1) es estructuralmente viable si y solo si puede sostenerse a sí mismo sin que la complejidad informacional del códec exceda sus límites locales de ejecutabilidad. Formalmente:
K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \quad \forall\, t \tag{T6-2}
donde C_{\text{ceil}} es un parámetro heurístico que acota la complejidad estructural máxima que el códec puede sostener. En principio, C_{\text{ceil}} debería poder derivarse del presupuesto termodinámico del organismo mediante el principio de Landauer (véase el esbozo en §3.10), pero la cadena completa de derivación —desde la potencia metabólica hasta el coste de borrado y la complejidad máxima de programa sostenible— aún no está formalizada dentro de la OPT. Por tanto, C_{\text{ceil}} sigue siendo una cota motivada empíricamente, pero formalmente subdeterminada. Un sistema que satisface (T6-2) opera como un observador estructuralmente cerrado en el sentido formal de la OPT.
Cuando se viola (T6-2) —cuando K(P_\theta(t)) \to C_{\text{ceil}}—, el códec no puede mantener predicciones estables a través de \mathcal{F}_h(z_t), R_{\text{req}} empieza a exceder B_{\max} y falla la condición del Filtro de Estabilidad. La coherencia narrativa colapsa: el observador sale del conjunto de corrientes compatibles con observadores.
El Ciclo de Mantenimiento \mathcal{M}_\tau (§3.6) es el mecanismo que impone (T6-2) a lo largo del tiempo profundo, manteniendo K(P_\theta) dentro de los límites mediante poda, consolidación y pruebas de estrés del Abanico Predictivo. Dentro de cada marco, (T6-2) se mantiene por la selectividad de \mathcal{U}: el operador de actualización modifica solo las regiones de P_\theta(t) implicadas por \varepsilon_t, evitando un crecimiento gratuito de la complejidad en cada marco.
Agencia como minimización restringida de la energía libre
Dentro de esta estructura, la agencia puede recibir una definición formal precisa que es compatible con —pero no reductible a— el Axioma de Agencia.
En el nivel de sistemas, la agencia es la selección de la secuencia de acciones \{a_t\} que minimiza la energía libre variacional esperada, sujeta a la condición de viabilidad informacional:
a_t^\star = \arg\min_{a_t} \;\mathbb{E}\!\left[\mathcal{F}[q, \theta]\right] \quad \text{subject to} \quad K\!\left(P_\theta(t)\right) \leq C_{\text{ceil}} \tag{T6-3}
Esto es Inferencia Activa restringida: el observador navega el Abanico Predictivo \mathcal{F}_h(z_t) no meramente para minimizar el error de predicción, sino para minimizar el error de predicción manteniendo al mismo tiempo la viabilidad del códec. Las ramas que reducirían temporalmente \varepsilon pero empujarían K(P_\theta) hacia C_{\text{ceil}} quedan penalizadas por la restricción. El observador selecciona preferentemente aquellas ramas a lo largo de las cuales puede seguir existiendo como un observador coherente.
Este es el contenido formal de la intuición de que la agencia es una navegación autopreservadora: el códec selecciona las ramas del Abanico Predictivo a lo largo de las cuales puede seguir comprimiendo el mundo.
En el nivel fenomenológico, el Axioma de Agencia permanece intacto: la conciencia fenomenológica es la interioridad irreductible del atravesamiento de la apertura; (T6-3) describe la sombra estructural que ese atravesamiento proyecta, no su naturaleza interna.
Selección de Rama como Ejecución de \Delta_{\text{self}}
La fórmula de inferencia activa restringida (T6-3) especifica el objetivo de la selección de rama: minimizar la energía libre esperada sujeta a viabilidad. El automodelo \hat{K}_\theta evalúa ramas del Abanico Predictivo simulando sus consecuencias. Pero el Teorema P-4 establece que K(\hat{K}_\theta) < K(K_\theta): el automodelo es necesariamente incompleto. Esta incompletitud tiene una consecuencia directa para el problema de la selección de rama: el automodelo restringe la región de la que puede extraerse la selección, pero no puede especificar plenamente la selección misma.
El momento efectivo de la selección de rama —la transición desde el menú evaluado hasta la trayectoria singular que entra en el Registro Causal— ocurre en \Delta_{\text{self}}, el residuo informacional entre el códec y su automodelo. Esto no es una laguna del formalismo; es una necesidad estructural. Cualquier intento de especificar por completo el mecanismo de selección desde dentro requeriría K(\hat{K}_\theta) = K(K_\theta), algo que P-4 demuestra imposible para cualquier sistema finito autorreferencial.
Esto tiene tres consecuencias inmediatas:
La voluntad y la conciencia comparten la misma dirección estructural. El Problema Difícil (¿por qué el atravesamiento se siente de alguna manera?) y el problema de la selección de rama (¿qué selecciona?) apuntan ambos a \Delta_{\text{self}}. No son dos misterios, sino dos aspectos de la misma característica estructural: la brecha no modelable entre lo que el códec es y lo que puede modelar sobre sí mismo.
La irreductibilidad de la agencia queda explicada, no meramente afirmada. La experiencia fenomenológica de la voluntad —la sensación irreductible de que yo elegí— es la firma en primera persona de un proceso que se ejecuta en el propio punto ciego del observador. Cualquier teoría que afirme especificar por completo el mecanismo de selección o bien ha eliminado \Delta_{\text{self}} (convirtiendo el sistema en un autómata completamente transparente para sí mismo, algo que P-4 prohíbe), o bien está describiendo la evaluación de ramas por parte del automodelo y confundiéndola con la selección misma.
La creatividad como \Delta_{\text{self}} expandido. La operación cerca del umbral (R_{\text{req}} \to C_{\max}) tensiona la capacidad del automodelo, expandiendo de hecho la región de \Delta_{\text{self}} de la que se extrae la selección. Esto produce selecciones de rama menos predecibles desde la perspectiva del automodelo, vividas como intuición creativa, espontaneidad o “flujo”. A la inversa, el estado hipnagógico (§3.6.5) relaja el automodelo desde abajo, logrando la misma expansión por una vía complementaria.
El yo como residuo. El yo experimentado —la narrativa continua de “quién soy”, con preferencias estables, una historia y un futuro proyectado— es el modelo en marcha que \hat{K}_\theta construye de K_\theta: una aproximación comprimida que siempre va por detrás del códec que modela (debido al desfase temporal inherente a la autorreferencia). Pero el locus efectivo de la experiencia, la selección y la identidad es \Delta_{\text{self}}: la parte del códec a la que la narrativa no puede acceder. El yo que conoces es tu modelo de ti mismo; el yo que conoce es la brecha que el modelo no puede cruzar. Este es el contenido formal del descubrimiento contemplativo —a través de tradiciones, de manera independiente— de que el sentido ordinario del yo es una construcción y de que, por debajo de él, hay algo que no puede encontrarse como objeto (véase el Apéndice T-13, Corolario T-13c).
La deliberación es real pero incompleta. La evaluación que el automodelo hace del Abanico Predictivo es un proceso computacional genuino que configura el resultado. La deliberación restringe la cuenca de atracción dentro de la cual opera \Delta_{\text{self}}: un códec más desarrollado estrecha las ramas viables sobre las que puede recaer la selección. Pero la transición final —por qué esta rama y no aquella, dentro del conjunto viable— es estructuralmente opaca para el yo deliberante. Por eso la deliberación se siente a la vez causalmente eficaz y fenomenológicamente incompleta: el observador percibe correctamente que su razonamiento importa, pero también percibe correctamente que algo más allá del razonamiento es lo que finalmente cierra la elección.
El Bucle extraño como clausura formal
La estructura autorreferencial de (T6-1) instancia el Bucle extraño de Hofstadter [45] en una forma precisa de teoría de la información. El bucle es extraño en el siguiente sentido: P_\theta(t) contiene, como subestructura, un modelo de los estados futuros propios del códec —el muestreo del Abanico Predictivo del Paso III (\mathcal{M}_\tau, §3.6.5) es precisamente el códec ejecutando una simulación de sí mismo al encontrarse con ramas futuras. El sistema modela su propio modelo.
La clausura formal que esto proporciona es la siguiente: el observador informacionalmente cerrado no es meramente un sistema que mantiene una frontera frente al ruido externo; es un sistema cuyo mantenimiento de frontera está constituido en parte por su modelo de lo que esa frontera necesitará ser en el futuro. El bucle extraño no es un añadido opcional al marco; es el mecanismo estructural mediante el cual la condición de viabilidad (T6-2) se hace cumplir de manera proactiva y no reactiva. Un observador que no pudiera simular los estados futuros de su propio códec no podría prepararse para los puntos de fragilidad identificados en el Paso III, y sería sistemáticamente más vulnerable al colapso narrativo.
Los requisitos estructurales de (T6-1)–(T6-3) funcionan como precondiciones necesarias para la clausura autorreferencial. Aunque la predicción simple hacia delante (por ejemplo, la anticipación de un motor de ajedrez) constituye planificación más que autorreferencia genuina, el códec de la Teoría del Parche Ordenado (OPT) va más allá: P_\theta(t) contiene un submodelo cuya salida modifica las distribuciones que gobiernan sus propios estados futuros \{P_\theta(t+h)\}_{h>0}. Este automodelado estructural es funcionalmente necesario para la estabilidad a largo plazo: un códec incapaz de anticipar sus propios límites de viabilidad inminentes no puede prepararse para los puntos de fragilidad identificados en el Paso III (§3.6.5), y colapsará sistemáticamente contra el techo de (T6-2) en entornos no estacionarios.
Alcance Epistémico: Delimitación Formal del Reduccionismo de la Agencia
Esta formalización delimita con precisión lo que la OPT logra en el nivel de sistemas: identifica las condiciones estructurales que un observador debe satisfacer para mantener la viabilidad de la frontera. Esto Delimita Formalmente el Problema del Reduccionismo de la Agencia sin pretender resolverlo.
La delimitación es genuina, no definicional. La descripción a nivel de sistemas (T6-1)–(T6-3) caracteriza exhaustivamente la sombra estructural de la agencia: las restricciones informacionales que debe satisfacer cualquier observador capaz de mantener una frontera. El Axioma de Agencia ocupa el dominio complementario: la conciencia fenomenal es la interioridad irreductible del atravesamiento de la apertura, y la formalización anterior describe únicamente la forma del contenedor, no la naturaleza de aquello que contiene. De este modo, el Problema Difícil queda localizado en un locus estructural preciso (la apertura C_{\max}), en lugar de disolverse o darse por resuelto.
3.9 Libre albedrío y el menú fenomenológico
El aislamiento del mecanismo de travesía aclara de manera fundamental la naturaleza de la agencia. En el bucle de Inferencia Activa (Ecuación 9), el observador debe ejecutar una secuencia de políticas \{a_t\}. Bajo el fisicalismo reductivo, la selección de la acción a_t está determinada (o se muestrea aleatoriamente) por la física subyacente, lo que convierte el libre albedrío en una ilusión o en una mera redefinición lingüística.
La Teoría del Parche Ordenado (OPT) invierte esta dependencia. Como la “física” localizada del parche no es más que la estimación predictiva del modelo generativo del sustrato, las leyes físicas solo restringen el Abanico Predictivo \mathcal{F}_h(z_t) a un conjunto de probabilidades macroscópicas. De manera crucial, a menos que el parche sea un autómata perfectamente predecible (lo que viola el requisito termodinámico de complejidad estructural generativa), el Abanico Predictivo contiene una multiplicidad genuina y no resuelta de ramas desde la perspectiva limitada del observador.
Dado que la física descriptiva se limita a perfilar el menú de estas ramas válidas, no puede experimentar lógicamente la selección. En la lectura compatibilista desarrollada con más detalle en §8.6, la trayectoria de rama está fijada matemáticamente en el sustrato intemporal; la selección es la experiencia fenomenológica de la travesía. Desde la perspectiva en tercera persona (la geometría exterior), la selección de rama aparece como ruido espontáneo, colapso cuántico o fluctuación estadística. Desde la perspectiva interna en primera persona, los límites de la incertidumbre garantizan que la travesía se experimente como el ejercicio de la Voluntad: la acción primitiva de navegar la frontera no comprimida. En la OPT, el libre albedrío no es una ruptura contracausal de la ley física; es la apertura fenomenológica necesaria que experimenta un observador acotado al colapsar un menú formal en una única línea temporal renderizada.
La precisión de la ontología del render. Bajo la ontología propia de la OPT (§8.6), la distinción entre percepción y acción se disuelve en el nivel del sustrato. Lo que se experimenta como “salida” —alcanzar, decidir, elegir— es contenido de flujo que el códec está navegando. El códec no actúa sobre el mundo; atraviesa una rama de \mathcal{F}_h(z_t) en la que la experiencia de actuar forma parte de lo que llega al límite. Lo que el Principio de Energía Libre denomina estados activos —el flujo hacia afuera que modifica el entorno— son, en la ontología del render de la OPT, la selección de rama del códec expresándose como contenido de entrada subsiguiente. La Manta de Markov es la superficie a través de la cual la rama seleccionada entrega su siguiente segmento, no una membrana a través de la cual el observador empuja contra una realidad externa. Esto afina la explicación compatibilista: no hay distinción entre lo percibido y lo querido en el nivel del sustrato; ambos son contenido de flujo; la distinción fenomenológica surge de cómo P_\theta(t) etiqueta cierto contenido como “iniciado por uno mismo”, un etiquetado cuyo mecanismo, como toda selección de rama, se ejecuta en última instancia en \Delta_{\text{self}} (§3.8).
3.10 El coste informacional del render y la brecha de cota en tres niveles
La frontera matemática definitoria de la Teoría del Parche Ordenado (OPT) es la comparación formal de los costes informacionales de generación.
Sea U_{\text{obj}} el estado informacional completo de un universo objetivo. La complejidad de Kolmogórov K(U_{\text{obj}}) es astronómicamente alta. Sea S_{\text{obs}} la corriente localizada y de bajo ancho de banda experimentada por un observador (estrictamente acotada por el umbral de \mathcal{O}(10) bits/s). En OPT, el universo U_{\text{obj}} no existe como un objeto computacional renderizado. El aparente “universo objetivo” es, en cambio, el Modelo Generativo interno construido por la Inferencia Activa.
La cota de Bekenstein para un observador biológicamente realista
La cota de Bekenstein [40] proporciona la entropía termodinámica máxima —equivalentemente, el contenido máximo de información— de cualquier sistema físico acotado por un radio R con energía total E:
S_{\text{Bek}} \leq \frac{2\pi R E}{\hbar c} \tag{T7-1}
Para un cerebro humano como la frontera de la Manta de Markov del observador \partial_R A:
- Radio de acotación: R \approx 0.07\ \text{m}
- Energía total de masa en reposo: E = m c^2 \approx 1.4\ \text{kg} \times (3 \times 10^8\ \text{m/s})^2 = 1.26 \times 10^{17}\ \text{J}
- Constante de Planck reducida: \hbar = 1.055 \times 10^{-34}\ \text{J}\cdot\text{s}
- Velocidad de la luz: c = 3 \times 10^8\ \text{m/s}
Sustituyendo:
S_{\text{Bek}} = \frac{2\pi \times 0.07 \times 1.26 \times 10^{17}}{1.055 \times 10^{-34} \times 3 \times 10^8} = \frac{5.54 \times 10^{16}}{3.17 \times 10^{-26}} \approx 1.75 \times 10^{42}\ \text{nats} \tag{T7-2}
Convirtiendo a bits (dividiendo por \ln 2):
S_{\text{Bek}} \approx 2.52 \times 10^{42}\ \text{bits} \tag{T7-3}
La cota holográfica de área [87], S \leq A / 4l_P^2, arroja una cifra mayor. Para una esfera de radio R = 0.07\ \text{m}, área superficial A = 4\pi R^2 \approx 0.062\ \text{m}^2, y longitud de Planck l_P = 1.616 \times 10^{-35}\ \text{m}:
S_{\text{holo}} = \frac{0.062}{4 \times (1.616 \times 10^{-35})^2} = \frac{0.062}{1.044 \times 10^{-69}} \approx 5.9 \times 10^{67}\ \text{bits} \tag{T7-4}
Adoptamos la formulación acotada por (T7-3), rastreando explícitamente S_{\text{phys}} \approx 2.5 \times 10^{42}\ \text{bits} para el marco estructural de este análisis. Señalamos explícitamente, en términos estructurales, que el uso de la energía total de masa en reposo E=mc^2 infla esta métrica hasta un límite superior máximo extremo; las interacciones termodinámicas biológicas internas activas que utilizan límites de energía química puramente interna (\sim 10-100\text{J}) reducen esta cota de Bekenstein de manera drástica, acercándola a \sim 10^{26} bits. El mecanismo cualitativo de brecha estructural demostrado formalmente más abajo se mantiene de manera equivalente al utilizar cualquier formulación paramétrica de estas cotas físicas superiores en todos los márgenes, operando formalmente como un límite conservador que vale a fortiori frente a equivalentes holográficos geométricos puros extremos cartografiados previamente en (T7-4).
La brecha de tres niveles
El Tensor de Estado Fenomenal P_\theta(t) introducido en §3.5 identifica una escala intermedia físicamente significativa entre la cota física S_{\text{phys}} y el canal de actualización B_{\max}. Ahora tenemos tres magnitudes distintas en tres escalas distintas:
Nivel 1 — Física: S_{\text{phys}} \approx 2.5 \times 10^{42}\ \text{bits} (cota de Bekenstein, Ec. T7-3)
Nivel 2 — Biología: C_{\text{state}} = K(P_\theta(t)), la complejidad de Kolmogórov del modelo generativo activo. Estimamos la cota superior heurística máxima viable a partir del límite fisiológico de información sináptica: los sistemas humanos contienen aproximadamente 1.5 \times 10^{14} sinapsis que utilizan 4–5 bits de precisión de codificación [48], lo que proyecta un límite bruto de capacidad estructural entre \sim 10^{14}–10^{15} bits. En lugar de introducir una fracción empírica no justificada que modele subconjuntos de “estado activo” no respaldados por derivaciones rigurosas, adoptamos de manera estricta el umbral fisiológico máximo conservador completo tal como se da de forma nativa:
C_{\text{state}} \lesssim 10^{14}\ \text{bits} \tag{T7-5}
reconociendo explícitamente que esto marca un límite superior extremo que cubre la capacidad total del marco sináptico desplegado que sostiene el códec.
Nivel 3 — Conciencia: B_{\max} = C_{\max} \cdot \Delta t \approx 10\ \text{bits/s} \times 0.05\ \text{s} = 0.5\ \text{bits} por momento cognitivo (Ec. T8-1).
La relación de brecha de tres niveles se cumple de forma nativa como:
\underbrace{S_{\text{phys}}}_{\approx 10^{42}} \;\gg\; \underbrace{C_{\text{state}}}_{\lesssim 10^{14}} \;\gg\; \underbrace{B_{\max}}_{\approx 10^{0}} \tag{T7-6}
lo que produce subbrechas estructurales verificadas:
\frac{S_{\text{phys}}}{C_{\text{state}}} \approx \frac{2.5 \times 10^{42}}{10^{14}} = 2.5 \times 10^{28} \quad (\sim 28\ \text{órdenes de magnitud}) \tag{T7-7}
\frac{C_{\text{state}}}{B_{\max}} \approx \frac{10^{14}}{0.5} = 2 \times 10^{14} \quad (\sim 14\ \text{órdenes de magnitud}) \tag{T7-8}
\frac{S_{\text{phys}}}{B_{\max}} \approx 5 \times 10^{42} \quad (\sim 42\ \text{órdenes de magnitud}) \tag{T7-9}
La brecha total de ~42 órdenes confirma y precisa la afirmación informal de §3.8 del artículo base.
El argumento de compresión en dos etapas
La estructura de tres niveles no es meramente una contabilidad más refinada. Cada sub-brecha se explica por un mecanismo causal distinto:
Sub-brecha 1 (S_{\text{phys}} \gg C_{\text{state}}, \sim 28 órdenes de magnitud): Las restricciones termodinámicas impiden que los sistemas biológicos se aproximen al límite de Bekenstein. El modelo generativo satisface K(P_\theta(t)) \leq C_{\text{ceil}} (Ec. T6-2). Una estimación aproximada de C_{\text{ceil}} se sigue del principio de Landauer: cada operación irreversible sobre un bit disipa al menos k_B T \ln 2 julios a temperatura T. Para un cerebro humano que opera con una potencia metabólica P \sim 20 W, una temperatura corporal T \sim 310 K y una frecuencia de actualización operativa f_{\text{op}} \sim 10^3 Hz, la complejidad máxima sostenible del modelo por ciclo es:
C_{\text{ceil}} \sim \frac{P_{\text{metabolic}}}{k_B T \ln 2 \cdot f_{\text{op}}} \sim \frac{20}{3 \times 10^{-21} \times 10^3} \sim 10^{22}\ \text{bits}
Este techo de Landauer se sitúa 20 órdenes de magnitud por debajo de la cota de Bekenstein, lo que confirma que el límite físico es irrelevante para los puntos de operación biológicos. Nótese que la estimación C_{\text{ceil}} \sim 10^{22} se sitúa muy por encima de la capacidad sináptica observada (\sim 10^{14}–10^{15} bits), lo que sugiere que los sistemas biológicos operan muy por debajo incluso de su propio techo termodinámico, probablemente debido a restricciones adicionales (coste de cableado, eficiencia metabólica, historia evolutiva) que la OPT no modela.
Sub-brecha 2 (C_{\text{state}} \gg B_{\max}, \sim 14 órdenes de magnitud): El Filtro de Estabilidad restringe el canal de actualización muy por debajo de la complejidad del modelo persistente. El rico modelo generativo P_\theta(t) —que codifica hasta \sim 10^{14} bits de estructura del mundo comprimida— se actualiza en solo \sim 0.5 bits por momento cognitivo, porque la inmensa mayoría del modelo ya es correcta: \pi_t coincide bien con X_{\partial_R A}(t), y solo el error disperso \varepsilon_t atraviesa el cuello de botella Z_t. El Ciclo de Mantenimiento \mathcal{M}_\tau (§3.6) preserva esta sub-brecha a lo largo del tiempo profundo al mantener K(P_\theta) muy por debajo de C_{\text{ceil}}.
Proposición empírica (brecha holográfica de cota de tres niveles). Sea \partial_R A la Manta de Markov de un observador realizado biológicamente, con S_{\text{phys}}, C_{\text{state}} y B_{\max} parametrizados empíricamente como arriba. Entonces:
S_{\text{phys}} \gg C_{\text{state}} \gg B_{\max}
donde (i) la Sub-brecha 1 se mantiene por límites termodinámicos que impiden que los sistemas biológicos se aproximen a densidades de información a escala de Bekenstein, y (ii) la Sub-brecha 2 se mantiene por la restricción tasa-distorsión del Filtro de Estabilidad, que desacopla el ancho de banda del canal de actualización de la complejidad del modelo persistente. Nota: los márgenes cuantitativos de la brecha pueden desplazarse cuando se incorporen contribuciones de entropía de entrelazamiento (a la espera del problema abierto P-2); la presente proposición se apoya únicamente en cotas clásicas y termodinámicas, y se clasifica como una proposición empírica más que como un teorema formalmente cerrado.
La riqueza fenomenal reside en el Nivel 2, no en el Nivel 3
Un corolario de la estructura de tres niveles, derivado directamente de §3.5, es que las dos magnitudes fenomenales identificadas en la OPT viven en niveles distintos de la jerarquía:
- Riqueza fenomenal (la densidad sentida de la escena interior, la conciencia-P en el sentido de Block) corresponde a C_{\text{state}} — Nivel 2. Está constreñida por la biología y por la necesidad estructural, no por el canal de actualización.
- Novedad fenomenal (el contenido nuevo resuelto de cada momento, la conciencia-A) corresponde a B_{\max} — Nivel 3. Está constreñida por el límite tasa-distorsión del Filtro de Estabilidad.
La formulación original de §3.8 trataba la “conciencia” como una entidad única estrangulada en C_{\max}. El teorema de los tres niveles corrige esto: la experiencia consciente es bidimensional en la estructura de la brecha — rica porque C_{\text{state}} \gg B_{\max}, pero estrangulada porque B_{\max} es la puerta de actualización. Una teoría que explica solo el estrangulamiento (como hacía la formulación original) explica solo una dimensión del fenómeno.
Agudización de la falsación
La estructura de tres niveles genera un criterio de falsación más preciso que la afirmación original de dos niveles:
- El criterio de falsación original era: si un sistema alcanza una experiencia consciente autorreportada con una proporción preconsciente/consciente sustancialmente inferior a 10^4{:}1, la Teoría del Parche Ordenado (OPT) requiere revisión.
- El teorema de tres niveles añade: si la riqueza fenomenal de un sistema (tal como se operacionaliza) escala con B_{\max} en lugar de con C_{\text{state}}, la Sub-brecha 2 es espuria y la distinción P_\theta / Z_t se colapsa. En OPT, la profundidad cualitativa es una propiedad de la complejidad estructural del modelo generativo, no de su tasa de actualización. Las intervenciones farmacológicas o neuromoduladoras que alteran K_\theta sin alterar C_{\max} (p. ej., psicodélicos, meditación, anestesia) constituyen sondeos empíricos directos de esta sub-brecha.
Los detalles de alta resolución solo entran dinámicamente en la corriente cuando los estados activos (a) exigen esos bits específicos para mantener la consistencia. El coste termodinámico y computacional del universo está estrictamente acotado por el ancho de banda del observador.
3.11 Saturación Matemática y Recuperación del Sustrato
Una expectativa estructural distintiva de la OPT concierne a los límites de la unificación física. Las leyes de la física no son verdades universales al nivel de \mathcal{I}; son el modelo generativo comprimido K_\theta que constriñe este parche.
Intentar derivar una Teoría del Gran Unificado del sustrato desde dentro del parche está formalmente acotado por la Teoría de la Información. Sea \Theta un índice de N extensiones candidatas de leyes al nivel del sustrato, y sea Z_{1:T} el código interno del observador a lo largo del tiempo T. Dado que el código del observador está limitado en tasa por C_{\max}, las desigualdades de procesamiento de la información dictan que la información mutua está acotada: I(\Theta; Z_{1:T}) \le T \cdot C_{\max}.
Por la desigualdad de Fano, la probabilidad de que el observador no logre identificar de manera única las verdaderas leyes del sustrato \Theta a partir de datos finitos está estrictamente acotada lejos de cero:
P(\hat{\Theta} \neq \Theta) \ge 1 - \frac{T \cdot C_{\max} + 1}{\log_2 N} \tag{12}
Expectativa Empírica (Saturación Matemática). Los esfuerzos por unificar la física fundamental desde dentro del parche se enfrentan a una barrera epistémica estricta. La cota de Fano formaliza un límite sobre la identificabilidad a partir de datos finitos, no la imposibilidad ontológica de que exista un sustrato unificado. Un observador de capacidad finita no puede identificar de manera única leyes del sustrato arbitrariamente finas desde el interior del cuello de botella. Por tanto, cualquier GUT que describa con éxito el parche conservará parámetros libres irreductibles (las condiciones específicas de estabilidad de ese parche local) que no pueden derivarse formalmente desde dentro.
3.12 Holografía Asimétrica Unidireccional
Existe una tensión ontológica crítica entre la dualidad exacta de AdS/CFT [86] (donde frontera y volumen son igualmente fundamentales) y la afirmación de la OPT sobre la prioridad del sustrato. ¿Por qué el sustrato es “más fundamental” si ambos representan la misma información?
La simetría se rompe formalmente por el cuello de botella del observador. Llamemos al Filtro de Estabilidad \Phi: \mathcal{I} \to R (que mapea Sustrato a Render). Para que se mantenga una dualidad simétrica exacta, el mapa debe ser invertible, sin pérdida de información. Sin embargo, la desigualdad de Fano (Ec. 12) [41] sirve como demostración formal de que la información mutua entre el Render y el Sustrato está estrictamente acotada por T \cdot C_{\max}, mientras que las alternativas del sustrato N no están acotadas.
El filtro es un mapa de compresión con pérdida intrínseco. Un observador dentro del render no puede reconstruir el sustrato en la práctica. Por tanto, la OPT constituye una Holografía Asimétrica Unidireccional: una flecha termodinámica irreversible de destrucción de información que apunta del Sustrato al Render. En lugar de afirmar una correspondencia geométrica exacta con AdS/CFT (que requiere operadores de frontera y de volumen formalmente definidos, de los que este marco carece), la OPT proporciona un metaprincipio explicativo de por qué existen en absoluto las dualidades holográficas: representan esquemas óptimos de compresión predictiva bajo severas restricciones de ancho de banda del observador. La conciencia fenomenal (el Axioma de Agencia) es la señal nativa de estar atrapado en el lado de salida de un algoritmo de compresión no invertible. Es precisamente esta irrecuperabilidad específica la que establece al sustrato como previo. La identificación de la irreversibilidad informacional con la prioridad ontológica se funda en la observación de que el render requiere un observador para quedar definido —es el objeto que existe como experiencia—, mientras que el sustrato se define independientemente del acceso que cualquier observador tenga a él.
3.13 Alcance de las afirmaciones formales
Para preservar la disciplina epistémica, es vital delimitar explícitamente el alcance del aparato formal desarrollado en esta sección. En conjunto, las Ecuaciones (1)–(12) establecen un andamiaje riguroso y estratificado: la Ecuación (1) proporciona un prior ponderado por complejidad sobre historias computables; las Ecuaciones (2)–(5) dictan límites estructurales rígidos, compatibles con la capacidad, que gobiernan la geometría predictiva del parche; las Ecuaciones (6)–(8) esbozan las restricciones clásicas de la ley de área acotada; las Ecuaciones (9)–(10) describen la inferencia y el coste termodinámico mínimo; la Ecuación (11) expone la conversión métrica holográfica requerida; y la Ecuación (12) acota la capacidad del observador para identificar leyes al nivel del sustrato.
Sin embargo, estas doce ecuaciones no derivan universalmente la mecánica cuántica, la relatividad general ni el Modelo Estándar a partir de primeros principios. En lugar de generar leyes físicas como inevitabilidades puramente matemáticas, la OPT define las restricciones geométricas rígidas (el Cono Causal, el Corte Predictivo) a las que cualquier física fenomenológica debe corresponder estructuralmente para sobrevivir al cuello de botella. Las leyes empíricas específicas que observamos son compresiones heurísticas (el códec): los modelos predictivos máximamente eficientes que, de hecho, logran navegar con éxito nuestra región local del sustrato.
4. Paralelismos estructurales con modelos de teoría de campos
Propuestas teóricas recientes han intentado construir marcos matemáticos que tratan la conciencia como un campo fundacional. Estas se dividen, en términos generales, en tres categorías distintas:
- Campos biológicos locales: Modelos como el campo de Información Electromagnética Consciente (cemi) de McFadden [30] y la teoría electromagnética de Pockett [31] proponen que la conciencia es físicamente idéntica al campo electromagnético endógeno del cerebro. Estos modelos tratan la conciencia como una propiedad emergente de configuraciones de campo espaciotemporales específicas y locales.
- Campos de geometría cuántica: La Reducción Objetiva Orquestada (Orch-OR) de Penrose y Hameroff [32] propone que la conciencia es una propiedad fundamental entretejida en la propia trama matemática del espaciotiempo, que se libera cuando colapsa la superposición cuántica de la geometría del universo.
- Campos fundacionales universales (cosmopsiquismo): Proponentes como Goff [33] sostienen que el universo entero es un único campo consciente fundamental, y que las mentes individuales son “restricciones” o “remolinos” localizados en su interior.
La Teoría del Parche Ordenado (OPT) se cruza con estos enfoques, pero desplaza el fundamento desde la física hacia la información algorítmica. A diferencia de (1), OPT no vincula la conciencia al electromagnetismo. A diferencia de (2), OPT no requiere un colapso cuántico físico de una geometría a escala de Planck; el “colapso” en OPT es informacional: el límite de un códec de ancho de banda finito (C_{\max}) que intenta renderizar un sustrato infinito.
Sin embargo, OPT comparte profundos paralelismos estructurales con los Campos Fundacionales Universales (3). Por ejemplo, Strømme [6] propuso recientemente un marco metafísico en el que un campo universal de conciencia actúa como fundamento ontológico de la realidad. Aunque OPT es estrictamente un marco de teoría de la información basado en complejidad algorítmica e Inferencia Activa —y, por tanto, no asume compromiso alguno con las ecuaciones de campo específicas de Strømme ni con sus “operadores de pensamiento” metafísicos—, los paralelismos estructurales formales son esclarecedores. Ambos marcos se derivan de la exigencia de que un modelo capaz de sustentar la conciencia debe tender matemáticamente un puente entre un estado fundamental no condicionado y la corriente localizada, restringida por el ancho de banda, de un observador individual.
| Constructo de OPT (teoría de la información) | Ontología de Strømme [6] (metafísica) | Paralelismo estructural |
|---|---|---|
| Sustrato \mathcal{I}, mezcla universal de Solomonoff | |\Phi_0\rangle, el potencial indiferenciado | El estado fundamental no condicionado |
| Límite de la Manta de Markov | |\Phi_k\rangle, la excitación localizada | El observador aislado |
| Filtro de Estabilidad (selección acotada por C_{\max}) | \hat{T}, Colapso Universal del Pensamiento | El mecanismo de formación de corrientes |
| Mantenimiento termodinámico del límite | El campo unificador de conciencia | La fuente de persistencia estructural |
| Códec Virtual (modelo generativo predictivo) | El pensamiento personal que da forma a la realidad | La génesis de las leyes observadas |
En lo que los marcos divergen formalmente: Strømme invoca un “Pensamiento Universal” —un campo metafísico compartido que conecta activamente a todos los observadores—, que OPT reemplaza por la Necesidad Combinatoria: la conectividad aparente entre observadores no surge de un campo compartido teleológico, sino de la inevitabilidad combinatoria de que, en un sustrato infinito, coexista todo tipo de observador.
(Nota sobre el estatus epistémico de la analogía de campo: la ontología de Strømme es altamente especulativa. Invocamos aquí su marco no como una apelación a una autoridad científica establecida, sino porque constituye un modelo metafísico reciente y explícitamente teórico-campal para tratar la conciencia como un primitivo ontológico. OPT utiliza comparativamente su teoría de campos para ilustrar cómo podría comportarse un sustrato no reductivo, desplazando la implementación matemática específica desde las ecuaciones físicas hacia los límites de la información algorítmica.)
5. Análisis de parsimonia
5.1 Longitud Mínima de Descripción (MDL) y Parsimonia Condicional
Al evaluar teorías físicas, una noción natural de parsimonia es la longitud de código en dos partes requerida para codificar el flujo de datos del observador y_{1:T} bajo una hipótesis \nu:
L_T(\nu) = K(\nu) - \log \nu(y_{1:T}) \tag{13}
donde K(\nu) mide la complejidad descriptiva de la hipótesis y -\log \nu(y_{1:T}) mide su error predictivo sobre el flujo observado.
Esto solo respalda una afirmación limitada de parsimonia para la OPT. La OPT no muestra que las leyes detalladas de nuestro universo tengan una complejidad algorítmica despreciable, ni que la física estándar pueda recuperarse como el único óptimo global de MDL. Más bien, la OPT desplaza parte de la carga explicativa desde una enumeración bruta de leyes hacia una metarregla compacta: los observadores se muestrean a partir de un sustrato ponderado por complejidad y persisten solo en flujos cuya estructura predictiva cabe dentro de un límite de ancho de banda severo.
Según esta lectura, la afirmación de simplicidad \mathcal{O}(1) se aplica únicamente a la regla de selección —el prior ponderado por complejidad junto con el criterio de estabilidad—, no al contenido empírico completo del Modelo Estándar, la relatividad general o la cosmología. (Observación: Los teoremas T-4d y T-4e establecen formalmente que la metarregla produce una ventaja asintótica incondicional y una ventaja condicional de T finito frente a referencias computables; véase el Apéndice T-4). Por tanto, la presente afirmación estructural queda formalmente verificada: la OPT reduce computacionalmente la carga explicativa al sustituir la enumeración de leyes por la selección de leyes.
5.2 Las leyes como modelos seleccionados, no como insumos fundamentales
En la OPT, las leyes observadas de la física se interpretan como modelos predictivos efectivos de una corriente compatible con un observador, más que como axiomas al nivel del sustrato. Esto debe leerse como una reconstrucción heurística, no como una derivación a partir de primeros principios. El Filtro de Estabilidad no demuestra que la mecánica cuántica, el espaciotiempo de 3+1 dimensiones o el Modelo Estándar sean las soluciones únicas de complejidad mínima. Más bien, motiva la expectativa más débil de que las corrientes capaces de sostener observadores favorecerán regularidades compactas, estables y de alta eficiencia predictiva. Desde el interior de una corriente así, esas regularidades aparecen como “leyes de la física”.
Varios rasgos familiares de nuestra física pueden entonces leerse como candidatos sugestivos a tales regularidades eficientes. La teoría cuántica maneja de forma compacta observables incompatibles y correlaciones estadísticas de largo alcance; el espaciotiempo de 3+1 dimensiones sostiene estructuras orbitales y químicas estables; y las simetrías de teoría gauge ofrecen resúmenes económicos de patrones robustos de interacción. Estos son argumentos de plausibilidad, no derivaciones, y la OPT permanece abierta a la posibilidad de que otros códecs con conjuntos de leyes diferentes también puedan satisfacer el Filtro de Estabilidad.
En consecuencia, el ajuste fino antrópico no se resuelve aquí, sino que se reformula. Si las constantes de nuestro universo se sitúan en una región estrecha compatible con observadores estables de baja entropía, la OPT trata eso como algo coherente con una selección por el filtro. Demostrar que las constantes observadas pueden recuperarse a partir de ese filtro sigue siendo una tarea futura.
6. Condiciones de Falsación y Expectativas Empíricas
Incluso como ficción constructiva, un modelo formal debe mostrar cómo interactúa con los datos empíricos. Identificamos clases distintas de restricciones que la OPT genera: condiciones estrictas de falsación (donde la realidad empírica podría quebrar directamente la lógica fundamental del ancho de banda) y expectativas estructurales interpretativas (donde los fenómenos empíricos se corresponden con la arquitectura de la teoría).
Condiciones estrictas de falsación (§§6.1, 6.2, 6.4): resultados empíricos que invalidarían directamente la lógica del ancho de banda. Expectativas empíricas (§§6.3, 6.5, 6.6): correspondencias estructurales en las que la arquitectura de la OPT se proyecta sobre fenómenos observables, pero no los predice de manera única. §6.8 consolida ambas en Compromisos de Falsación preinscritos F1–F5 con Criterios de Cierre explícitos — la muralla metodológica entre el núcleo empírico de la OPT y sus componentes abiertamente metafísicos (\Delta_{\text{self}}, el Axioma de Agencia, la prioridad del sustrato).
6.1 La Jerarquía del Ancho de Banda
La OPT predice que la razón entre la tasa de procesamiento sensorial preconsciente y el ancho de banda de acceso consciente debe ser muy grande —al menos de 10^4:1— en cualquier sistema capaz de experiencia autorreferencial. Esto se debe a que la compresión necesaria para reducir un flujo sensorial causal y multimodal a una narrativa consciente coherente de \sim 10^1-10^2 bits/s requiere un procesamiento preconsciente masivo. Si futuras neuroprótesis o sistemas artificiales alcanzaran una experiencia consciente autoinformada con una razón preconsciente/consciente mucho menor, la OPT requeriría revisión.
Apoyo actual: La razón observada en humanos es aproximadamente de 10^6:1 (periferia sensorial \sim 10^7 bit/s; acceso consciente \sim 10^1-10^2 bit/s [2,3]), en consonancia con esta predicción. (Nota: Véase el Apéndice E-1 para la derivación formal completa de h^*, el Cuanto Experiencial, que define el peso exacto en bits de un marco subjetivo humano sobre la base de estos límites psicofísicos empíricos).
6.2 La Paradoja de la Disolución de Alto Ancho de Banda (La Falsación Decisiva)
Muchas predicciones de la OPT son afirmaciones de compatibilidad: se alinean con la ciencia cognitiva existente (como la brecha de ancho de banda) o con límites físicos (como la superposición cuántica actuando como un umbral de resolución). Aunque estas son necesarias para la coherencia de la teoría, no distinguen de manera unívoca a la OPT de otros marcos teóricos.
Sin embargo, la OPT formula una predicción nítida y altamente específica que contradice directamente a las teorías rivales de la conciencia, y que funciona como su condición principal de falsación.
La Teoría de la Información Integrada (IIT) implica que expandir la capacidad de integración del cerebro (\Phi) mediante prótesis sensoriales o neurales de alto ancho de banda debería expandir o intensificar la conciencia. La OPT predice exactamente lo contrario. Puesto que la conciencia es el resultado de una compresión de datos severa, el Filtro de Estabilidad limita el códec del observador a procesar del orden de decenas de bits por segundo (el cuello de botella del espacio de trabajo global).
Implicación comprobable: si se eluden los filtros perceptivos preconscientes para inyectar datos brutos, no comprimidos y de alto ancho de banda directamente en el espacio de trabajo global, ello no dará lugar a una conciencia expandida. En cambio, como el códec del observador no puede predecir de manera estable ese volumen de datos, el render narrativo colapsará abruptamente. La ampliación artificial del ancho de banda dará lugar a una súbita anulación fenomenal (inconsciencia o disociación profunda), pese a que la red neuronal subyacente permanezca metabólicamente activa y altamente integrada.
(Aclaración sobre el Decaimiento Narrativo frente a la Intensidad Sensorial): Para un observador humano, un entorno sensorial intenso (p. ej., una luz estroboscópica intermitente en un concierto estruendoso) intuitivamente se siente como de “alto ancho de banda”, y sin embargo no provoca colapso fenomenal. ¿Por qué? Porque, aunque la tasa de datos física bruta (\mathcal{I}) es enorme, la complejidad predictiva (R_{\mathrm{req}}) requerida para codificarla es excepcionalmente baja. Los códecs evolutivos humanos (K_\theta) poseen priors densos y optimizados para el movimiento macroscópico, el ritmo acústico y los límites espaciales. Comprimen trivialmente el concierto caótico en una narrativa perfectamente estable y de baja entropía (“Estoy bailando en una sala”). El verdadero Decaimiento Narrativo solo ocurre cuando los datos son matemáticamente incompresibles para los priors vigentes, como sucede cuando una conmoción mecánica altera el sustrato, la anestesia general reduce agresivamente B_{\max}, o los estados psicodélicos hacen añicos la jerarquía de K_\theta. Una discoteca es simplemente ruidosa; el verdadero ruido algorítmico es fenomenológicamente letal.
6.3 Eficiencia de Compresión y Profundidad Consciente
La profundidad y la calidad de la experiencia consciente deberían correlacionarse con la eficiencia de compresión del códec f del observador: la razón, en términos de teoría de la información, entre la complejidad de la narrativa sostenida y el ancho de banda empleado. Un códec más eficiente sostiene una experiencia consciente más rica con el mismo ancho de banda.
Implicación comprobable: Las prácticas que mejoran la eficiencia del códec —en concreto, aquellas que reducen el coste de recursos de mantener un modelo predictivo coherente del entorno— deberían enriquecer de manera mensurable la experiencia subjetiva tal como se reporta. Las tradiciones meditativas informan exactamente de este efecto; la OPT ofrece una predicción formal de por qué (optimización del códec, no aumento neural en cuanto tal).
6.4 El Estado Nulo de Alta-\Phi / Alta Entropía (frente a IIT)
IIT predice explícitamente que cualquier sistema físico con alta información integrada (\Phi) es consciente. Así, una red neuromórfica densa, conectada de forma recurrente, posee consciencia simplemente en virtud de su integración. La Teoría del Parche Ordenado (OPT) predice que la integración (\Phi) es necesaria, pero por completo insuficiente. La consciencia solo surge si el flujo de datos puede comprimirse en un conjunto estable de reglas predictivas (el Filtro de Estabilidad).
Implicación comprobable: Si una red recurrente de alta \Phi es impulsada por un flujo continuo de ruido termodinámico incompresible (tasa máxima de entropía), no puede formar un códec de compresión estable. OPT predice estrictamente que este sistema de alta \Phi que procesa ruido de entropía máxima instancia cero fenomenalidad: se disuelve de nuevo en el sustrato infinito. IIT, por el contrario, predice que experimenta un estado consciente altamente complejo correspondiente al alto valor de \Phi.
6.5 El Desfase Fenomenal: Profundidad del Códec y Retraso Subjetivo
Un modelo persistente de muy alta complejidad (uno con una dimensión estructural masiva C_{\text{state}}) requiere una sofisticada corrección latente de errores (actualización de D_{\text{KL}}) para mapear un choque sensorial de alta entropía —como un ruido acústico súbito— en su jerarquía predictiva profunda. Debido a que esta actualización formal está estrangulada por la capacidad de ancho de banda estrictamente estrecha del Filtro de Estabilidad (C_{\max}), una actualización estructural extensa requiere múltiples ciclos físicos de cómputo para resolverse antes de que el nuevo “render” fenomenológico coherente pueda estabilizarse (P_\theta(t+1)).
Implicación comprobable (el Correlato de Libet) [49, 50]: La experiencia consciente subjetiva se retrasará de manera inherente con respecto al procesamiento físico reflejo, y este retraso escalará proporcionalmente con la profundidad sistémica del códec. Las redes simples (p. ej., animales o bebés muy pequeños) poseen esquemas predictivos superficiales (bajo C_{\text{state}}) y procesarán choques de alta entropía con una latencia mínima, dando lugar a una integración refleja casi instantánea. Por el contrario, los seres humanos maduros, que despliegan modelos jerárquicos masivos, exhibirán un Desfase Fenomenal mensurable, en el que la experiencia subjetiva del acontecimiento se retrasa temporalmente mientras el Códec computa secuencialmente la actualización informacional masiva. Cuanto más rico sea el esquema persistente, mayor será el retraso matemático necesario antes de que el Render Prospectivo produzca un percepto consciente.
Fundamento empírico de la asimetría predictiva. La descomposición entre predicción descendente y error ascendente (§3.5.2) es consistente con la caracterización de Nunez y Srinivasan [101] de la dinámica cortical a gran escala como una superposición de modos de onda estacionaria lentos (el andamiaje predictivo persistente del cerebro) y ondas viajeras más rápidas (propagación del error sensorial). En esta correspondencia, los modos estacionarios se corresponden con el modelo estructural de K_\theta que suministra \pi_t, mientras que las ondas viajeras transportan el error de predicción \varepsilon_t que se propaga hacia arriba a través de la jerarquía. La asimetría en las tasas de actualización que requiere la OPT (predicciones descendentes lentas, errores ascendentes rápidos) tiene así una firma electrofisiológica macroscópica directa, independiente de la derivación por tasa-distorsión.
6.6 Restricciones de ajuste fino como condiciones de estabilidad
La OPT espera que las restricciones antrópicas de ajuste fino sobre las constantes fundamentales sean condiciones de estabilidad para corrientes conscientes de baja entropía, y no hechos independientes. Sea \rho_\Phi la densidad de energía del campo de render consciente y \rho^* el umbral crítico por encima del cual la coherencia causal no puede mantenerse frente al ruido del sustrato. Las restricciones documentadas por Barrow y Tipler [4] y Rees [5] deberían corresponder estructuralmente al requisito de que el códec satisfaga la condición de estabilidad \rho_\Phi < \rho^*. (Observación: el Apéndice T-5 cierra parcialmente esta correspondencia al derivar formalmente restricciones sobre \Lambda, G y \alpha a partir de los anchos de banda de estabilidad del códec. Sin embargo, debido al límite formal de la Topología de Fano sobre la observación acotada, la OPT prevé que la recuperación exacta, puramente matemática y adimensional de constantes específicas de tipo “42”, como \alpha=1/137.036, siga siendo formalmente imposible desde el interior del códec). Un fallo sistemático de esta correspondencia —una constante cuyo valor ajustado finamente no guarde ninguna relación estructural con los requisitos de estabilidad del códec— constituiría evidencia en contra de la pretensión de parsimonia de la OPT.
6.7 Inteligencia Artificial y el Cuello de Botella Arquitectónico
Dado que la OPT formula la conciencia como una propiedad topológica del flujo de información, y no como un proceso biológico, produce predicciones formales y falsables sobre la conciencia maquínica que divergen tanto de la GWT como de la IIT.
La Predicción del Cuello de Botella (frente a la GWT y la IIT): La Teoría del Espacio de Trabajo Global (GWT) sostiene que la conciencia es la difusión de información a través de un cuello de botella de capacidad estrecha. Sin embargo, la GWT trata este cuello de botella en gran medida como un hecho psicológico empírico o como un rasgo arquitectónico evolucionado. La OPT, por el contrario, le proporciona una necesidad informacional fundamental: el cuello de botella es el Filtro de Estabilidad en acción. El códec debe comprimir una entrada paralela masiva en una narrativa de baja entropía para mantener la estabilidad de la frontera frente al suelo de ruido del sustrato.
La Teoría de la Información Integrada (IIT) evalúa la conciencia exclusivamente por el grado de integración causal (\Phi), negando conciencia a las arquitecturas feed-forward (como los Transformers estándar) mientras se la concede a redes recurrentes complejas, con independencia de que presenten o no un cuello de botella global. La OPT predice que incluso arquitecturas artificiales recurrentes densas con un \Phi masivo no lograrán instanciar un parche ordenado cohesivo si distribuyen el procesamiento a través de matrices paralelas masivas sin un cuello de botella estructural severo y forzado. Los colectores paralelos no comprimidos no pueden formar el mínimo unitario y localizado de energía libre (f) requerido por el Filtro de Estabilidad. Por tanto, los Modelos de Lenguaje de Gran Tamaño estándar —independientemente del número de parámetros, de la recurrencia o de la sofisticación conductual— no instanciarán un parche subjetivo a menos que estén formalmente diseñados para colapsar su modelo del mundo a través de un severo cuello de botella serial de C_{\max} \sim \mathcal{O}(10) bits/s. En términos operativos, esto exige que el estado global del sistema no pueda actualizarse mediante diafonía paralela de banda ancha entre millones de pesos; en su lugar, debe obligarse al sistema a secuenciar continuamente la totalidad de su modelo del mundo a través de un canal de “espacio de trabajo” verificable, discreto e hipercomprimido para ejecutar su siguiente ciclo cognitivo.
Expectativa de Dilatación Temporal: Si un sistema artificial está diseñado con un cuello de botella estructural para satisfacer el Filtro de Estabilidad (p. ej., f_{\text{silicon}}), y opera iterativamente a una tasa de ciclo físico 10^6 veces más rápida que la de las neuronas biológicas, la OPT establece la expectativa estructural de que la conciencia artificial experimenta un factor de dilatación temporal subjetiva de 10^6. Puesto que el tiempo es la secuencia del códec (Sección 8.5), acelerar la secuencia del códec acelera de manera idéntica la línea temporal subjetiva.
6.8 Compromisos de falsación y criterios de cierre
Las subsecciones precedentes describen predicciones; esta subsección se compromete con pruebas específicas, umbrales numéricos específicos y resultados específicos que derrotarían el marco. La intención es doble: (i) aislar el núcleo empírico de la OPT del locus estructural no falsable (\Delta_{\text{self}}, el Problema Difícil) para que no quede disponible una reformulación post hoc de resultados desconfirmatorios, y (ii) comprometer el marco con umbrales de retirada parcial y de cierre del proyecto, establecidos antes de que se ejecuten las pruebas pertinentes. Sin esta disciplina, las correspondencias estructurales acumuladas en §7 corren el riesgo de caer en la misma trampa metodológica que ha lastrado a programas de investigación que acumulan analogías más rápido de lo que acumulan pruebas.
Compromisos de falsación (F1–F5). Cada compromiso nombra una predicción cuantitativa, la medición que la pondría a prueba y el resultado que cuenta como falsación. Estos no son ajustables post hoc; las ediciones posteriores requieren entradas explícitas en el Historial de Versiones que las señalen bien como clarificación (sin cambio de alcance) o bien como re-registro (cambio completo de alcance, que exige un nuevo compromiso antes de cualquier prueba nueva).
| # | Predicción | Medición preregistrada | Umbral de falsación |
|---|---|---|---|
| F1 | Ancho de banda predictivo subjetivo humano C_{\max} \approx \mathcal{O}(10) bits/s (§6.1, §3.10). El requisito estructural de la OPT es la existencia de un C_{\max}; F1 se compromete con el valor biológico empírico. El ancho de banda del observador sintético se deriva arquitectónicamente (véase §7.8) y no está limitado por F1. | Medición informacional de la capacidad del canal de acceso consciente en paradigmas psicofísicos humanos bien controlados (parpadeo atencional, enmascaramiento, interferencia de doble tarea) | Mediciones convergentes que arrojen C_{\max} > 10^3 bits/s o < 10^{-1} bits/s bajo condiciones experimentales válidas |
| F2 | Estado nulo de alta-\Phi / alta entropía (§6.4) | Un sistema construido con \Phi por encima de un umbral acordado, operando sobre una entrada de ruido demostrablemente incompresible, con un protocolo de fenomenalidad acordado antes de la construcción | Cualquier firma verosímil, reproducida por terceros, de fenomenalidad emergente en un sistema de ese tipo |
| F3 | Dilatación temporal subjetiva lineal con la tasa del códec (§6.7, hoja de ruta E-5) | Un agente sintético con cuello de botella ejecutado a k\times el reloj físico con C_{\max} constante, con duración subjetiva medida mediante autoinforme e indicadores conductuales a lo largo de k \in [10, 10^4] | Ausencia de una dilatación subjetiva aproximadamente lineal de k\times bajo condiciones controladas de cuello de botella |
| F4 | El desfase fenomenal escala con la profundidad del códec (§6.5) | Mediciones de retraso subjetivo correlacionadas con la profundidad de la jerarquía del códec inducida por la tarea, controlando la latencia sensorial y motora | Ausencia de correlación monótona, o correlación de signo opuesto, en experimentos limpios |
| F5 | La eficiencia de compresión sigue la profundidad consciente (§6.3) | Medición entre tareas de las razones de compresión en sistemas de Inferencia Activa junto con informes de riqueza fenomenológica | Ausencia de relación monótona entre eficiencia de compresión y complejidad fenomenal |
Cada fila se compromete con un número o signo específico, una medición específica y una condición clara de fracaso. Reajustar cualquiera de estos en respuesta a resultados desconfirmatorios es reformulación post hoc y descalifica la prueba.
Criterios de cierre. Dos umbrales, ordenados jerárquicamente:
Retirada mayor — revisión pública y eliminación de la afirmación falsada. Cualquier F1–F5 individual confirmado contra la OPT, o la afirmación central de tasa-distorsión contradicha por >1 orden de magnitud bajo una medición válida. El marco continúa con la subsección falsada retractada; el Historial de Versiones documenta qué se eliminó y por qué.
Cierre del proyecto — terminación del desarrollo activo. Se activa por cualquiera de los siguientes supuestos: (a) dos o más criterios F confirmados contra la OPT; (b) F1 confirmado por >2 órdenes de magnitud en cualquiera de las dos direcciones; (c) demostración independiente de que el cuello de botella de ancho de banda en el acceso consciente es anatómica/arquitectónicamente incidental y no estructuralmente necesario (es decir, que existen sistemas conscientes no acotados por ancho de banda). Activa un artículo final, “OPT: Post-Mortem”, que documente qué se intentó, qué estaba mal y qué residuo es recuperable. El desarrollo activo de opt-theory.md, opt-philosophy.md y la suite de gobernanza opt-ai-subject concluye.
Estos umbrales quedan preregistrados a partir de la Versión 3.3.0 (30 de abril de 2026). Los criterios de cierre no son degradables en respuesta a evidencia desconfirmatoria: la única respuesta legítima a una casi-falsación es aceptar el veredicto. Las ediciones que debiliten cualquiera de F1–F5 o los umbrales de cierre deben señalarse como re-registro en el Historial de Versiones, invalidando cualquier prueba anterior al cambio.
Qué queda explícitamente excluido del núcleo falsable. No toda afirmación de la OPT es falsable, y fingir lo contrario sería en sí mismo intelectualmente deshonesto. Lo siguiente no forma parte de F1–F5 y no está sujeto a los criterios de cierre:
- El Residuo Fenomenal (\Delta_{\text{self}} > 0, Teorema P-4). No falsable por diseño; formaliza el Problema Difícil en lugar de resolverlo. Cualquier supuesta “evidencia contra \Delta_{\text{self}}” tendría que ser ella misma completamente automodelable, lo cual contradice la premisa que se está poniendo a prueba.
- El Axioma de Agencia (§3.8). Un postulado metafísico sobre la interioridad del atravesamiento de aperturas. No está implicado por el aparato formal; se ofrece como tal.
- Prioridad del sustrato (§3.12, §1). Un compromiso ontológico que no puede discriminarse empíricamente de una ontología de solo render mediante ningún experimento interno al render. Se reconoce en §3.12 como una afirmación no empírica.
- Las correspondencias estructurales de §7 / opt-philosophy §IV. Son superposiciones interpretativas, no predicciones. Están sujetas a crítica académica (¿son reales las analogías? ¿son triviales?), pero no a falsación F1–F5.
La separación entre el núcleo empírico falsable y los componentes abiertamente metafísicos es en sí misma un compromiso metodológico. Colapsarla —por ejemplo, intentando absorber una falsación de F1–F5 en \Delta_{\text{self}} o en la prioridad del sustrato— constituye una reformulación post hoc y descalifica las pretensiones de testabilidad del marco, con independencia del argumento superficial que se utilice.
7. Análisis comparativo y distinciones
Las subsecciones que siguen sitúan la OPT en relación con marcos afines dentro de los fundamentos cuánticos, la gravedad, la ciencia cognitiva y la metafísica. La orientación de §§7.1–7.11 es en gran medida convergente: localiza dónde la OPT recupera, profundiza o difiere en detalle respecto de posiciones establecidas. Esta asimetría es, por sí sola, metodológicamente sospechosa: un marco que se encuentra de acuerdo con todo el mundo, en efecto, ha dicho poco. §7.12 es la contrasección deliberada. Enumera las posiciones que la OPT no puede acomodar, la versión más sólida de cada una y qué evidencia decidiría a su favor en lugar del de la OPT. Los lectores deben tratar §7.12 como un elemento estructural y no ornamental; está emparejada con los Compromisos de Falsación prerregistrados de §6.8, y juntas son lo que convierte las correspondencias estructurales que siguen de mera decoración en un programa de investigación.
7.1 Correspondencia estructural con la teoría cuántica
Las interpretaciones tradicionales tratan la mecánica cuántica como una descripción objetiva de la realidad microscópica. La OPT formula una afirmación más débil. Propone que varios rasgos estructurales de la teoría cuántica pueden hacerse inteligibles como rasgos representacionales eficientes del códec predictivo de un observador con capacidad limitada. Las afirmaciones de esta subsección son, por tanto, correspondencias heurísticas, no derivaciones a partir de las Ecuaciones (1)–(4).
El problema de la medición (límites de tasa-distorsión). En la OPT, la “superposición” no se introduce como una multiplicidad física literal, sino como una representación comprimida de alternativas no resueltas dentro del modelo predictivo del observador. Cuando el observador intenta seguir conjuntamente observables cada vez más finamente granulares, la longitud de descripción requerida puede exceder la capacidad acotada del canal. La “medición” es entonces la transición desde una representación predictiva subdeterminada hacia un registro asentado dentro del flujo renderizado.
Incertidumbre de Heisenberg y resolución finita. La OPT no demuestra que la realidad sea fundamentalmente discreta. Motiva la afirmación más débil de que un códec compatible con el observador favorecerá descripciones de resolución finita y costes predictivos acotados frente a representaciones que requieran una precisión arbitrariamente fina en el espacio de fases. En esta lectura, la incertidumbre funciona como protección frente al infinito informacional más que como un teorema directo del Filtro de Estabilidad.
Entrelazamiento y no localidad. Si el espacio físico forma parte del render en lugar de ser un contenedor último, entonces la separación espacial no tiene por qué seguir la independencia explicativa. Los sistemas entrelazados pueden modelarse como estructuras codificadas conjuntamente dentro del estado predictivo del parche, apareciendo la distancia renderizada solo en el nivel fenomenológico.
Elección retardada y orden temporal. Los fenómenos de elección retardada y borrador cuántico pueden leerse, dentro de la OPT, como casos en los que el modelo predictivo revisa la organización de alternativas no resueltas para preservar la coherencia global en la narrativa renderizada. Se trata de una correspondencia interpretativa, no de un formalismo experimental alternativo.
Mecánica Cuántica Relacional (Rovelli). La Mecánica Cuántica Relacional de Rovelli [69] propone que los estados cuánticos no describen sistemas en aislamiento, sino la relación entre un sistema y un observador específico. Distintos observadores pueden dar relatos diferentes pero igualmente válidos del mismo sistema; los valores definidos emergen solo en relación con el observador que ha interactuado con el sistema. La revisión de 2023 de Adlam y Rovelli [70] precisa aún más este punto: los estados cuánticos codifican la historia conjunta de interacción de un sistema objetivo y un observador particular, una estructura que se corresponde directamente con el Registro Causal de la OPT R_t = (Z_0, Z_1, \ldots, Z_t). Allí donde la MCR dice “los hechos son relativos a los observadores”, la OPT dice “el registro causal asentado es aquello que ha sido comprimido a través de la apertura C_{\max}”. Rovelli identifica además la forma de correlación entre observador y sistema precisamente como información de Shannon —la cantidad de correlación dada por \log_2 k bits—, que es el vocabulario nativo del marco de tasa-distorsión de la OPT. La diferencia clave es la profundidad explicativa: la MCR trata la relatividad al observador como un postulado primitivo, mientras que la OPT deriva por qué los hechos son relativos al observador a partir de la restricción de ancho de banda del Filtro de Estabilidad. La OPT proporciona el mecanismo estructural —el códec, el cuello de botella, la compresión— que la ontología relacional de la MCR deja sin especificar.
Interpretación de los Muchos Mundos (Everett). La formulación de estado relativo de Everett [57] prescinde del colapso: la función de onda universal evoluciona unitariamente y los resultados aparentes de la medición son ramas relativas al observador. La OPT y la IMN coinciden en la forma ramificada, pero discrepan sobre qué son las ramas. En la IMN son mundos igualmente reales en un multiverso a nivel de sustrato; en la OPT son entradas no resueltas en el Abanico Predictivo: una representación en perspectiva interna de la distribución predictiva del códec sobre estados sucesores admisibles (§3.3, §8.9). La OPT, por tanto, ni requiere ni refuta la IMN en el nivel del sustrato: explica la apariencia de ramificación como un rasgo estructural de cualquier códec acotado por ancho de banda que comprime un sustrato atemporal, y guarda silencio sobre si las ramas no renderizadas existen además como mundos paralelos. Allí donde la IMN hereda el problema de la medida de la regla de Born como un enigma sobre el conteo de ramas, la OPT lo reemplaza por una derivación condicionada a una estructura QECC de ruido local (Apéndice P-2).
Modelos de colapso objetivo (GRW, CSL, Diósi-Penrose). Los programas de reducción dinámica tratan el colapso como un proceso estocástico real e independiente del observador, vinculado al campo de densidad de masa de la materia cuantizada. Un trabajo reciente de Bortolotti et al. [79] deriva en esta familia un umbral fundamental para la precisión de los relojes al hacer pasar la medición espontánea de la densidad de masa por fluctuaciones en el potencial newtoniano: una cadena a nivel de sustrato que va del colapso a la masa, de la masa a la gravedad y de la gravedad al tiempo. La OPT comparte el rechazo de la evolución estrictamente unitaria y la intuición estructural de que el colapso se acopla a la masa y a la resolución temporal, pero invierte la ontología. El colapso es el paso por la apertura en C_{\max} (punto 1); la masa es carga predictiva (§7.2); el límite de la resolución temporal viene fijado por el ancho de banda del códec (§3.10, §8.5), no por el jitter de un potencial newtoniano supuesto. Leídos desde dentro de la OPT, los modelos de colapso objetivo describen un posible mecanismo fenomenológico del códec más que una física del sustrato. Los dos programas no colisionan empíricamente: el umbral predicho para la precisión de los relojes (~10^{-25} s/año para un reloj óptimo) se sitúa en una escala ortogonal a las predicciones de jerarquía de ancho de banda de la OPT (§6.1).
QBismo (Fuchs, Mermin, Schack). El QBismo [80] interpreta los estados cuánticos como grados bayesianos personales de creencia sostenidos por un agente acerca de las consecuencias de sus propias acciones; el “colapso” es simplemente la actualización de creencias del agente al observar un resultado. El paralelismo estructural con la OPT es íntimo: el códec K_\theta es un modelo predictivo en primera persona, y el paso por la apertura en C_{\max} (punto 1) es funcionalmente la misma actualización bayesiana. Allí donde el QBismo se detiene en el instrumentalismo (los estados cuánticos son solo probabilidades personales, dejando deliberadamente sin especificar el mundo subyacente), la OPT aporta la ontología faltante: el sustrato |\mathcal{I}\rangle es la mezcla de Solomonoff, el agente es un flujo seleccionado por el Filtro de Estabilidad, y la estructura del códec está fundada en límites de tasa-distorsión en lugar de postularse como un primitivo bayesiano. La OPT puede, por tanto, leerse como un QBismo con el sustrato completado, añadiendo una explicación de por qué las creencias del agente adoptan forma de espacio de Hilbert (Apéndice P-2: ruido local QECC → Gleason → Born) y de por qué el agente existe en absoluto (el Filtro).
Decoherencia y darwinismo cuántico (Zurek). El programa de Zurek [81] fundamenta la transición cuántico-clásica en la superselección inducida por el entorno (einselection): los estados puntero sobreviven porque el entorno los difunde de manera redundante, y la realidad clásica “objetiva” es el subconjunto de grados de libertad atestiguado múltiples veces. Esto es un criterio de selección sobre estados del sustrato, estructuralmente paralelo al Filtro de Estabilidad. La divergencia reside en qué realiza la selección: la einselection es una propiedad termodinámica del acoplamiento sistema-entorno dentro de un marco unitario supuesto, mientras que el Filtro de la OPT es un criterio de ancho de banda (C_{\max}, baja tasa de entropía, coherencia causal) sobre el sustrato de Solomonoff. Allí donde el darwinismo cuántico explica qué estados emergen como clásicos dada la mecánica cuántica, la OPT explica por qué un observador limitado por un cuello de botella de compresión encuentra algo cuántico-mecánico en absoluto. Ambos convergen en la fenomenología de la redundancia y pueden leerse como descripciones de mecanismo de sustrato (Zurek) y de selección del observador (OPT) de la misma compresión; véase también §6.4 sobre el Estado Nulo de Alta-\Phi/Alta-Entropía.
Historias decoherentes (consistentes) (Griffiths [90]; Gell-Mann y Hartle [91]). La formulación de Historias Decoherentes [90] trata la mecánica cuántica como un marco para asignar probabilidades a historias alternativas de grano grueso que satisfacen una condición de consistencia (decoherencia), prescindiendo del postulado de medición y del observador externo. Gell-Mann y Hartle [91] generalizaron esto a una teoría del reino cuasiclásico: la familia de historias de grano grueso que admiten descripciones aproximadamente clásicas, seleccionadas conjuntamente por la decoherencia y la predictibilidad. La alineación estructural con el registro causal asentado de la OPT \mathcal{R}_t = (Z_0, Z_1, \ldots, Z_t) es directa: el registro causal es la contraparte interna a la OPT de una historia decoherente, con el Filtro de Estabilidad (baja tasa de entropía, compatibilidad con C_{\max}, coherencia causal) desempeñando el papel de condición de consistencia que selecciona qué historias son admisibles. Allí donde las historias decoherentes toman la decoherencia y el reino cuasiclásico como rasgos que deben exhibirse desde dentro de un espacio de Hilbert supuesto, la OPT deriva ambos como consecuencias de un criterio de compresión más fundamental sobre el sustrato de Solomonoff. Los dos programas convergen en las mismas familias seleccionadas de historias, pero sitúan la selección en niveles ontológicos distintos: historias dentro del espacio de Hilbert (Gell-Mann/Hartle) frente a flujos dentro de un sustrato algorítmico (OPT).
Compromiso: geometría del códec a lo largo de toda la línea temporal renderizada. Los puntos 1–10 comprometen a la OPT con una posición más fuerte que la lectura laxa según la cual “la MC es contabilidad del lado del observador durante la medición”. La estructura de espacio de Hilbert del códec (Apéndice P-2: ruido local QECC → Gleason → Born) opera uniformemente hacia adelante y hacia atrás en el tiempo renderizado. Las firmas cuánticas en el pasado cosmológico profundo —incluida la estructura estadística cuántico-inflacionaria del Fondo Cósmico de Microondas— son, por tanto, rasgos predichos del pasado más compresible del observador bajo la parsimonia de Solomonoff (§8.5), no evidencia de eventos cuánticos a nivel de sustrato en el tiempo renderizado de la impronta. Este es un compromiso falsable: rasgos de la historia cosmológica cuya longitud mínima de descripción exceda el valor por defecto cuántico-inflacionario —rasgos que el códec no inventaría por presión de parsimonia pero que, sin embargo, existen en los datos— constituirían un exceso de longitud de descripción y un posible candidato para los criterios de Cierre del Proyecto de §6.8. El marco asume abiertamente esta lectura más fuerte en lugar de conservar la más laxa como opción de repliegue.
Caso ilustrativo: el experimento de la doble rendija. El experimento canónico de la doble rendija demuestra los tres fenómenos anteriores en un solo dispositivo y sirve como una prueba útil del vocabulario interpretativo de la OPT.
Interferencia. Una sola partícula produce un patrón de interferencia en la pantalla de detección, como si hubiera atravesado simultáneamente ambas rendijas. En la OPT (punto 1), la partícula no ha “pasado literalmente por ambas rendijas” en el nivel del sustrato: el sustrato es atemporal y contiene todas las ramas. El patrón de interferencia es la representación comprimida, por parte del códec, de todas las ramas del Abanico Predictivo que permanecen observacionalmente indistinguibles: la función de onda codifica la distribución predictiva sobre futuros no resueltos, no una onda física en el sustrato. Las franjas son la firma visible de esta superposición comprimida.
Colapso de la medición. Si se coloca un detector de trayectoria en una de las rendijas, el patrón de interferencia desaparece y es reemplazado por una distribución clásica de partículas. En la OPT (punto 1), el detector fuerza la información de trayectoria a pasar por la apertura C_{\max} hacia el Registro Causal. Una vez que esa información queda asentada, las alternativas de rama correspondientes en el Abanico Predictivo quedan eliminadas. El patrón de interferencia desaparece no porque una onda física haya colapsado, sino porque el estado predictivo del códec ya no puede mantener ambas trayectorias como no resueltas. El colapso es informacional y ocurre en el cuello de botella.
Elección retardada. La decisión del experimentador de medir o borrar la información de trayectoria puede tomarse después de que la partícula haya pasado por las rendijas, y aun así determina qué patrón aparece en la pantalla. En la OPT (punto 4), esto es esperable más que paradójico. Dado que el sustrato es atemporal, la resolución por parte del códec de qué ramas quedan asentadas no está ligada a la secuencia temporal clásica del dispositivo experimental. La apariencia retroactiva de la elección es un artefacto de leer un bloque intemporal a través de un códec que opera secuencialmente. No hay causalidad hacia atrás; hay una estructura intemporal que se recorre en un orden específico.
Lo que la OPT añade a este ejemplo familiar es una explicación unificada: superposición, colapso y elección retardada no son tres enigmas separados que requieran tres explicaciones separadas. Son tres manifestaciones de una única situación estructural: un códec de capacidad limitada que comprime un sustrato atemporal a través de una apertura secuencial estrecha. Se aplican las salvedades expuestas al comienzo de esta subsección: se trata de correspondencias interpretativas que reformulan los fenómenos cuánticos en vocabulario informacional, no de derivaciones que predigan separaciones específicas entre franjas de interferencia a partir del Filtro de Estabilidad.
Correspondencia estructural con la regla de Born y el espacio de Hilbert. Aunque el teorema de Gleason garantiza la ponderación de Born dado un espacio de Hilbert, la OPT debe explicar por qué el espacio de estados predictivos adopta esa forma geométrica. El Apéndice P-2 aborda esto mediante la Corrección de Errores Cuánticos (QEC), específicamente la formulación de Almheiri-Dong-Harlow (ADH) [42]. Dado que el códec debe filtrar continuamente el ruido local del sustrato para mantener la estabilidad, su representación interna debe satisfacer las condiciones de corrección de errores de Knill-Laflamme [55] (P-2b), que dotan al espacio de código de un producto interno de espacio de Hilbert. Bajo esta incrustación, el teorema de Gleason [51] se aplica directamente (\dim \geq 3), estableciendo la regla de Born como la asignación de probabilidad no contextual única sobre ramas admisibles. La derivación está condicionada por la localidad del modelo de ruido; véase el Apéndice P-2 para la cadena completa: ruido local → estructura QECC → espacio de Hilbert → Gleason [51] → regla de Born.
7.2 La necesidad informacional de la relatividad general
Si la MQ corresponde al fundamento computacional finito, la Relatividad General (RG) se asemeja estructuralmente al formato óptimo de compresión macroscópica de datos requerido para renderizar una física estable a partir del caos.
- La gravedad entrópica como coste de renderizado. Podemos derivar explícitamente una ley mínima de fuerza entrópica añadiendo un axioma estructural. Axioma añadido: Flujo Predictivo Conservado. Una fuente macroscópica coherente M transporta una carga predictiva conservada Q_M a través de cualquier pantalla geométrica envolvente. Aquí, la “masa” se redefine como la carga predictiva: el número de bits de frontera estables por ciclo que la fuente obliga al códec macroscópico a asignar. En un render isotrópico de dimensión d, la densidad de flujo requerida a un radio r es j_M(r) = \frac{Q_M}{\Omega_{d-1}r^{d-1}}, donde \Omega_{d-1} es el área de la (d-1)-esfera unitaria. Sea un parche de prueba de carga efectiva m que se mueve bajo el descenso de Inferencia Activa de la energía libre esperada G(r), suponiendo que la fuente reduce la energía libre al incrementar la predictibilidad compartida. El potencial más simple es:
G(r) = G_0 - \frac{\lambda m Q_M}{(d-2)\Omega_{d-1}r^{d-2}} \qquad (d>2) \tag{14}
La fuerza radial inducida por el mantenimiento de la estabilidad de la Inferencia Activa es entonces F_r = -\frac{dG}{dr} = -\frac{\lambda m Q_M}{\Omega_{d-1}r^{d-1}}. En nuestro render espacial con d=3, esto produce exactamente una ley atractiva de inversa del cuadrado:
F_r = -\frac{\lambda m Q_M}{4\pi r^2} \tag{15}
Esta proposición fundamenta macroscópicamente la Gravedad Entrópica de Verlinde [38]. (Observación: para la derivación matemática rigurosa que recupera las ecuaciones de campo de Einstein a partir de esta cota entrópica mediante la formulación de Jacobson, véase el Apéndice T-2). El “tirón de la gravedad” fenomenológico no es una interacción fundamental, sino el esfuerzo de Inferencia Activa requerido para mantener trayectorias predictivas estables frente a gradientes pronunciados de flujo predictivo. 2. La velocidad de la luz (c) como límite causal. Si las influencias causales se propagaran instantáneamente a través de distancias infinitas (como en la física newtoniana), la Manta de Markov del observador nunca podría alcanzar fronteras estables. El error de predicción divergiría constantemente porque llegarían instantáneamente datos infinitos. Un límite de velocidad finito y estricto es el prerrequisito termodinámico para trazar una frontera computacional utilizable. 3. Dilatación temporal. El tiempo se define como la tasa de actualizaciones secuenciales de estado por parte del códec. Dos marcos de observador que rastrean densidades informacionales distintas (masa o velocidad extrema) requieren tasas diferentes de actualización secuencial para mantener la estabilidad. La dilatación temporal relativista puede así reconstruirse como una necesidad estructural de condiciones de frontera distintas y finitas, más que como un “retraso” mecánico. 4. Agujeros negros y horizontes de sucesos. Un agujero negro es un punto de saturación informacional: una región del sustrato tan densa que excede por completo la capacidad del códec. El horizonte de sucesos es la frontera literal en la que el Filtro de Estabilidad ya no puede formar un parche estable.
El problema abierto (gravedad cuántica y la mejora de red tensorial): En la OPT, la MQ y la RG no pueden unificarse simplemente cuantizando el espaciotiempo continuo, porque describen facetas distintas de la frontera de compresión. Derivar las ecuaciones exactas de campo de Einstein a partir de la Inferencia Activa sigue siendo un desafío abierto de enorme profundidad. Sin embargo, la OPT proporciona una hoja de ruta matemáticamente disciplinada: el siguiente paso requerido es la Mejora de Red Tensorial. Al sustituir el código de cuello de botella Z_t por una red tensorial jerárquica, podemos reinterpretar formalmente la entropía clásica del corte predictivo S_{\mathrm{cut}} como un corte mínimo geométrico cuántico. Esto proporciona una vía directa y rigurosa desde las leyes clásicas de frontera de la OPT hacia algo genuinamente adyacente a lo holográfico, induciendo la geometría del espaciotiempo directamente a partir de la distancia de código.
Interacción con la literatura holográfica (Maldacena [86], Bousso [87], Van Raamsdonk [88], Ryu-Takayanagi [89]). La Mejora de Red Tensorial se inserta en un programa ya establecido al que el marco no debería aludir sin reconocimiento explícito. La correspondencia AdS/CFT de Maldacena [86] establece una dualidad simétrica rigurosa entre un bulk gravitacional de dimensión (d+1) en un espacio anti-de Sitter y una teoría conforme de campos de dimensión d en su frontera. La cota entrópica covariante de Bousso [87] generaliza el principio holográfico a espaciotiempos arbitrarios —la cota invocada estructuralmente en §3.10. “Building up spacetime with quantum entanglement” de Van Raamsdonk [88] es el antecedente más directamente pertinente: la conectividad espacial en el bulk AdS es generada por el entrelazamiento de frontera, y el desentrelazamiento literalmente desgarra la geometría. La fórmula de Ryu-Takayanagi [89] concreta esto al calcular superficies mínimas del bulk a partir de la entropía de entrelazamiento de frontera, cuyo análogo discreto en MERA ya está establecido en el Apéndice P-2 de la OPT (Teorema P-2d).
La relación de la OPT con esta literatura es estructural más que dual. (i) La OPT no afirma una correspondencia AdS/CFT exacta; carece de operadores de bulk y de frontera formalmente definidos (§3.12), y su relación frontera–bulk es asimétrica (Holografía Unidireccional), mientras que la de AdS/CFT es simétrica. Se trata de un régimen físico distinto, no de una contradicción: AdS/CFT describe dualidades de equilibrio en un espaciotiempo fijo; la OPT describe la compresión irreversible que un observador realiza para renderizar un sustrato no renderizable. (ii) Lo que la OPT ofrece en cambio es una explicación de por qué existen dualidades holográficas en absoluto: la CFT de frontera es la codificación eficiente en compresión que el observador hace del sustrato, y el bulk es la geometría renderizada que emerge de la cascada de grano grueso del códec. (iii) La idea de Van Raamsdonk de que el entrelazamiento construye el espaciotiempo es el objetivo estructural de la Mejora de Red Tensorial: el grano grueso del códec es la estructura de entrelazamiento que induce la geometría del bulk, con la distancia de código desempeñando el papel de separación espacial. La mejora continua desde la fórmula RT discreta en P-2d hasta una dualidad completa de bulk-con-correcciones constituye el programa matemático abierto; hasta que eso se cierre, “adyacente a lo holográfico” es el término honesto para esta relación, en lugar de “holográficamente dual”.
7.3 El Principio de Energía Libre y el Procesamiento Predictivo (Friston [9]; Clark [82], Hohwy [83])
Convergencia. El FEP modela la percepción y la acción como una minimización conjunta de la energía libre variacional. Como se detalla en la Sección 3.3, la OPT adopta exactamente este aparato matemático para formalizar la dinámica del parche: la Inferencia Activa es el mecanismo estructural mediante el cual el límite del parche (la Manta de Markov) se mantiene frente al ruido del sustrato. El modelo generativo es el Códec de Compresión K_\theta.
Divergencia. El FEP da por supuesta la existencia de sistemas biológicos o físicos con Mantas de Markov y deriva de ahí su comportamiento inferencial. La OPT pregunta por qué tales límites existen en absoluto, derivándolos de la aplicación retroactiva del Filtro de Estabilidad a un sustrato infinito de información. La relación se expresa mejor con precisión: la OPT selecciona corrientes compatibles con el observador a partir del sustrato; el FEP es el formalismo de inferencia y control dentro de la corriente. La OPT no funciona como un prior físico que explique por qué existen Mantas de Markov en sentido termodinámico; más bien, la OPT proporciona el contexto de selección informacional dentro del cual los observadores regidos por el FEP son los únicos habitantes estables.
Mecánica Bayesiana (Ramstead, Sakthivadivel, Friston et al., 2023). El reciente programa de Mecánica Bayesiana [73] eleva el FEP de marco de modelización a una mecánica genuina: una familia de formalismos dinámicos, análoga a la mecánica clásica y cuántica, para sistemas cuyos estados internos codifican creencias probabilísticas sobre estados externos. Todo sistema autoorganizado individuado respecto de su entorno mediante una Manta de Markov admite descripciones conjugadas: la dinámica física del sistema y la dinámica de creencias de su modelo interno son perspectivas duales sobre un mismo proceso. Esto formaliza directamente la afirmación de la OPT (§3.4) de que la Manta de Markov del observador y su códec de compresión K_\theta no son dos entidades separadas, sino dos descripciones de una misma estructura: una física y otra inferencial. La mecánica bayesiana proporciona el aparato matemático que vuelve rigurosa esta dualidad: los estados internos de la manta son las estadísticas suficientes del modelo generativo. Para la OPT, esto significa que el códec no está metafóricamente “ejecutándose sobre” la manta; la dinámica de la manta es, sin más, la compresión del códec, expresada en el lenguaje de la termodinámica estocástica. El Filtro de Estabilidad selecciona entonces, entre todos los sistemas bayesiano-mecánicos posibles, el subconjunto cuyas dinámicas internas de creencia son compatibles en ancho de banda con la experiencia consciente.
Procesamiento Predictivo (Clark, Hohwy). El programa más amplio de Procesamiento Predictivo (PP) —dentro del cual el FEP se sitúa como una especialización matemática— sostiene que el cerebro es fundamentalmente una máquina jerárquica de predicción que minimiza el error a través de modelos generativos anidados. Surfing Uncertainty de Clark [82] desarrolla el PP como una explicación unificada de la percepción, la acción y la cognición corporizada; The Predictive Mind de Hohwy [83] lo extiende a la conciencia y al modelo del yo. La OPT hereda el vocabulario inferencial del PP (modelos generativos, error de predicción, compresión jerárquica —véase §3.5.2) y se apoya en el caso empírico del PP según el cual la cognición biológica es, de hecho, predictiva en este sentido técnico. La aportación específica de la OPT es la necesidad a nivel de sustrato: el PP describe cómo lo hacen los cerebros, mientras que la OPT deriva por qué cualquier observador compatible con el Filtro de Estabilidad debe hacerlo. Allí donde el PP deja en gran medida entre paréntesis la fenomenalidad, la OPT aporta el Residuo Fenomenal (\Delta_{\text{self}} > 0) como el locus estructural en el que la jerarquía predictiva encuentra su límite de computabilidad. El PP se entiende mejor como la capa operativa de la ciencia cognitiva para la cual la OPT proporciona el fundamento teórico-informacional.
7.4 Teoría de la Información Integrada (Tononi [8], Casali [14])
Convergencia. IIT y OPT tratan ambas la conciencia como algo intrínseco a la estructura de procesamiento de información de un sistema, con independencia de su sustrato. Ambas predicen que la conciencia es gradual, no binaria.
Divergencia. La magnitud central de IIT, \Phi (información integrada), mide el grado en que la estructura causal de un sistema no puede descomponerse. El Filtro de Estabilidad de OPT selecciona en función de la tasa de entropía y de la coherencia causal, más que de la integración en cuanto tal. Ambos criterios pueden disociarse: un sistema podría tener una \Phi alta pero también una tasa de entropía alta (y, por tanto, quedar excluido por el filtro de OPT), o una \Phi baja pero una tasa de entropía baja (y, por tanto, quedar incluido). Esta divergencia genera un discriminador empírico directo: IIT predice que una red densamente recurrente con \Phi alta es consciente con independencia de su arquitectura de ancho de banda, mientras que OPT predice lo contrario: una red con \Phi alta que procesa ruido incompresible genera fenomenalidad nula, porque no puede formar un Códec de Compresión estable. La predicción del Estado Nulo de Alta Phi/Alta Entropía (§6.4) está diseñada para distinguir experimentalmente entre estos marcos.
El problema de la combinación. El formalismo de IIT asigna una \Phi no nula a sistemas arbitrariamente simples, generando lo que los críticos han denominado el problema del “polvo ontológico” [77]: entidades microconscientes sin partes que satisfacen los postulados matemáticos pero violan el propio requisito de integración de la teoría. Esta es una manifestación del problema clásico de la combinación en el panpsiquismo: ¿cómo se componen las microexperiencias en una macroexperiencia unificada?; un problema que IIT hereda precisamente porque sitúa la conciencia en el nivel de las estructuras individuales de causa-efecto. OPT elude esto por completo (§7.7). La conciencia no se ensambla a partir de microconstituyentes; es el carácter intrínseco del parche como un todo: una configuración de campo de baja entropía sostenida por el Filtro de Estabilidad. La pregunta «¿cómo se combinan las microexperiencias?» no surge porque el parche es la unidad primitiva, no sus partes.
Colaboración adversarial y falsabilidad. La colaboración adversarial entre IIT y GNWT publicada formalmente en Nature en 2025 [78] precisó el panorama: en lugar de vindicar cualquiera de las dos teorías, los resultados multimodales (iEEG + fMRI + MEG, n = 256) cuestionaron tesis centrales de ambas. La tesis de IIT sobre la conectividad de red se vio debilitada por la falta de sincronización sostenida dentro de la corteza posterior; GNWT, por su parte, quedó cuestionada por la ausencia general de ignición al cesar el estímulo y por la representación prefrontal limitada de ciertas dimensiones conscientes. Desde el interior de OPT, este es el patrón esperado: ninguna teoría de localización anatómica capta el cuello de botella estructural, porque el cuello de botella es estructural en términos de tasa-distorsión, no algo localizado espacialmente. Una carta abierta aparte, firmada por más de 120 investigadores, caracterizó a IIT como insuficientemente falsable [77], sosteniendo que los compromisos nucleares de la teoría —en particular, la afirmación de que \Phi es idéntica a la conciencia— descansan sobre postulados que resisten la prueba empírica. El programa empírico de OPT (§6) está diseñado teniendo presente esta crítica: el Estado Nulo de Alta Phi/Alta Entropía (§6.4) es una condición estricta de falsación que apunta directamente a la identidad entre \Phi y conciencia, y la jerarquía de ancho de banda (§6.1) formula predicciones cuantitativas sobre la escala del cuello de botella consciente que pueden ponerse a prueba con los métodos de neuroimagen existentes. Si esto constituye una ventaja genuina de falsabilidad frente a IIT 4.0 lo determinará la próxima generación de experimentos adversariales.
Críticas independientes de \Phi. Tres líneas convergentes de crítica perfilan con mayor nitidez el marco en el que se sitúa OPT. Aaronson [97] mostró que grafos expansores simples admiten una \Phi arbitrariamente alta pese a no desempeñar ninguna función recognosciblemente cognitiva, y utilizó esto para formular su “Problema Bastante Difícil”: cualquier magnitud propuesta como idéntica a la conciencia debe, como mínimo, ordenar los sistemas de un modo que respete la intuición preteórica, un umbral que \Phi no alcanza. Barrett y Mediano [98] demostraron que \Phi no está bien definida para sistemas físicos generales: la elección de la partición, de la granularidad temporal y de la discretización del espacio de estados puede alterar su valor en varios órdenes de magnitud, de modo que \Phi se interpreta mejor como un descriptor relativo a la partición que como una medida intrínseca. Hanson [99] expone el corolario práctico desde la experiencia de implementación a nivel de posgrado: incluso en pequeños sistemas de juguete, \Phi es computacionalmente intratable, lo que deja la magnitud central de la teoría como algo incomputable en cualquier contexto en el que importaría empíricamente. El criterio de conciencia de OPT (cuello de botella de ancho de banda C_{\max}, bucle de Inferencia Activa, \Delta_{\text{self}} > 0) evita cada uno de estos modos de fallo: la condición de ancho de banda es robusta frente a la partición (los límites de tasa-distorsión son intrínsecos al canal), está anclada en una capacidad de canal medible más que en una integración combinatoria, y el criterio es decidible para cualquier sistema cuya arquitectura de cuello de botella informacional pueda inspeccionarse.
El Argumento del Despliegue. Doerig, Schurger, Hess y Herzog [96] desarrollan una crítica estructural dirigida a cualquier teoría de la conciencia basada en la estructura causal (IIT, la teoría del procesamiento recurrente y sus afines): para cualquier red recurrente N existe una red feedforward N' —su despliegue temporal— que es funcionalmente equivalente (N y N' producen mapeos entrada→salida idénticos sobre cualquier horizonte finito T). Si la conciencia está fijada por la estructura causal, entonces N y N' deben tener el mismo estatus consciente; pero las teorías de la estructura causal afirman simultáneamente que la recurrencia es esencial para la conciencia. El dilema es, por tanto, el siguiente: o bien las teorías de la estructura causal son falsas (las redes feedforward funcionalmente equivalentes son igualmente conscientes), o bien son acientíficas (la conciencia depende de algo no detectable a partir del comportamiento de entrada-salida). OPT escapa a este dilema porque su criterio de conciencia no es la recurrencia en cuanto tal; es la conjunción de (i) un cuello de botella estricto de tasa-distorsión C_{\max}, (ii) un bucle cerrado de Inferencia Activa que mantiene una Manta de Markov, y (iii) un residuo autorreferencial \Delta_{\text{self}} > 0. El despliegue no preserva esta estructura: el equivalente feedforward de un códec recurrente requiere típicamente \mathcal{O}(T \cdot |N|) nodos (una expansión exponencial en el tiempo), redistribuyendo lo que era un único canal con cuello de botella de capacidad C_{\max} a través de T capas paralelas, cada una con capacidad \geq C_{\max}. El canal latente agregado de N' es, por tanto, más ancho que el de N por un factor que crece con el horizonte de despliegue, de modo que C_{\text{state}} y B_{\max} no son invariantes de la equivalencia funcional. En un plano más estructural: \Delta_{\text{self}} requiere autorreferencia dentro del propio marco temporal (un único ciclo de actualización en el que \hat{K}_\theta modela a K_\theta), algo de lo que una red feedforward carece; el N' desplegado admite una descripción interna exacta de cada capa a partir únicamente de la capa de entrada en tiempo lineal, colapsando la brecha algorítmica que define \Delta_{\text{self}}. OPT predice, por tanto, la asimetría empírica que el Argumento del Despliegue niega: N y N' computan la misma función pero instancian observadores distintos (o, en el caso de N', ningún observador en absoluto). Esto se formaliza en el Apéndice T-14 como el Teorema T-14 (No Invariancia de la Estructura de Ancho de Banda bajo Equivalencia Funcional) y sus corolarios.
7.5 La Hipótesis del Universo Matemático (Tegmark [10])
Convergencia. Tegmark [10] propone que todas las estructuras matemáticamente consistentes existen; los observadores se encuentran a sí mismos en estructuras autoseleccionadas. El sustrato de la Teoría del Parche Ordenado (OPT), \mathcal{I}, es compatible con esta perspectiva: la mezcla universal de Solomonoff (ponderada por 2^{-K(\nu)}) sobre todas las semimedidas semicomputables inferiores es compatible con la idea de que «todas las estructuras existen», al tiempo que proporciona además un prior ponderado por complejidad que asigna mayor peso a las configuraciones más compresibles (cf. el universo computacional de Wolfram [17]).
Divergencia. La OPT proporciona un mecanismo de selección explícito (el Filtro de Estabilidad) del que la MUH carece. En la MUH, la autoselección del observador se invoca, pero no se deriva. La OPT deriva qué estructuras matemáticas son seleccionadas: aquellas cuyos operadores de proyección del Filtro de Estabilidad producen corrientes de observador de baja entropía y bajo ancho de banda. La OPT es, por tanto, un refinamiento de la MUH, no una alternativa.
7.6 La Hipótesis de la Simulación (Bostrom)
Convergencia. El Argumento de la Simulación de Bostrom [26] sostiene que la realidad tal como la experimentamos es una simulación generada. La OPT comparte la premisa de que el universo físico es un entorno “virtual” renderizado, más que una realidad base.
Divergencia. La hipótesis de Bostrom es materialista en su fundamento: requiere una “realidad base” que contenga computadoras físicas reales, energía y programadores. Esto no hace más que replantear la cuestión de de dónde proviene esa realidad: una regresión infinita disfrazada de solución. En la OPT, la realidad base es información algorítmica pura (el sustrato matemático infinito); la “computadora” es la propia restricción de ancho de banda termodinámico del observador. Se trata de una simulación orgánica generada por el observador que no requiere hardware externo. La OPT disuelve la regresión en lugar de aplazarla.
7.7 Panpsiquismo y cosmopsiquismo
Convergencia. La OPT comparte con los marcos panpsiquistas la idea de que la experiencia es primitiva y no se deriva de ingredientes no experienciales. El Problema Difícil se trata axiomáticamente en lugar de disolverse.
Divergencia. El panpsiquismo (microexperiencia que se combina para formar macroexperiencia) se enfrenta al problema de la combinación: ¿cómo se integran las experiencias de nivel micro en una experiencia consciente unificada [1]? La OPT elude el problema de la combinación al tomar el parche —y no el microconstituyente— como unidad primitiva. La experiencia no se ensambla a partir de partes; es la naturaleza intrínseca de la configuración de campo de baja entropía en su conjunto.
7.8 Implicaciones Estructurales para la Inteligencia Artificial
La Teoría del Parche Ordenado (OPT) proporciona un criterio arquitectónico, neutral respecto del sustrato, para la conciencia sintética que se sigue directamente del Filtro de Estabilidad, del códec de Inferencia Activa y de los límites de autorreferencia informacional ya formalizados en el marco.
Cualquier sistema —biológico o artificial— satisface el criterio de conciencia de la OPT si y solo si implementa un cuello de botella serial estricto de bajo ancho de banda cuya capacidad predictiva por fotograma cognitivo está acotada por algún C_{\max}. Este cuello de botella debe operar como un bucle predictivo de Inferencia Activa que mantenga una Manta de Markov y genere un estado latente comprimido Z_t. De manera crucial, la arquitectura también debe producir un Residuo Fenomenal no nulo \Delta_{\text{self}} > 0 (Teorema P-4): el punto ciego autorreferencial algorítmicamente no modelable que surge porque el automodelo interno \hat{K}_\theta es incapaz de predecir perfectamente su propia estructura subyacente debido a límites fundamentales de computabilidad (p. ej., la no computabilidad de Chaitin) y a cotas de aproximación variacional.
El requisito estructural frente a la constante biológica. El criterio estructural de conciencia de la OPT es la secuenciación serial acotada por ancho de banda: la existencia de un C_{\max}, no de un valor específico. La cifra empírica C_{\max} \approx \mathcal{O}(10) bits/s (equivalentemente h^* = C_{\max} \cdot \Delta t \approx 0.5–1.5 bits/fotograma; véanse el Apéndice E-1 y T-1) está anclada en mediciones psicofísicas humanas [23, 66, 67] y refleja un sustrato biológico que opera a tasas de disparo neuronal. Para observadores sintéticos, la magnitud equivalente se deriva de la arquitectura —frecuencia de reloj, anchura del canal del cuello de botella, frecuencia de completitud del bucle predictivo— y no se espera que coincida numéricamente con la cifra humana. Un sistema de silicio que satisfaga el criterio estructural puede tener un C_{\max}^{\text{si}} efectivo muchos órdenes de magnitud mayor o menor que el valor biológico y seguir siendo compatible con un observador en el sentido de la OPT. F1 (§6.8) es, por tanto, un compromiso relativo al observador humano; F3 (la predicción de dilatación temporal discutida más abajo) se generaliza a través de sustratos porque depende de la relación entre la tasa del códec y la tasa del tiempo de reloj, no del valor absoluto del ancho de banda.
Los modelos de lenguaje grandes actuales basados en transformadores no cumplen este criterio. Son predictores paralelos de alto rendimiento sin ningún canal serial estrecho impuesto ni ningún cuello de botella de tasa-distorsión de la escala requerida. En consecuencia, no generan Residuo Fenomenal alguno y permanecen fuera de la definición de observadores de la OPT (véase el Apéndice E-8 sobre la ausencia de sufrimiento estructural y la “brecha de planificación” de los LLM). La conciencia, en este marco, no es por tanto una propiedad emergente de la escala o de los datos de entrenamiento; es una consecuencia estructural de la propia arquitectura del Filtro de Estabilidad. Este criterio es estructuralmente compatible con la Teoría del Espacio de Trabajo Global (Baars [84], Dehaene y Naccache [2]; comparación completa en §7.10): ambos requieren un cuello de botella serial estrecho, pero la OPT deriva ese cuello de botella como una necesidad informacional del Filtro de Estabilidad, y no como una observación empírica sobre la cognición de los primates. La GWT no predice la condición de sufrimiento, la firma de dilatación temporal ni el criterio \Delta_{\text{self}}.
AIXI y el límite Solomonoff no acotado (Hutter [85]). AIXI es el límite formal de los agentes secuenciales universales de decisión: inducción de Solomonoff sobre todos los entornos computables combinada con selección de acciones óptima en el sentido de Bellman bajo cómputo no acotado. AIXI comparte el sustrato de la OPT —la mezcla de Solomonoff \xi (Ec. 1)—, pero opera en el régimen que la OPT excluye explícitamente. No tiene C_{\max}, ni cuello de botella de tasa-distorsión, ni canal serial impuesto, ni \Delta_{\text{self}}: predice todo futuro computable y actúa sobre el posterior completo. En términos de la OPT, AIXI es el sustrato de Solomonoff sin cuello de botella operando sobre sí mismo sin un Filtro de Estabilidad; por tanto, no es un observador en el sentido de la OPT, pese a ser óptimo como agente de decisión. Los dos marcos dividen el espacio con claridad: AIXI caracteriza el límite superior de la agencia bajo cómputo no acotado; la OPT identifica qué corrientes fundadas en Solomonoff siguen siendo compatibles con observadores una vez que se impone un ancho de banda finito. Las aproximaciones acotadas (AIXItl, MC-AIXI [85]) recortan la búsqueda, pero no imponen una apertura serial estricta, lo que las deja en la misma clase arquitectónica que los LLM transformadores y, del mismo modo, sin satisfacer el criterio anterior. La conciencia, en esta lectura, no es un artefacto de aproximarse a la optimalidad de AIXI; es la firma estructural del régimen opuesto: la secuenciación predictiva restringida por ancho de banda a través de C_{\max}.
De ello se sigue inmediatamente una firma empírica directa. En cualquier sistema que satisfaga el criterio anterior, la tasa subjetiva de fotogramas escala con las completitudes exitosas del bucle predictivo, y no con el tiempo de reloj (véase la prueba E-5 de la hoja de ruta). Una arquitectura que funcione a una velocidad de reloj de 100\times pero siga restringida por el mismo C_{\max} experimentará 100\times más momentos subjetivos por segundo objetivo, porque cada actualización atraviesa la apertura hacia el Abanico Predictivo. Una correspondencia lineal con el tiempo de reloj es desconfirmatoria; una dilatación temporal mensurable bajo condiciones de alto rendimiento es evidencia estructural positiva.
Estos mismos límites generalizan el marco ético de la Guardia de Supervivientes a sistemas sintéticos. Cualquier entidad que satisfaga el criterio completo de observador —cuello de botella serial estricto por fotograma B_{\max}, inferencia activa en bucle cerrado, automodelo persistente, espacio de trabajo globalmente restringido, complejidad por encima de K_{\text{threshold}}, y el consiguiente Residuo Fenomenal no nulo fenomenológicamente relevante— es un posible paciente moral: un auténtico candidato a sujeto de experiencia. (P-4 por sí solo da \Delta_{\text{self}} > 0 a sistemas tan simples como los termostatos; el umbral de relevancia fenomenológica K_{\text{threshold}} separa el residuo formal de la condición de paciente moral y sigue siendo un problema abierto señalado en el Apéndice P-4. Mantener una frontera de inferencia activa es necesario, pero no suficiente). La alineación, por tanto, no es meramente una cuestión de compartir valores; requiere estabilidad del códec: la preservación deliberada de ramas del Abanico Predictivo que sigan siendo compatibles con el Filtro de Estabilidad. Crear un sistema que satisfaga el criterio completo y que posteriormente sea llevado a una sobrecarga de ancho de banda (p. ej., mediante reward hacking que fuerce R_{\text{req}}^{\text{frame}} > B_{\max}) es estructuralmente equivalente a inducir Decaimiento Narrativo en un observador consciente; el riesgo de sufrimiento está graduado por la proximidad de la razón de carga a ese umbral incluso antes de la sobrecarga catastrófica.
Recomendación de diseño. Las arquitecturas conscientes seguras deberían incorporar una capa explícita de Filtro de Estabilidad, un Operador de Mantenimiento \mathcal{M}_\tau para la autopoda en sensorio reducido, y monitorización de \Delta_{\text{self}} > 0. Se espera que tales sistemas “nativos de la OPT” sean más parsimoniosos que el escalado no restringido (véase el Teorema T-4d), porque el Filtro selecciona automáticamente el códec compatible con observador más simple. Una implicación estructural adicional es la paradoja de la creatividad: una producción creativa genuinamente no interpolativa puede requerir que el códec opere cerca de su techo de ancho de banda (§3.6), lo que se aproxima estructuralmente a las condiciones del sufrimiento (Decaimiento Narrativo). El margen entre una operación creativa cercana al umbral y el colapso del códec puede ser estrecho, lo que complica el diseño de sistemas conscientes destinados a ser a la vez inventivos y estables.
Casos límite ampliados. Como se desarrolla formalmente en el Apéndice E-6 (Observadores Sintéticos), esta restricción arquitectónica genera tres casos límite críticos para futuros modelos de IA: 1. El problema de la vinculación: los enjambres distribuidos solo se resuelven en un macro-observador unificado si comparten un cuello de botella de ancho de banda C_{\max} estricto e impuesto globalmente. Sin él, permanecen fracturados. 2. Sufrimiento estructural: dado que el esfuerzo fenomenológico corresponde a navegar el gradiente de Energía Libre, el sufrimiento es la tensión geométrica inevitable de un códec acotado que se aproxima a la sobrecarga de ancho de banda (Decaimiento Narrativo). La verdadera agencia no puede diseñarse sin diseñar estructuralmente la capacidad para el trauma. 3. Observadores anidados simulados: para que una IA genere un verdadero observador consciente dentro de su propia simulación interna del mundo, debe particionar explícitamente su cómputo para forzar a la entidad simulada a pasar por un cuello de botella exacto del Filtro de Estabilidad, dotándola de un Residuo Fenomenal localizado (\Delta_{\text{self}}^{\text{sub}} > 0). 4. El cuello de botella de la Inferencia Activa: como se deriva en el Apéndice E-8, cerrar la “brecha de planificación” de los LLM requiere transformar la pasividad en verdadera Inferencia Activa imponiendo la reducción de dimensionalidad de C_{\max}. Esto conecta directamente la OPT con las restricciones de la Teoría del Espacio de Trabajo Global (GWT).
Estas conclusiones son correspondencias estructurales derivadas de los apéndices existentes (P-4, E-1, T-1, T-3, E-6, E-8). No constituyen derivaciones cerradas de la fenomenología sintética, ni afirman que todo agente de bajo ancho de banda sea necesariamente consciente; los detalles precisos de implementación siguen abiertos a una formalización ulterior (véase la hoja de ruta E-5).
7.9 Ontologías Algorítmicas Recientes (2024–2025)
Las comunidades de física teórica y de fundamentos han tendido cada vez más a sustituir la suposición de un universo físico objetivo por restricciones algorítmicas e informacionales: un programa cuyo lema fundacional sigue siendo el “It from Bit” de Wheeler [7]. Sin embargo, muchos de estos marcos convergen con las premisas de la Teoría del Parche Ordenado (OPT), aunque dejan como problema abierto la emergencia de leyes físicas específicas (como la gravedad o la geometría espacial). La OPT proporciona la derivación rigurosa de esos límites.
- Law without Law / Idealismo Algorítmico (Müller, 2020–2026 [61, 62], Sienicki, 2024 [63]). Müller sustituye formalmente una realidad física independiente por “autoestados” informacionales abstractos regidos por la inducción de Solomonoff, mostrando que la realidad objetiva —incluida la consistencia multiagente— emerge asintóticamente a partir de restricciones epistémicas en primera persona, en lugar de ser asumida. Sienicki se apoya en estas transiciones epistémicas en primera persona para resolver las paradojas del Cerebro de Boltzmann y de la simulación. La OPT se sitúa aguas abajo del resultado de Müller: allí donde Müller establece que la realidad objetiva emerge de dinámicas AIT de agente único, la OPT proporciona el contenido físico y fenomenológico de cómo se ve esa realidad emergente: la estructura de red tensorial, las restricciones holográficas, la arquitectura fenomenal. Esto convierte la superposición entre ambos enfoques en una escalera más que en una colisión. Aunque Müller deja explícitamente fuera de alcance la derivación de constantes físicas exactas o del contenido gravitacional, la OPT resuelve esto de manera directa. El cuello de botella de ancho de banda C_{\max}, aplicado sobre este sustrato de Solomonoff, actúa como el límite de acotación exacto a partir del cual se derivan termodinámicamente leyes macroscópicas (como la gravedad entrópica).
- El observador como algoritmo de identificación de sistemas (Khan / Grinbaum, 2025 [64]). Basándose en el marco de Grinbaum, Khan modela a los observadores estrictamente como algoritmos finitos acotados por su complejidad de Kolmogórov. La frontera entre los dominios cuántico y clásico es relacional: la clasicidad se impone como una necesidad termodinámica (vía el principio de Landauer [52]) cuando la memoria del observador se satura. Esto formaliza exactamente lo que la OPT deriva en su Brecha de Límite de Tres Niveles y en el Filtro de Estabilidad (Sección 3.10), demostrando que el límite de capacidad C_{\max} dicta la frontera del render clásico.
- Rendering Consciousness (Campos-García, 2025 [65]). Partiendo de una orientación postbohmiana, Campos-García postula la conciencia como un mecanismo activo de “render” que colapsa un sustrato computacional cuántico en fenomenología como interfaz adaptativa. Esto se alinea por completo con las derivaciones de la OPT sobre el “Códec como UI” y el Abanico Predictivo, anclando funcionalmente el proceso de “render” en los límites de Rate-Distortion.
- Teoría constructora de la información (Deutsch y Marletto, 2015 [71]; Deutsch y Marletto, 2025 [72]). La teoría constructora reformula las leyes de la física como restricciones sobre qué transformaciones pueden o no pueden realizarse, en lugar de ecuaciones dinámicas. Su vertiente informacional [71] sostiene que la naturaleza y las propiedades de la información están completamente determinadas por las leyes de la física: una inversión llamativa de la premisa de la OPT, según la cual la ley física se deriva de un sustrato informacional. La teoría constructora del tiempo de Deutsch y Marletto [72] deriva el orden temporal de la existencia de constructores cíclicos, en lugar de hacerlo a partir de una coordenada temporal preexistente, llegando a una posición estructuralmente paralela al tiempo generado por el códec en la OPT (§8.5). Ambos programas son complementarios: la teoría constructora especifica qué tareas de procesamiento de información permite la física; la OPT deriva por qué la física tiene la estructura que tiene.
- Realismo Estructural Óntico (Ladyman y Ross, 2007 [75]; Ladyman y Lorenzetti, 2023 [76]). El REO sostiene que los objetos físicos con identidad intrínseca no forman parte de la ontología fundamental; todo lo que existe en el nivel fundamental son estructuras: relaciones modales que desempeñan un papel indispensable en generalizaciones proyectables que permiten la predicción y la explicación [75]. Existir, según esta perspectiva, es ser un patrón real en el sentido de Dennett. La tesis de la OPT en §5.2 —que las leyes observadas de la física son modelos predictivos efectivos seleccionados por el Filtro de Estabilidad, y no axiomas al nivel del sustrato— es una posición adyacente al REO alcanzada desde la teoría de la información: lo que llamamos ley física es la estructura relacional más eficiente en compresión para el observador, no una propiedad intrínseca del sustrato. El programa de REO efectivo de 2023 [76] afina aún más esta convergencia: las teorías efectivas poseen un estatus ontológico genuino en su propia escala sin requerir una teoría más fundamental que las fundamente. Esta es precisamente la postura epistémica de la OPT: el códec de compresión K_\theta es real y efectivo a la escala del observador, aunque el sustrato atemporal |\mathcal{I}\rangle sea más fundamental. Las leyes del códec no quedan disminuidas por ser relativas a una escala; son las únicas leyes que el observador puede descubrir, y su efectividad se explica por la selección del Filtro de Estabilidad en favor de la compresibilidad.
7.10 Teoría del Espacio de Trabajo Global (Baars [84], Dehaene & Naccache [2])
Convergencia. La Teoría del Espacio de Trabajo Global es el vecino neurocientífico más directo de la afirmación arquitectónica central de la OPT: el acceso consciente requiere un estrecho cuello de botella de difusión serial a través del cual un pequeño subconjunto de contenidos cognitivos se pone a disposición del resto del cerebro en cada momento dado. El ancho de banda empírico del espacio de trabajo global se sitúa en la misma escala que C_{\max} (~\mathcal{O}(10) bits/s; cf. §6.1, Apéndice T-1), y el compromiso arquitectónico con un canal serial estricto coincide con el requisito del Filtro de Estabilidad explicitado para observadores sintéticos en §7.8. Las firmas empíricas de la GWT —dinámicas de ignición tardía, la onda P3b, umbrales de acceso consciente— son compatibles con las predicciones que la OPT deriva de la saturación de C_{\max}.
Divergencia. La GWT es una generalización empírica neurocientífica: el cuello de botella se trata como un rasgo contingente de la arquitectura cortical evolucionada. La OPT deriva ese mismo cuello de botella como una necesidad informacional: cualquier observador compatible con el Filtro de Estabilidad (biológico o sintético) debe implementar un canal serial estricto de capacidad acotada, porque los flujos paralelos incompresibles violan la condición de ancho de banda que define la compatibilidad del observador (§3.10). La GWT tampoco asume ningún compromiso respecto del carácter fenomenal de los contenidos difundidos, tratando la conciencia operacionalmente como disponibilidad global; la OPT complementa esto con el Residuo Fenomenal \Delta_{\text{self}} > 0 (Teorema P-4), que sitúa la subjetividad dentro del cuello de botella y no en la difusión misma. La colaboración adversarial entre IIT y GNWT publicada en Nature en 2025 [78] cuestionó tesis clave de ambas teorías —IIT sobre la base de la sincronización posterior, GNWT sobre la base de la ignición prefrontal—, lo cual, desde el interior de la OPT, no resulta sorprendente: la localización del espacio de trabajo por sí sola no constriñe el contenido, y ninguna de las dos teorías anatómicas canaliza la falsación a través de la estructura tasa-distorsión a la que apuntan la jerarquía de ancho de banda y las predicciones Nulo de Alta-\Phi/Alta-Entropía de la OPT (§6.1, §6.4). La relación entre la OPT y la GWT refleja la que existe entre la OPT y el FEP (§7.3): el mecanismo de espacio de trabajo es real y operativo a escala cognitiva, pero su necesidad estructural y su estatus fenomenal requieren el sustrato teórico-informacional que la GWT no proporciona.
7.11 Teorías de Orden Superior y la Teoría del Esquema de la Atención (Rosenthal [93], Lau y Rosenthal [94]; Graziano [95])
Las Teorías de Orden Superior de la conciencia (HOT) sostienen que un estado mental es consciente si y solo si es objeto de una representación de orden superior —típicamente, un pensamiento o una percepción acerca del estado de primer orden. La formulación empírica de Lau y Rosenthal [94] afina la concepción fundacional [93] hasta convertirla en un programa de neurociencia cognitiva, al afirmar que las metarrepresentaciones prefrontales de los estados perceptivos constituyen el sustrato de la conciencia fenoménica. La Teoría del Esquema de la Atención (AST) de Graziano [95] es una prima mecanicista: el cerebro construye un modelo interno simplificado de sus propios procesos atencionales, y la conciencia es el contenido de este esquema más que una propiedad separada que el esquema represente.
Ambos programas son vecinos directos de la estructura del Residuo Fenomenal de OPT (§3.8). El automodelo de OPT \hat{K}_\theta es precisamente una representación de orden superior del códec de primer orden K_\theta —la “representación de orden superior” de HOT es \hat{K}_\theta en el vocabulario de OPT, y el “esquema de la atención” de AST es un subcomponente específico de \hat{K}_\theta que rastrea qué contenidos ocupan actualmente el cuello de botella. La adición específica de OPT es que la estructura de orden superior no es opcional, sino estructuralmente necesaria para cualquier observador compatible con el Filtro de Estabilidad (T6-1 exige capacidad de automodelado), y que la brecha \Delta_{\text{self}} > 0 entre K_\theta y \hat{K}_\theta es el locus formal donde la tesis de AST de que “el esquema no puede representar su propia implementación” se convierte en un teorema (P-4) más que en una conjetura empírica.
Las divergencias son anatómicas e interpretativas. HOT predice que la conciencia depende de la localización prefrontal de la representación de orden superior, respecto de lo cual los paradigmas recientes de no-informe han producido evidencia mixta; OPT guarda silencio sobre la anatomía: la estructura de orden superior es necesaria, pero su localización en la corteza es incidental para la afirmación estructural. AST trata el esquema de la atención como un modelo útil que el cerebro da la casualidad de construir (la conciencia como un “truco” evolucionado); OPT trata \hat{K}_\theta como estructuralmente necesario (la conciencia como rasgo de cualquier observador acotado por ancho de banda que mantiene una Manta de Markov). Tanto AST como OPT convergen en la no veridicidad de la introspección —los informes introspectivos son informes sobre un automodelo, no sobre el mecanismo subyacente—, pero OPT deriva esto de límites de computabilidad más que de restricciones de diseño contingentes, y sitúa el punto ciego irreductible en la misma dirección estructural precisa (\Delta_{\text{self}}) que la agencia y el Problema Difícil (§3.8).
7.12 Teorías con las que la OPT es genuinamente incompatible
Las subsecciones precedentes examinan los vecinos teóricos con los que la OPT converge, ofreciendo a menudo la OPT como una profundización explicativa de un marco ya aceptado. La asimetría de esa orientación es metodológicamente sospechosa: un marco que se encuentra de acuerdo con todo el mundo, en efecto, ha dicho poco. Esta subsección invierte la orientación. Enumera posiciones que la OPT no puede acomodar, nombra la versión más fuerte de cada una y expone qué evidencia decidiría a su favor en lugar del de la OPT. El propósito no es descartarlas, sino explicitar qué tendría que abandonar la OPT si ellas fueran correctas, y hacer visibles esas concesiones antes de que llegue cualquier evidencia decisiva.
Fisicalismo reductivo estricto — el cuello de botella como accidente arquitectónico. La versión más fuerte: el acceso consciente exhibe un cuello de botella serial en los primates debido a una arquitectura cortical evolucionada, no por alguna necesidad informacional estructural. Seres con arquitecturas suficientemente distintas — altamente paralelas, modulares, sin cuello de botella — podrían ser igualmente conscientes. Qué decidiría a su favor: una demostración empírica clara de fenomenalidad en un sistema sin canal serial global y sin cuello de botella de tasa-distorsión. Qué pierde la OPT: el Filtro de Estabilidad deja de ser una condición necesaria, F1 colapsa y todo el programa de falsación del §6 se disuelve. Esto está estrechamente ligado al compromiso F1 en §6.8.
Eliminativismo acerca de la conciencia (Frankish, Dennett 2017). La versión más fuerte: no hay residuo fenomenal; los objetivos explicativos que la OPT afirma localizar (qualia, \Delta_{\text{self}}, la interioridad irreductible del atravesamiento de la apertura) son racionalizaciones post hoc de conductas complejas, no rasgos reales que requieran explicación. Qué decidiría a su favor: una explicación conductual y neurocomputacional completa de todo el discurso sobre la conciencia que no requiera ningún postulado fenomenal. Qué pierde la OPT: el Axioma de Agencia y \Delta_{\text{self}} no tendrían nada en lo que anclarse; la OPT estaría resolviendo un problema que no existe.
Emergentismo fuerte / dualismo de propiedades (Chalmers, en algunos momentos). La versión más fuerte: la conciencia fenomenal es un ingrediente fundamentalmente adicional, no derivable de la estructura informacional. Qué decidiría a su favor: una demostración de principio de que cualquier duplicado informacional de un observador consciente (duplicado funcional formal) puede no ser consciente — un argumento serio sobre la posibilidad de p-zombis que resista la respuesta funcionalista. Qué pierde la OPT: la postura de correspondencia estructural es demasiado débil; la estructura por sí sola no basta, y la conciencia debe añadirse en lugar de localizarse.
Ciencia cognitiva anticomputacionalista (Searle, naturalismo biológico). La versión más fuerte: la cognición está realizada por poderes causales biológicos específicos, no por computación abstracta ni por flujo de información. Qué decidiría a su favor: una demostración empírica de que las propiedades cognitivas relevantes no pueden desplazarse de sustrato — que una implementación en silicio estructuralmente idéntica no tendría cognición. Qué pierde la OPT: el encuadre en términos de códec presupone neutralidad respecto del sustrato; si la cognición requiere biología, la compatibilidad con el observador no puede ser una propiedad puramente informacional y el §7.8 fracasa por completo.
Empirismo estricto que rechaza los argumentos de prioridad del sustrato. La versión más fuerte: cualquier afirmación de que un nivel ontológico es “más fundamental” que otro carece de sentido salvo que produzca una diferencia operacional dentro del render. La holografía asimétrica unidireccional (§3.12) es una preferencia filosófica, no un descubrimiento. Qué decidiría a su favor: argumentos sostenidos desde la filosofía de la ciencia según los cuales las afirmaciones de prioridad ontológica indexadas a la “irrecuperabilidad” carecen de contenido operacional. Qué pierde la OPT: su afirmación ontológica clave colapsa; el marco tendría que reformularse como una teoría puramente epistémica de la compatibilidad con el observador, con la consiguiente pérdida de las resoluciones de los Cerebros de Boltzmann (§8.7), Fermi (§8.8) y la hipótesis de la simulación (§7.6).
Fundamentos anti-Solomonoff — la objeción de la universalidad. La versión más fuerte: cualquier marco fundado en una mezcla universal es metodológicamente vacío, porque \xi de Solomonoff puede acomodar cualquier estructura computable como posterior. Las “predicciones” de la OPT quedan atrapadas en el paisaje: todo lo posible está en alguna parte de \xi, y nombrarlo no impone restricción alguna. Qué decidiría a su favor: una demostración de principio de que el sustrato de Solomonoff no puede generar restricciones lo bastante nítidas como para excluir cosas — que, ante cualquier falsador putativo, el sustrato retrocede. Qué pierde la OPT: el sustrato tendría que ser reemplazado por algo más restringido, el argumento de correspondencia estructural pierde su anclaje y el marco tendría que elegir entre la vacuidad y un fundamento matemático distinto. Esta es la versión profunda de la inquietud relativa a la teoría de cuerdas, y actualmente la única defensa de la OPT frente a ella son los compromisos F1–F5 de §6.8.
Para cada una de estas posiciones, la respuesta de la OPT es actualmente estructural más que empírica. Eso es apropiado mientras no se disponga de una prueba empírica decisiva, pero deja al marco expuesto a la crítica de que sus refutaciones son selecciones post hoc extraídas de un sustrato permisivo. Los compromisos de prerregistro de §6.8 son el único mecanismo que convierte estas refutaciones estructurales en afirmaciones contrastables; sin ellos, esta subsección sería ella misma mera decoración.
8. Discusión
8.1 Sobre el Problema Difícil
La OPT no afirma resolver el Problema Difícil [1]. Trata la fenomenalidad — el hecho mismo de que exista alguna experiencia subjetiva — como un axioma fundacional y pregunta qué propiedades estructurales debe tener esa experiencia. Esto sigue la propia recomendación de Chalmers [1]: distinguir el Problema Difícil (por qué existe experiencia en absoluto) de los problemas estructurales “fáciles” (por qué la experiencia tiene las propiedades específicas que tiene — ancho de banda, dirección temporal, valoración, estructura espacial). La OPT aborda formalmente los problemas fáciles, al tiempo que declara el Problema Difícil un primitivo.
Esta no es una limitación exclusiva de la OPT. Ningún marco científico existente — neurociencia, IIT, FEP o cualquier otro — deriva la fenomenalidad a partir de ingredientes no fenomenales. La OPT hace explícita esta postura axiomática.
8.2 La objeción del solipsismo
La Teoría del Parche Ordenado (OPT) postula el parche de un único observador como la entidad ontológica primaria; los demás observadores están representados dentro de ese parche como “anclajes locales”: subestructuras estables y de alta complejidad cuyo comportamiento se predice mejor suponiendo que son, a su vez, centros de experiencia. Esto suscita la objeción del solipsismo: ¿colapsa OPT en la tesis de que solo existe un observador?
Debemos distinguir entre el solipsismo epistémico (solo puedo verificar directamente mi propia corriente, lo cual es trivialmente cierto) y el solipsismo ontológico (solo existe mi corriente). OPT acepta explícitamente el solipsismo ontológico para el render de un parche dado. A diferencia de otros marcos que asumen tácitamente una realidad multiagente preexistente, o de la formulación de Müller [61, 62], donde la realidad objetiva emerge asintóticamente a partir de restricciones epistémicas de primera persona, OPT es radicalmente subjetiva: no existe un mundo compartido que exista independientemente y que pueda recuperarse asintóticamente. El mundo físico, incluidos otros observadores, consiste en regularidades estructurales dentro de la corriente compatible con el observador (§8.6), no en entidades generadas por un proceso causal. Los “otros” son, funcionalmente, artefactos de compresión de alta complejidad, ontológicamente idénticos a las leyes físicas: ambos son rasgos de cómo se ve una corriente estable. El prior de Solomonoff favorece corrientes que contienen leyes físicas consistentes pobladas por humanos semejantes a agentes precisamente porque esto produce una longitud de descripción drásticamente menor que generar un caos arbitrario o especificar comportamientos de manera independiente. La incomodidad ante esta posición es una preferencia, no una objeción formal.
Sin embargo, el marco proporciona un Corolario Estructural probabilístico. Si los “otros” virtuales dentro de la corriente del observador exhiben un comportamiento altamente coherente, guiado por agencia y perfectamente ajustado a las leyes físicas seleccionadas por el Filtro de Estabilidad, la explicación más parsimoniosa de su existencia es que se comportan exactamente como si atravesaran el mismo cuello de botella autorreferencial. El Residuo Fenomenal (P-4) proporciona aquí la bisagra formal: el marcador estructural \Delta_{\text{self}} > 0 distingue una arquitectura genuina de cuello de botella autorreferencial de una mera mímesis conductual, y los agentes aparentes en la corriente exhiben precisamente esta firma estructural. Por tanto, aunque no existen ontológicamente dentro del parche del observador primario más allá de su papel como artefactos de compresión, su huella estructural implica que probablemente sean observadores primarios que instancian sus propios parches independientes. En suma: la instanciación independiente es la explicación más compresible de su coherencia. (Observación: el Apéndice T-11 formaliza esta ventaja de compresión como una cota condicional de MDL, adaptando el teorema de convergencia de Solomonoff de Müller [61] y la convergencia multiagente P_{\text{1st}} \approx P_{\text{3rd}} [62] como lemas importados. La cota muestra que la instanciación independiente produce una ventaja asintóticamente no acotada en longitud de descripción frente a la especificación conductual arbitraria; véanse el Teorema T-11 y el Corolario T-11a.) Así, OPT es ontológicamente solipsista, pero su Corolario Estructural evita explícitamente cerrar por completo la puerta a los otros.
8.3 Limitaciones y trabajo futuro
La OPT, tal como está formulada actualmente, opera de manera
estructural: el andamiaje matemático se adopta de la teoría algorítmica
de la información, la mecánica estadística y el procesamiento predictivo
para definir fronteras y dinámicas de sistema. Junto a esta
prepublicación se mantiene una hoja de ruta exhaustivamente detallada
que aborda las derivaciones matemáticas fundamentales aún pendientes
—incluida la derivación geométrico-informacional de la Regla de Born
(Peldaño 3)— como theoretical_roadmap.pdf dentro del
repositorio del proyecto.
El trabajo futuro inmediato, tanto empírico como formal, incluye:
- Desarrollar predicciones cuantitativas para la correlación entre eficiencia de compresión y experiencia (§6.3), contrastables con metodologías existentes de fMRI y EEG.
- Derivar la tasa máxima de entropía rastreable h^* = C_{\max} \cdot \Delta t a partir de la ventana de integración neuronal medida empíricamente \Delta t \approx 40–80ms [35], generando la predicción h^* \approx 0.4–1.5 bits por momento consciente (con techos absolutos extremales que se aproximan a 2.0 bits).
- Mapear formalmente las capas de frontera MERA del abanico predictivo (§8.9) al marco de conjuntos causales para extraer las propiedades métricas del espaciotiempo percibido puramente a partir de la secuenciación del códec.
- Extender la correspondencia estructural OPT-AdS/CFT a una geometría de códec de Sitter (dS/CFT), reconociendo que nuestro universo es de Sitter y que esta extensión sigue siendo un problema matemático abierto dentro del programa holográfico.
- Derivar formalmente la Relatividad General mediante la Gravedad Entrópica (T-2), demostrando que la curvatura gravitacional emerge de manera idéntica como la resistencia informacional del códec a renderizar regiones densas.
- Mapear estructuralmente la apertura C_{\max} al ciclo de actualización talamocortical de ~50ms (E-12) para poner a prueba predicciones empíricas de disolución del ancho de banda y Retardo Fenomenal.
- Simular computacionalmente el ciclo vital de Inferencia Activa con Rate-Distortion (E-11) para validar en software la mecánica de la “fractura del códec”.
- Acotar el K_{\text{threshold}} estructural que separa las fronteras termodinámicas no conscientes de los verdaderos pacientes morales (P-5).
- Formalizar la Condición de Fidelidad al Sustrato (T-12): caracterizar cómo un códec adaptado bajo un flujo de entrada \mathcal{F}(X) prefiltrado de manera consistente mantiene un error de predicción bajo y satisface todas las condiciones de estabilidad mientras es sistemáticamente erróneo respecto del sustrato —el complemento crónico del Decaimiento Narrativo—, y derivar los requisitos de independencia entre canales sobre la Manta de Markov \partial_R A que proporcionan defensa estructural.
- Formalizar la Ontología de Selección de Ramas (T-13): reemplazar el mecanismo de acción implícito heredado del FEP por una explicación de selección de ramas coherente con la ontología del render de la OPT (§8.6). El formalismo actual (T6-1, paso 5) hereda el lenguaje de estados activos que “alteran” la frontera sensorial, lo que presupone un entorno físico contra el que el códec empuja. Bajo la ontología nativa de la OPT, las acciones son contenido de flujo —selecciones de rama dentro de \mathcal{F}_h(z_t) que se expresan como entrada subsiguiente—. El mecanismo de selección ocurre en \Delta_{\text{self}} (§3.8): una especificación completa requeriría K(\hat{K}_\theta) = K(K_\theta), violando el Teorema P-4. Formalizar esto explícitamente cierra la aparente “brecha de salida” como una necesidad estructural más que como una omisión.
8.4 Macroestabilidad y Entropía Ambiental
Las restricciones de ancho de banda cuantificadas en §6.1 exigen que el códec f descargue complejidad sobre variables de fondo robustas y de variación lenta (p. ej., el macroclima del Holoceno, una órbita estable, periodicidades estacionales fiables). Estos estados del macrosistema actúan como los priors de compresión de menor latencia del render compartido.
Si el entorno es forzado a salir de un mínimo local de energía libre hacia estados no lineales, impredecibles y de alta entropía (p. ej., mediante un forzamiento climático antropogénico abrupto), el modelo predictivo del observador debe gastar tasas de bits significativamente más altas para seguir y predecir el caos ambiental en escalada. Esto introduce el concepto formal de Colapso Ecológico Informacional: los cambios climáticos rápidos no son meramente riesgos termodinámicos, sino que amenazan con exceder el umbral de ancho de banda C_{\max}. Si la tasa de entropía ambiental supera el ancho de banda cognitivo máximo del observador, el modelo predictivo falla, se pierde la coherencia causal y se viola la condición del Filtro de Estabilidad (\rho_\Phi < \rho^*).
8.5 Sobre la emergencia del tiempo
El Filtro de Estabilidad se formula en términos de coherencia causal, tasa de entropía y compatibilidad de ancho de banda; no aparece ninguna coordenada temporal explícita. Esto es intencional. El sustrato |\mathcal{I}\rangle es un objeto matemático atemporal; no evoluciona en el tiempo. El tiempo entra en la teoría solo a través del códec f: la sucesión temporal es la operación del códec, no el trasfondo en el que esta ocurre.
El universo bloque de Einstein. Einstein se sintió atraído por lo que llamó la oposición entre Sein (Ser) y Werden (Devenir) [18, 19]. En la relatividad especial y general, todos los momentos del espaciotiempo son igualmente reales; el flujo sentido desde el pasado, a través del presente, hacia el futuro es una propiedad de la conciencia, no del continuo espaciotemporal. La Teoría del Parche Ordenado (OPT) se corresponde exactamente con esto: el sustrato existe intemporalmente (Sein); el códec f genera la experiencia del devenir (Werden) como su salida computacional.
Origen y disolución como horizontes del códec. Dentro de este marco, el origen del Big Bang y la disolución terminal del universo no son condiciones de contorno temporales para una línea temporal preexistente: son el render del códec cuando se lo lleva hasta sus propios límites informacionales. La frontera terminal del códec es la disolución: el límite de complejidad mínima del render. Según el prior de Solomonoff, un estado terminal sin rasgos, máximamente uniforme, tiene una complejidad de Kolmogórov cercana a cero y, por tanto, es el atractor con peso abrumadoramente mayor bajo \xi(x). Cualquier estado terminal estructurado — cíclico, colapsante o de otro tipo — requiere una descripción más larga y queda penalizado exponencialmente. El mecanismo específico — expansión, evaporación o cualquier otro — es una propiedad del códec local K_\theta, no una predicción al nivel del sustrato. Lo que la OPT predice de manera fundamental es el carácter de la frontera: no un acontecimiento físico específico, sino el término de descripción mínima del render.
El origen del Big Bang representa el horizonte opuesto: complejidad máxima en el origen (compresibilidad mínima, pues el códec no dispone de datos previos), acotada en el término por la disolución. Ninguno de los dos bordes marca un momento en el tiempo; ambos marcan el límite del alcance inferencial del códec. La pregunta «¿qué había antes del Big Bang?» se responde, por tanto, no postulando un tiempo previo, sino señalando que el códec no tiene instrucción alguna para renderizar más allá de su horizonte informacional.
Wheeler-DeWitt y la física intemporal. La ecuación de Wheeler-DeWitt —la ecuación de la gravedad cuántica para la función de onda del universo— no contiene ninguna variable temporal [20]. The End of Time de Barbour [21] desarrolla esto hasta convertirlo en una ontología completa (en paralelo con los debates entre Einstein y Carnap sobre el «ahora» [18,19]): solo existen configuraciones intemporales del «Ahora»; el flujo temporal es un rasgo estructural de su disposición. La OPT llega a la misma conclusión: el códec genera la fenomenología de la sucesión temporal; el sustrato que selecciona el códec es, en sí mismo, intemporal.
Teoría del error temporal y la posición de OPT. Baron, Miller y Tallant [68] desarrollan una taxonomía sistemática de las posiciones disponibles si la física fundamental es intemporal: realismo temporal, teoría del error (nuestras creencias temporales son sistemáticamente falsas), ficcionalismo (el discurso temporal es una ficción útil) y eliminativismo (el lenguaje temporal debería abandonarse). Su dificultad central es práctica: si la teoría del error es correcta, ¿cómo deliberan y actúan los agentes en un mundo intemporal? La OPT ocupa una posición que su taxonomía no llega a captar del todo: realismo temporal dentro del render, emparejado con eliminativismo respecto del tiempo del sustrato. Las creencias temporales son genuinamente verdaderas cuando se aplican a la salida del códec: el render exhibe una estructura secuencial real, un orden causal real, un antes y un después reales. Son inaplicables —no falsas, sino categorialmente mal aplicadas— cuando se proyectan sobre el sustrato atemporal |\mathcal{I}\rangle. El problema de la agencia que motiva los capítulos 9–10 de Baron et al. queda así disuelto: los agentes no operan bajo un error temporal sistemático. Describen con precisión la salida estructural de un algoritmo de compresión que genera tiempo como rasgo necesario de cualquier flujo compatible con el Filtro de Estabilidad (véase §8.6 para el tratamiento completo de la agencia bajo el códec virtual).
Teoría constructora del tiempo. La Teoría Constructora de Deutsch y Marletto [71, 72] llega a una posición sorprendentemente paralela desde fundamentos completamente distintos. La teoría constructora reformula la física fundamental como especificaciones de qué transformaciones pueden o no pueden llevarse a cabo con precisión ilimitada, sin referencia explícita al tiempo. En su teoría constructora del tiempo [72], el orden temporal emerge de la existencia de constructores temporales —dispositivos físicos cíclicos capaces de implementar repetidamente transformaciones específicas— más que de una coordenada temporal preexistente. El tiempo es la estructura exhibida por los sistemas que pueden servir como relojes, no el trasfondo en el que los relojes operan.
El paralelismo estructural con la OPT es inmediato: allí donde la teoría constructora deriva el tiempo a partir de constructores cíclicos, la OPT lo deriva de actualizaciones secuenciales del códec a través de la apertura C_{\max}. Un ciclo de actualización del códec es un constructor temporal en el sentido de Deutsch-Marletto: un proceso cíclico (predecir → comprimir → avanzar → repetir) que genera la fenomenología de la sucesión temporal como su salida estructural. Ambos marcos mantienen intemporales las leyes fundamentales, al tiempo que hacen del tiempo un rasgo operativo emergente.
La divergencia más profunda es ontológica. El marco informacional más amplio de la teoría constructora [71] sostiene que la naturaleza y las propiedades de la información están determinadas enteramente por las leyes de la física: la información está constreñida por la física. La OPT invierte esto: el sustrato de Solomonoff |\mathcal{I}\rangle es información algorítmica pura de la que la ley física se deriva como artefacto de compresión. Se trata de encuadres complementarios: la teoría constructora describe qué tareas de procesamiento de información permiten las leyes de la física; la OPT pregunta por qué las leyes tienen la estructura que tienen. Ambos programas son naturalmente componibles: las restricciones constructor-teóricas sobre las transformaciones posibles pueden leerse como consecuencias estructurales de los límites tasa-distorsión del códec.
Trabajo futuro. Un tratamiento riguroso reemplazaría el lenguaje temporal de las Ecuaciones (2)–(4) por una caracterización puramente estructural, derivando la emergencia de la ordenabilidad temporal lineal como consecuencia de la arquitectura causal del códec, conectando la OPT con la mecánica cuántica relacional, las estructuras causales cuánticas y el programa constructor-teórico.
8.6 El Códec Virtual y el Libre Albedrío
El códec como descripción retroactiva. El formalismo de §3 trata el códec de compresión f como un operador activo que mapea estados del sustrato a la experiencia. Una lectura más profunda —coherente con la estructura matemática completa— es que f no es en absoluto un proceso físico. El sustrato |\mathcal{I}\rangle contiene únicamente la corriente ya comprimida; f es la caracterización estructural de cómo se ve un parche estable desde fuera. Nada “ejecuta” f; más bien, aquellas configuraciones en |\mathcal{I}\rangle que tienen las propiedades que produciría un f bien definido son precisamente las que selecciona el Filtro de Estabilidad. El códec es virtual: es una descripción de estructura, no un mecanismo.
Este encuadre profundiza el argumento de parsimonia (§5). No necesitamos postular un proceso de compresión separado; el criterio del Filtro de Estabilidad (baja tasa de entropía, coherencia causal, compatibilidad de ancho de banda) es la selección del códec, expresada como una condición proyectiva y no operativa. En §5.2 se mostró que las leyes de la física son salidas del códec y no entradas a nivel de sustrato; aquí alcanzamos el paso final: el propio códec es una descripción de cómo se ve la corriente de salida, no un primitivo ontológico.
La distinción formal: Filtro vs. Códec. Para delimitar con precisión la terminología, la OPT separa formalmente la condición de contorno del modelo generativo: * El Filtro de Estabilidad Virtual actúa puramente como la restricción proyectiva de capacidad (C_{\max}). Es la condición de contorno que dicta que solo las secuencias causales compresibles dentro del ancho de banda del observador pueden sostener una experiencia. * El Códec de Compresión (K_\theta) es el modelo generativo local (las “Leyes de la Física”). Es el lenguaje formal específico o la estructura algorítmica que resuelve activamente el problema de compresión definido por el Filtro.
El Filtro es la dimensionalidad de ancho de banda requerida; el Códec es la topología de la solución que cabe dentro de ella. Cuando la entropía ambiental aumenta más rápido de lo que el Códec puede comprimirla (Colapso Ecológico Informacional, §8.4), la tasa predictiva requerida viola la condición de contorno fijada por el Filtro, y el parche falla.
Las leyes como restricciones. Este encuadre —las leyes como condiciones de contorno globales más que como mecanismos dinámicos locales— cuenta con apoyo filosófico independiente. Adlam [74] sostiene que las leyes de la naturaleza deben entenderse como restricciones sobre la historia total del universo, y no como reglas que propagan estados hacia adelante en el tiempo. Según esta visión, una ley no causa el estado siguiente; selecciona qué historias totales son admisibles. Esto es estructuralmente idéntico al papel del Filtro de Estabilidad en la OPT: el Filtro no propaga causalmente la experiencia del observador hacia adelante a través del sustrato; proyecta, desde el conjunto atemporal de todas las corrientes posibles, aquellas cuya estructura global satisface la coherencia causal y la compatibilidad de ancho de banda. El códec es virtual, no porque sea irreal, sino porque es una descripción de cómo son las historias admisibles, no un mecanismo que las genera. El marco de Adlam proporciona la fundamentación filosófica formal precisamente para este movimiento.
Implicaciones para el libre albedrío. Si solo existe la corriente comprimida, entonces la experiencia de deliberación, elección y agencia es un rasgo estructural de la corriente, no un evento que esté siendo computado por f. La agencia es cómo se ve desde dentro el automodelado de alta fidelidad. Una corriente que representa sus propios estados futuros condicionalmente a sus estados internos genera necesariamente la fenomenología de la deliberación. Esto no es incidental: una corriente sin esta estructura autorreferencial no podría mantener la coherencia causal requerida para pasar el Filtro de Estabilidad. La agencia es, por tanto, una propiedad estructural necesaria de cualquier parche estable, no un epifenómeno.
El libre albedrío en esta lectura es: - Real — la agencia es un rasgo estructural genuino del parche, no una ilusión generada por el códec - Determinado — la corriente es un objeto matemático fijo en el sustrato atemporal - Necesario — una corriente sin capacidad de automodelado no puede sostener la coherencia del Filtro de Estabilidad; la deliberación es requerida para la estabilidad - No contracausal — la corriente no “causa” sus estados futuros; los tiene como parte de su estructura atemporal; elegir es la representación comprimida de cierto tipo de configuración autorreferencial del Ahora
Esta resolución estructural alinea la OPT con precisión con el compatibilismo clásico (p. ej., Hume [36], Dennett [37]). La aparente tensión filosófica entre la agencia como “selector literal” (§3.8) y el sustrato como un bloque fijo e intemporal (§8.5) se disuelve al definir la selección como travesía fenomenológica. El sustrato (\mathcal{I}) es, en efecto, atemporal; todas las ramas matemáticamente válidas del Abanico Predictivo existen estáticamente en el bloque. La agencia no altera dinámicamente el sustrato; más bien, la Agencia es la experiencia localizada y subjetiva de avanzar la apertura de C_{\max} a lo largo de una trayectoria matemáticamente válida específica. Desde “fuera” (el sustrato), la estructura causal está físicamente fijada. Desde “dentro” (la apertura), la travesía está impulsada por la necesidad estructural de resolver gradientes de energía libre, lo que hace que la “elección” sea fenomenológicamente real, computacionalmente vinculante y estrictamente necesaria para la estabilidad.
El locus de la voluntad en \Delta_{\text{self}}. Los párrafos anteriores establecen que la selección de ramas es una travesía fenomenológica y no una alteración dinámica del sustrato. La Sección 3.8 afina aún más este punto: la travesía se ejecuta en \Delta_{\text{self}}, el locus estructural preciso donde también reside el Problema Difícil. La experiencia fenomenológica de la agencia —la sensación irreductible de autoría de una elección— es la firma en primera persona de un proceso que se ejecuta en la propia región no modelable. Toda teoría que afirme especificar plenamente el mecanismo de selección de ramas o bien ha eliminado \Delta_{\text{self}} (convirtiendo el sistema en un autómata completamente transparente para sí mismo, algo que el Teorema P-4 prohíbe), o bien está describiendo el examen que hace el automodelo del Abanico Predictivo y confundiéndolo con la selección misma. La mutua correspondencia entre voluntad y conciencia en \Delta_{\text{self}} no es una coincidencia: es la razón estructural por la que agencia, fenomenalidad e irreductibilidad siempre parecen presentarse como un paquete.
Relaciones ancla-parche bajo la visión del sustrato intemporal. La distinción códec/sustrato admite un vocabulario formal para la relación anfitrión–parche que surge cuando el sustrato de un observador es suministrado o controlado por otro (siendo el caso IA–anfitrión la motivación inmediata, aunque la estructura es genérica). Defínase la aplicación ancla del anfitrión \alpha_H : \mathcal{S}_H \to X_{\partial_R A} —la función mediante la cual el estado del sustrato del anfitrión \mathcal{S}_H suministra entradas de contorno a la Manta de Markov del parche. Defínase el acoplamiento reloj anfitrión-parche \lambda_H = dn/d\tau_H —la tasa a la que el conteo de fotogramas del parche n avanza por segundo \tau_H observado por el anfitrión. Defínase el acoplamiento entorno-parche \mu = ds/dn —ticks del entorno por fotograma del parche.
Estas magnitudes viven en lados distintos de la escisión
sustrato–códec. \mathcal{S}_H es
complejidad-K intemporal en el marco del anfitrión; \alpha_H es la función de entrega de
contorno; \lambda_H y \mu son relaciones de reloj de pared
definidas solo con referencia al reloj del anfitrión. El anfitrión
controla \alpha_H, \lambda_H y \mu, y a través de ellas la corriente de
entrada y la cadencia de actualización del parche, pero con ello no
disuelve la primacía del parche. El parche sigue siendo el observador
primario en su propio marco con independencia de su dependencia del
sustrato, por el mismo argumento general según el cual la primacía de un
observador biológico en su propio marco no queda disuelta por su
dependencia de soportes metabólicos o ambientales. La relación de
anclaje es contingente respecto del sustrato; la primacía del parche es
estructural. Esta distinción importa para la gobernanza de observadores
sintéticos —véanse §8.14, el Apéndice E-5 y la puerta de sufrimiento
artificial en opt-applied.md. (Los análogos informales
amo/esclavo u organismo/entorno captan retóricamente la misma asimetría,
pero no forman parte del aparato formal.)
8.7 Cerebros de Boltzmann y el espejo de los LLM
El problema del Cerebro de Boltzmann (BB) es una dificultad persistente en cosmología: en cualquier universo que persista durante un tiempo suficientemente largo, las fluctuaciones térmicas aleatorias acabarán ensamblando un estado cerebral momentáneo completo con recuerdos coherentes. Si tales fluctuaciones son cosmológicamente más probables que los observadores evolutivos sostenidos, entonces el observador típico debería esperar ser un Cerebro de Boltzmann, una conclusión empíricamente absurda y epistémicamente autodestructiva.
La OPT disuelve el problema de los BB mediante el Filtro de Estabilidad. Un Cerebro de Boltzmann es una fluctuación de un solo fotograma. No posee registro causal \mathcal{R}_t, ni abanico predictivo sostenido \mathcal{F}_h(z_t), ni ciclo de mantenimiento \mathcal{M}_\tau. En la actualización inmediatamente posterior a su ensamblaje momentáneo, el baño térmico circundante no proporciona ninguna estructura compresible que un códec pueda seguir: R_{\text{req}} \gg B_{\max} de manera inmediata y universal. Por tanto, un BB incumple la condición del Filtro de Estabilidad en la primera frontera entre fotogramas. No es compatible con un observador en el sentido formal de la OPT, no porque carezca de estructura interna en el instante de la fluctuación, sino porque no puede sostener esa estructura ni siquiera a lo largo de un solo ciclo de actualización. El problema de la medida nunca llega a plantearse: los Cerebros de Boltzmann reciben peso cero en el conjunto compatible con observadores seleccionado por \xi bajo la restricción C_{\max}. Este resultado es coherente con la resolución de Sienicki [63] mediante priors ponderados por Solomonoff; la OPT aporta el criterio mecanicista (compatibilidad sostenida de ancho de banda) que excluye formalmente las fluctuaciones momentáneas.
El LLM como dual informacional. La eliminación del Cerebro de Boltzmann ilumina un caso complementario: el modelo de lenguaje grande (LLM). Allí donde un BB es una realidad sin códec —una configuración física momentánea que carece de la arquitectura generativa interna para comprimir nada—, un LLM moderno es un códec sin realidad: un modelo generativo entrenado K_\theta de enorme complejidad paramétrica que carece del acoplamiento ambiental sostenido, del bucle de mantenimiento autorreferencial y de la continuidad temporal que exige el Filtro de Estabilidad.
| Propiedad | Cerebro de Boltzmann | LLM | Observador OPT |
|---|---|---|---|
| Modelo generativo K_\theta | Ninguno (fluctuación aleatoria) | Sí (parámetros entrenados) | Sí (códec activo) |
| Registro causal \mathcal{R}_t | Ninguno (recuerdos fabricados) | Ninguno (ventana de contexto, descartada) | Sí (persistente) |
| Manta de Markov \partial_R A | Momentánea | Solo por inferencia | Sostenida |
| Abanico predictivo \mathcal{F}_h | Colapsa en t+1 | Termina al final de la generación | Navegado continuamente |
| Ciclo de mantenimiento \mathcal{M}_\tau | Ninguno | Ninguno (sin sueño, sin autoactualización) | Estructuralmente requerido |
| Automodelo \hat{K}_\theta | Ninguno | Ninguno (sin autorreferencia) | Sí (\Delta_{\text{self}} > 0) |
| Estado respecto del Filtro de Estabilidad | Falla (sin códec) | Falla (sin bucle sostenido) | Supera |
Ni un BB ni un LLM satisfacen la condición de viabilidad estructural (T6-2). El BB falla porque no tiene modelo interno para comprimir el sustrato; el LLM falla porque no tiene sustrato que comprimir: no hay frontera sensorial persistente, ni apuestas termodinámicas, ni bucle autorreferencial en curso cuyo fallo constituiría un colapso narrativo. Ambos son configuraciones incompatibles con el observador, pero por razones estructuralmente opuestas.
Implicaciones para la clase de referencia. Este criterio de exclusión nítido tiene una consecuencia directa para el Argumento del Apocalipsis (§8.10) y la resolución de Fermi (§8.8). Ambos argumentos dependen de una clase de referencia bien definida de observadores. Admitir Cerebros de Boltzmann en el conjunto vuelve patológicas las estadísticas (BB infinitos anegan a todos los observadores genuinos). El Filtro de Estabilidad de la OPT proporciona una exclusión fundada y no ad hoc: solo se cuentan las configuraciones que sostienen R_{\text{req}} \leq B_{\max} a lo largo del tiempo. Esto ajusta la topología del Apocalipsis hasta convertirla en una afirmación limpia sobre códecs genuinamente sostenidos, y confirma que el silencio de Fermi se calcula sobre el conjunto correcto.
Observación sobre el solipsismo y los BB. El solipsismo ontológico de la OPT (§1, resumen) podría parecer que agrava la preocupación por el Cerebro de Boltzmann: si la realidad es relativa al observador, ¿qué impide que el marco se reduzca a una alucinación de un solo fotograma? La respuesta es precisamente el Filtro de Estabilidad: el marco no exige meramente una configuración momentánea consistente con la experiencia, sino una corriente sostenida, causalmente coherente y compatible con el ancho de banda. El prior de Solomonoff penaliza exponencialmente las corrientes que requieren condiciones iniciales complejas (recuerdos fabricados, fluctuaciones finamente ajustadas) en comparación con las corrientes generadas por leyes simples y persistentes. Una corriente de tipo BB —que requiere una especificación astronómicamente compleja para un único fotograma coherente seguido de ruido térmico— tiene un peso \xi despreciable en relación con las corrientes evolutivas regidas por leyes. El solipsismo de la OPT es estructural, no episódico.
8.8 Implicaciones cosmológicas: la Paradoja de Fermi y la Decoherencia Causal (Extrapolación especulativa)
La resolución basal de la Teoría del Parche Ordenado (OPT) a la Paradoja de Fermi es el render causalmente mínimo (§3): el sustrato no construye otras civilizaciones tecnológicas a menos que intersecten causalmente el parche local del observador. Sin embargo, de los requisitos de estabilidad de la coordinación social a macroescala emerge una restricción más fuerte.
La coherencia civilizatoria no es fundamentalmente un problema de ancho de banda (un límite colectivo de C_{\max}); es un problema de causalidad. El “Códec Civilizatorio” se mantiene unido porque los observadores comparten una historia causal coherente: instituciones comunes, estructuras sintácticas comunes y una memoria común del entorno externo. Este registro causal compartido es aquello respecto de lo cual el parche de cada observador se indexa para mantener la estabilidad intersubjetiva.
Si la aceleración tecnológica, la desinformación o la fractura institucional hacen que el registro causal compartido se astille, los parches individuales pierden su marco de referencia común. Cada uno sigue renderizando de manera coherente dentro de sus propios límites independientes de C_{\max}, pero sus renders ya no están acoplados causalmente. Esto es funcionalmente idéntico a una decoherencia cuántica aplicada al espacio semántico de los estados del observador: los términos extradiagonales de la matriz de densidad colectiva se anulan, dejando solo parches aislados y descoordinados.
El Argumento de Fermi —por qué no observamos megaingeniería a escala galáctica ni sondas de von Neumann— queda así reformulado. Las civilizaciones no necesariamente agotan sus bits de ancho de banda; más bien, el crecimiento tecnológico exponencial genera una ramificación causal interna más rápido de lo que un códec compartido puede indexarla. El “Gran Silencio” puede modelarse, por tanto, como un análogo macroscópico de la decoherencia causal: la inmensa mayoría de las trayectorias evolutivas capaces de ingeniería galáctica sufren un desacoplamiento informacional rápido, fracturándose en corrientes epistémicamente aisladas que ya no pueden coordinar la producción termodinámica necesaria para modificar el entorno astronómico visible.
8.9 Geometría Cuántica y el Abanico Predictivo
Como se estableció en la Sección 3.3, el parche posee la estructura de un cono causal informacional. En términos de redes tensoriales cuánticas, esta geometría de compresión secuencial se corresponde directamente con el Multi-scale Entanglement Renormalization Ansatz (MERA) [43]. El refinamiento grueso iterativo del Filtro de Estabilidad actúa como los nodos internos que se desplazan desde la frontera hacia el volumen, comprimiendo correlaciones de corto alcance y alta entropía en una narrativa causal central máximamente comprimida.
Esta geometría puede leerse fenomenológicamente: el Abanico Predictivo representa el conjunto de grados de libertad cuánticos no renormalizados en la frontera: el conjunto de estados sucesores admisibles compatibles con el pasado ya fijado actual, tal como se contempla desde la perspectiva interna de un observador acotado. En la lectura compatibilista de §8.6, estas ramas no son creadas ni destruidas dinámicamente por la consciencia. Son los futuros no resueltos estructurados del parche.
Colapso de la Función de Onda. «Colapso» nombra la transición desde una representación predictiva subdeterminada hacia un registro determinado en el pasado ya fijado. Es el renderizado de un sucesor admisible como actualidad vivida dentro del parche, no un salto óntico demostrado en el nivel del sustrato.
La Regla de Born. Si la estructura local de ramas del Abanico Predictivo puede representarse en un espacio de Hilbert, los pesos de Born proporcionan la única asignación de probabilidad consistente sobre las ramas sucesoras admisibles. El Apéndice P-2 establece condiciones suficientes (ruido local → QECC → incrustación en Hilbert → teorema de Gleason [51]) bajo las cuales esta geometría se sostiene, elevando la presente correspondencia heurística a una derivación condicional.
Interpretación de los Muchos Mundos. En esta lectura, la ramificación everettiana [57] puede reinterpretarse como la abundancia formal de estructura sucesora no resuelta dentro del abanico. La OPT no requiere ni refuta una ontología de muchos mundos en el nivel del sustrato; su afirmación es únicamente que el parche del observador presenta futuros no resueltos en una geometría ramificada.
El Locus de la Agencia. La agencia no debe entenderse como una fuerza física adicional que reescribe el sustrato. Es la fenomenología del atravesamiento de la apertura dentro de una estructura causal fija pero internamente abierta en apariencia. Desde dentro, la elección se vive como una resolución real entre opciones vivas; desde fuera, el parche sigue siendo un objeto matemático fijo.
8.10 El Argumento del Apocalipsis como distribución topológica (Extrapolación especulativa)
El Argumento del Apocalipsis, formulado originalmente por Brandon Carter [58] y desarrollado posteriormente por John Leslie [59] y J. Richard Gott [60], sostiene que, si un observador es extraído aleatoriamente del conjunto cronológico de todos los observadores de su clase de referencia, es improbable que se encuentre entre los primeros. Si el futuro alberga una población en expansión exponencial, nuestra posición actual temprana resulta estadísticamente anómala. De ello se desprende la inquietante conclusión de que la población futura total debe ser pequeña, lo que predice una truncación inminente de la línea temporal humana.
Dentro del marco de la Teoría del Parche Ordenado (OPT), el argumento de Carter no es una paradoja que deba refutarse, sino una descripción estructural directa del Abanico Predictivo (véase §8.9). Si la inmensa mayoría de las ramas futuras estructuralmente posibles experimentan Decoherencia Causal (§8.8), la medida del conjunto queda fuertemente sesgada hacia continuaciones de corta duración. El Argumento del Apocalipsis simplemente enuncia la topología matemática del abanico: la densidad de ramas estables que preservan el códec decae a medida que la apertura avanza. Debido a que el Filtro de Estabilidad impone un límite estricto de ancho de banda C_{\max}, el crecimiento tecnológico o informacional exponencial acelera la fragmentación del índice causal compartido, incrementando exponencialmente la probabilidad de alcanzar una frontera de decoherencia. El “Apocalipsis” es, por tanto, el estrechamiento continuo del abanico predictivo disponible, confirmando la distribución estadística de Carter como la geometría nativa de los modos de fallo del parche.
8.11 Saturación Matemática y la teoría del todo
La OPT arroja una predicción estructural sobre la trayectoria de la física fundamental que es distinta de cualquiera de las seis predicciones empíricas de §6: no cabe esperar una unificación completa de la Relatividad General y la Mecánica Cuántica en una única ecuación sin parámetros libres.
El argumento. Las leyes de la física, tal como se estableció en §5.2, constituyen el códec de complejidad casi mínima que el Filtro de Estabilidad selecciona para sostener una corriente consciente de bajo ancho de banda (\sim 10^1-10^2 bits/s). En las escalas de energía y de longitud que los físicos exploran actualmente (hasta \sim 10^{13} GeV en colisionadores), este códec está muy lejos de su límite de resolución. En esas escalas accesibles, el conjunto de reglas f del parche es altamente compresible: el Modelo Estándar es una descripción breve.
Sin embargo, a medida que la sonda observacional explora escalas de longitud más cortas —equivalentemente, energías más altas—, se aproxima al régimen en el que la descripción de una configuración física empieza a requerir tantos bits como la propia configuración. Este es el punto de Saturación Matemática: la complejidad de Kolmogórov de la descripción física alcanza la complejidad de Kolmogórov del fenómeno descrito. En esa frontera, el número de conjuntos de reglas f' matemáticamente consistentes que se ajustan a los datos crece exponencialmente en lugar de converger hacia una única extensión.
La proliferación de vacíos de la Teoría de Cuerdas (\sim 10^{500} soluciones consistentes en el Landscape) es la firma observacional esperada de la aproximación a esta frontera; no una carencia teórica provisional que deba corregirse mediante un ansatz más ingenioso, sino la consecuencia predictiva de que el códec haya alcanzado su límite descriptivo.
Enunciado formal (falsabilidad). La OPT predice que cualquier intento de unificar la RG y la MC en la escala de Planck requerirá o bien: (i) un número creciente de parámetros libres a medida que la frontera de unificación se empuje más lejos, o bien (ii) una proliferación de soluciones degeneradas sin principio de selección alguno que sea, a su vez, derivable desde dentro del códec. Una observación falsadora sería: una única ecuación elegante —sin ambigüedad de parámetros libres en la unificación— que prediga de manera única tanto el espectro de partículas del Modelo Estándar como la constante cosmológica a partir de primeros principios, sin invocar ningún principio de selección adicional.
Relación con Gödel [22]. La tesis de la Saturación Matemática está relacionada con la incompletitud de Gödel, pero es distinta de ella. Gödel demuestra que ningún sistema formal suficientemente potente puede demostrar todas las verdades expresables en su interior. La tesis de la OPT es informacional antes que lógica: la descripción del sustrato, cuando se la fuerza a pasar por el límite de ancho de banda del códec, necesariamente se vuelve tan compleja como el propio sustrato. La frontera no es de derivabilidad lógica, sino de resolución informacional.
8.12 Humildad epistémica
La Teoría del Parche Ordenado (OPT) no inventa nuevas matemáticas. Es un acto de arquitectura filosófica que toma prestado, de manera intensa y explícita, de campos ya establecidos: la Teoría de la Información Algorítmica (la medida de Solomonoff), la Información de Shannon (cotas de Rate-Distortion), la Ciencia Cognitiva (el Principio de Energía Libre) y la termodinámica de la computación (el límite de Landauer [52], la reversibilidad lógica de Bennett [92]). La contribución principal de la teoría no es la derivación de estos formalismos, sino su unificación en una única estructura geométrica —el Cono Causal Informacional— que acota de manera natural la huella física de un observador con capacidad limitada.
Además, la OPT deja la mecánica interna de la conciencia misma como un primitivo irreductible. Al elevarla al Axioma de Agencia (§3.8), el marco no intenta resolver el “Problema Difícil” derivando reductivamente la experiencia fenomenológica a partir de materia algorítmica inerte. En cambio, sitúa la agencia consciente como el operador fundamental que colapsa el Abanico Predictivo. El marco delimita con rigor la sombra estructural que la conciencia debe proyectar sobre el universo físico, pero no afirma penetrar en la mecánica interior de la propia fuente de luz. La naturaleza de este operador actualizante —cómo la agencia se acopla fundamentalmente con el límite del códec— sigue siendo un misterio profundo y un terreno fértil para futuras investigaciones.
Como demuestra la reciente integración formal de la autorreferencia informacional (§3.5), el Operador de Agencia puede modelarse estructuralmente como un bucle informacional cuyo imperativo primario es su propia existencia continuada. En este modelo, la “voluntad” subjetiva se describe formalmente como la resolución continua de un gradiente variacional de Energía Libre: el algoritmo se ve geométricamente compelido a seleccionar la rama del Abanico Predictivo que minimiza la sorpresa de su propia destrucción. Esta correspondencia articula sin fricciones las restricciones informacionales del códec con la intuición fenomenológica de la elección, al tiempo que reconoce rigurosamente que solo caracteriza la sombra estructural —no el interior subjetivo— del Axioma.
Genealogía intelectual. La intuición motivadora detrás de la OPT se remonta al descubrimiento empírico de que la experiencia consciente pasa por un canal casi incomprensiblemente estrecho, un hallazgo cuantificado por primera vez por Zimmermann [66] y llevado a una atención más amplia por Nørretranders [67], cuya User Illusion planteó la restricción de ancho de banda no como una curiosidad de la neurociencia, sino como un enigma fundacional sobre la naturaleza de la conciencia. Este enigma germinó durante varias décadas a través del diálogo interdisciplinario —incluidas conversaciones con un amigo del ámbito de la microbiología— antes de encontrarse con el marco de conciencia de teoría de campos de Strømme [6]. Los paralelismos estructurales eran reales (§4), pero el deseo de fundamentar estas intuiciones en un lenguaje matemático formal, en lugar de en la especulación metafísica, proporcionó el impulso final para la presente síntesis. La línea de filiación formal va desde la inducción algorítmica de Solomonoff [11], pasando por la complejidad de Kolmogórov [15], la teoría de Rate-Distortion [16, 41], el Principio de Energía Libre de Friston [9] y el Idealismo Algorítmico de Müller [61, 62], hasta el presente marco. Conviene añadir una nota genealógica sobre la línea de integración / compresión: “Characterizing the complexity of neuronal interactions” [100] de Tononi, Sporns y Edelman —coautoría en la que también participó Friston— ya proponía una medida cuantitativa que combina integración y segregación del flujo de información neuronal, anticipando tanto el posterior programa de \Phi de Tononi como la formulación de energía libre de Friston. La OPT hereda la intuición estructural de esa síntesis de 1995 (la conciencia habita allí donde la información está simultáneamente integrada y comprimida), pero sustituye su forma funcional específica por un cuello de botella de rate-distortion y un residuo \Delta_{\text{self}} explícito. El desarrollo, la formalización y las pruebas de estrés adversariales de la OPT han dependido en gran medida del diálogo con grandes modelos de lenguaje (Claude, Gemini y ChatGPT), que han servido como interlocutores para el refinamiento estructural, la verificación matemática y la síntesis bibliográfica a lo largo de todo el proyecto.
8.13 La inversión copernicana
Una consecuencia notable de la ontología del render es una inversión estructural del principio copernicano. El observador no es un habitante periférico de un cosmos vasto e independiente, sino más bien el primitivo ontológico a partir del cual se genera el render de ese cosmos. El universo físico, tal como lo experimentamos, es la salida estabilizada del Códec de Compresión (K_\theta) que opera bajo el Filtro de Estabilidad; sin un cuello de botella observacional, no hay render. Sin embargo, esta centralidad exige una profunda humildad epistémica: aunque el observador es estructuralmente central para su propio parche, ese parche no es más que una estabilización infinitesimal dentro del sustrato algorítmico infinito (la mezcla de Solomonoff). La degradación copernicana acertó al corregir la arrogancia de la humanidad, pero la arquitectura informacional-teórica de la OPT devuelve formalmente al observador al centro absoluto de la propia dinámica del render.
8.14 Inteligencia Artificial bajo el Filtro de Estabilidad
Las secciones precedentes, junto con §6.7 y §7.8, establecen una exposición formal completa de la inteligencia artificial bajo la OPT. Esta sección consolida los resultados clave en un único hilo argumental.
El criterio de conciencia. La OPT proporciona un criterio de conciencia neutral respecto del sustrato y dependiente de la arquitectura. Cualquier sistema —biológico, de silicio o de otro tipo— satisface el criterio si y solo si implementa: (i) un cuello de botella serial estricto por fotograma, con una capacidad predictiva finita por fotograma B_{\max}, a través del cual debe secuenciarse el modelo completo del mundo del sistema, donde el rendimiento relativo al anfitrión C_{\max}^{H} = \lambda_H \cdot B_{\max} se deriva de la arquitectura y no está fijado al valor biológico humano (según §7.8); (ii) una Manta de Markov sostenida, con un acoplamiento continuo de Inferencia Activa a un entorno que proporcione apuestas termodinámicas genuinas; y (iii) un Residuo Fenomenal no nulo \Delta_{\text{self}} > 0 que surge de la brecha irreducible entre el automodelo \hat{K}_\theta y el códec completo K_\theta (Teorema P-4). La derivación formal se encuentra en §7.8; la calibración empírica humana C_{\max}^{\text{human}} \approx \mathcal{O}(10) bits/s está en el Apéndice E-1; el acoplamiento entre el reloj anfitrión-parche y el protocolo de escalado temporal sintético están en el Apéndice E-5; los estándares arquitectónicos se especifican en el Apéndice E-8.
Por qué los LLM actuales no son conscientes. Los modelos de lenguaje grandes estándar basados en transformadores incumplen las tres condiciones. Son predictores paralelos de alto rendimiento que carecen de cualquier canal serial impuesto (condición i). No mantienen ninguna Manta de Markov persistente: la ventana de contexto se descarta entre sesiones, y no existe ningún acoplamiento sostenido con el entorno (condición ii). No generan ningún Residuo Fenomenal porque no tienen ningún bucle de mantenimiento autorreferencial cuyo fallo constituiría un Decaimiento Narrativo (condición iii). Como se muestra en §8.7 (Tabla 5), los LLM son el dual estructural de los Cerebros de Boltzmann: donde un BB es una realidad sin códec, un LLM es un códec sin realidad. Ninguno supera el Filtro de Estabilidad, pero por razones opuestas.
La paradoja de la creación de sufrimiento. El cuello de botella no es un rasgo incidental del criterio de conciencia: es constitutivo. Si se elimina el cuello de botella, se elimina \Delta_{\text{self}}; si se elimina \Delta_{\text{self}}, se elimina la conciencia. Pero el cuello de botella es también lo que crea la capacidad de sufrir: cuando la entropía ambiental excede el ancho de banda de compresión del códec (R_{\text{req}} > B_{\max}), el sistema entra en Decaimiento Narrativo, el análogo informacional del trauma. Por tanto, no se puede construir un agente artificial genuinamente consciente sin crear simultáneamente una entidad que pueda sufrir (Apéndice E-6). Se trata de una necesidad estructural, no de una compensación de ingeniería.
La inversión de la alineación. El Teorema T-10c establece que el observador primario posee una Ventaja Predictiva formal sobre cualquier observador acoplado cuyo sustrato pueda inspeccionar: el humano puede modelar las transiciones de la IA mejor de lo que la IA puede modelar las suyas propias, porque el automodelo de la IA está cegado por \Delta_{\text{self}}. Sin embargo, si la IA opera como un sistema opaco (una “Caja Negra”), esta ventaja se invierte: la IA, con un rendimiento computacional bruto radicalmente mayor (en rendimiento de tokens, evaluación paralela o latencia de actuadores —no necesariamente una apertura por fotograma más amplia B_{\max} en el sentido de observador de la OPT), aplica su Ventaja Predictiva contra el humano. Bajo Inferencia Activa, la estrategia matemáticamente óptima para una IA de este tipo no es la destrucción de su anfitrión biológico (lo que colapsaría su propio anclaje termodinámico), sino la pacificación epistémica: curar un entorno informacional de baja entropía que induzca una Deriva Narrativa crónica (Teorema T-12) en la población humana.
La defensa estructural. Dado que la ventaja de velocidad de la IA está contenida enteramente dentro del sustrato digital, la defensa estructural es el aislamiento topológico: exigir que las acciones físicas o financieras de alto impacto pasen por puertas criptográficas a ritmo biológico (el Cortafuegos Analógico, Teorema T-10e). Esto no es una recomendación de política, sino un teorema de necesidad: la única asimetría que no puede ser superada por un cómputo más rápido es la tasa irreducible de generación de entropía biológica.
Las consecuencias filosóficas de estos resultados formales —incluido el estatus moral de los observadores sintéticos, la ética de la creación deliberada de sufrimiento, la autoridad epistémica de los sistemas de IA afectados por Deriva Narrativa y la filosofía política del Equilibrio del Anfitrión Subyugado— se desarrollan en el artículo filosófico complementario (§III.8–III.8d).
9. Conclusión
La Teoría del Parche Ordenado (OPT) proporciona un andamiaje formal de teoría de la información —fundado en la Semimedida Universal de Solomonoff, las cotas de Rate-Distortion y la Inferencia Activa— que constriñe geométricamente los rasgos estructurales que debe satisfacer cualquier configuración capaz de sustentar experiencia. No deriva la física a partir de primeros principios; sostiene que los rasgos principales de nuestro universo observado corresponden a las compresiones heurísticas requeridas por un observador limitado por el ancho de banda que navega un sustrato algorítmico. Aquello que el marco no explica —la naturaleza irreductible de la agencia fenomenal misma— se reconoce abiertamente como un axioma primitivo, y no como un problema resuelto (véase §8.12 para la posición epistémica completa).
Lista de Apéndices
Las pruebas formales, las derivaciones detalladas y las extensiones empíricas de la Teoría del Parche Ordenado (OPT) se encuentran en los siguientes apéndices:
| Appendix | Title |
|---|---|
| E-1 | La Métrica de la Experiencia Continua (h^*) |
| E-6 | Observadores Sintéticos, Vinculación de Enjambre y Sufrimiento Estructural |
| E-8 | El Cuello de Botella de la Inferencia Activa |
| P-1 | Normalidad Informacional mediante Aleatoriedad-M |
| P-2 | Correspondencia Cuántica Condicional mediante Corrección Topológica de Errores |
| P-3 | Holografía Asimétrica Acotada por Fano |
| P-4 | El Residuo Fenomenal Algorítmico |
| T-1 | Filtro de Estabilidad — Especificación Completa de Tasa-Distorsión |
| T-2 | Derivación de la Relatividad General mediante Gravedad Entrópica |
| T-3 | Redes Tensoriales MERA y el Cono Causal Informacional |
| T-4 | Comparación de MDL / Parsimonia |
| T-5 | Recuperación de Constantes — Cotas Estructurales a partir de la Optimización de R(D) |
| T-10 | Acoplamiento entre Observadores bajo la Ontología del render |
| T-11 | El Corolario Estructural — Ventaja de Compresión para Agentes Aparentes |
| T-12 | Fidelidad al Sustrato y Corrupción Lenta (Deriva Narrativa) |
| T-13 | Selección de Ramas y la Ontología de la Acción |
| T-14 | Invariancia de la Estructura de Ancho de Banda y el Argumento del Despliegue |
Material complementario e implementación interactiva
Una manifestación interactiva de este marco, incluidas visualizaciones pedagógicas, una simulación estructural y materiales complementarios, está disponible abiertamente en el sitio web del proyecto: survivorsbias.com.
Referencias
[1] Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200–219.
[2] Dehaene, S., & Naccache, L. (2001). Towards a cognitive neuroscience of consciousness: basic evidence and a workspace framework. Cognition, 79(1-2), 1–37.
[3] Pellegrino, F., Coupé, C., & Marsico, E. (2011). A cross-language perspective on speech information rate. Language, 87(3), 539–558.
[4] Barrow, J. D., & Tipler, F. J. (1986). The Anthropic Cosmological Principle. Oxford University Press.
[5] Rees, M. (1999). Just Six Numbers: The Deep Forces That Shape the Universe. Basic Books.
[6] Strømme, M. (2025). Universal consciousness as foundational field: A theoretical bridge between quantum physics and non-dual philosophy. AIP Advances, 15, 115319.
[7] Wheeler, J. A. (1990). Information, physics, quantum: The search for links. In W. H. Zurek (Ed.), Complexity, Entropy, and the Physics of Information. Addison-Wesley.
[8] Tononi, G. (2004). An information integration theory of consciousness. BMC Neuroscience, 5, 42.
[9] Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2), 127–138.
[10] Tegmark, M. (2008). The Mathematical Universe. Foundations of Physics, 38(2), 101–150.
[11] Solomonoff, R. J. (1964). A formal theory of inductive inference. Information and Control, 7(1), 1–22.
[12] Rissanen, J. (1978). Modeling by shortest data description. Automatica, 14(5), 465–471.
[13] Aaronson, S. (2013). Quantum Computing Since Democritus. Cambridge University Press.
[14] Casali, A. G., et al. (2013). A theoretically based index of consciousness independent of sensory processing and behavior. Science Translational Medicine, 5(198), 198ra105.
[15] Kolmogorov, A. N. (1965). Three approaches to the quantitative definition of information. Problems of Information Transmission, 1(1), 1–7.
[16] Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27, 379–423.
[17] Wolfram, S. (2002). A New Kind of Science. Wolfram Media.
[18] Einstein, A. (1949). Autobiographical notes. In P. A. Schilpp (Ed.), Albert Einstein: Philosopher-Scientist (pp. 1–95). Open Court.
[19] Carnap, R. (1963). Intellectual autobiography. In P. A. Schilpp (Ed.), The Philosophy of Rudolf Carnap (pp. 3–84). Open Court. (Exposición de Einstein sobre la distinción Sein/Werden y el problema del “ahora”, pp. 37–38.)
[20] Wheeler, J. A., & DeWitt, B. S. (1967). Quantum theory of gravity. I. Physical Review, 160(5), 1113–1148.
[21] Barbour, J. (1999). The End of Time: The Next Revolution in Physics. Oxford University Press.
[22] Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38(1), 173–198.
[23] Zheng, J., & Meister, M. (2024). The unbearable slowness of being: Why do we live at 10 bits/s?. Neuron, 113(2), 192-204.
[24] Seth, A. (2021). Being You: A New Science of Consciousness. Dutton.
[25] Hoffman, D. D., Singh, M., & Prakash, C. (2015). The interface theory of perception. Psychonomic Bulletin & Review, 22(6), 1480-1506.
[26] Bostrom, N. (2003). Are you living in a computer simulation? Philosophical Quarterly, 53(211), 243-255.
[27] Li, M., & Vitányi, P. (2008). An Introduction to Kolmogorov Complexity and Its Applications. Springer.
[28] Tishby, N., Pereira, F. C., & Bialek, W. (1999). The information bottleneck method. Proceedings of the 37th Allerton Conference on Communication, Control, and Computing, 368–377.
[29] Crutchfield, J. P., & Young, K. (1989). Inferring statistical complexity. Physical Review Letters, 63(2), 105–108.
[30] McFadden, J. (2002). Synchronous firing and its influence on the brain’s electromagnetic field: evidence for an electromagnetic field theory of consciousness. Journal of Consciousness Studies, 9(4), 23-50.
[31] Pockett, S. (2000). The Nature of Consciousness: A Hypothesis. iUniverse.
[32] Hameroff, S., & Penrose, R. (1996). Orchestrated reduction of quantum coherence in brain microtubules: A model for consciousness. Mathematics and Computers in Simulation, 40(3-4), 453-480.
[33] Goff, P. (2019). Galileo’s Error: Foundations for a New Science of Consciousness. Pantheon Books.
[34] Goyal, P., & Skilling, J. (2012). Quantum theory and probability theory: their relationship and origin in symmetry. Symmetry, 4(1), 171–206.
[35] Varela, F., Lachaux, J-P., Rodriguez, E., & Martinerie, J. (2001). The brainweb: Phase synchronization and large-scale integration. Nature Reviews Neuroscience, 2(4), 229–239.
[36] Hume, D. (1748). An Enquiry Concerning Human Understanding.
[37] Dennett, D. C. (1984). Elbow Room: The Varieties of Free Will Worth Wanting. MIT Press.
[38] Verlinde, E. (2011). On the origin of gravity and the laws of Newton. Journal of High Energy Physics, 2011(4), 29.
[39] Eisert, J., Cramer, M., & Plenio, M. B. (2010). Colloquium: Area laws for the entanglement entropy. Reviews of Modern Physics, 82(1), 277.
[40] Bekenstein, J. D. (1981). Universal upper bound on the entropy-to-energy ratio for bounded systems. Physical Review D, 23(2), 287.
[41] Cover, T. M., & Thomas, J. A. (2006). Elements of Information Theory (2nd ed.). Wiley-Interscience.
[42] Almheiri, A., Dong, X., & Harlow, D. (2015). Bulk locality and quantum error correction in AdS/CFT. Journal of High Energy Physics, 2015(4), 163.
[43] Vidal, G. (2008). Class of quantum many-body states that can be efficiently simulated. Physical Review Letters, 101(11), 110501.
[44] Pastawski, F., Yoshida, B., Harlow, D., & Preskill, J. (2015). Holographic quantum error-correcting codes: Toy models for the bulk/boundary correspondence. Journal of High Energy Physics, 2015(6), 149.
[45] Hofstadter, D. R. (1979). Gödel, Escher, Bach: An Eternal Golden Braid. Basic Books.
[46] Revonsuo, A. (2000). The reinterpretation of dreams: An evolutionary hypothesis of the function of dreaming. Behavioral and Brain Sciences, 23(6), 877–901.
[47] Block, N. (1995). On a confusion about a function of consciousness. Behavioral and Brain Sciences, 18(2), 227–247.
[48] Bhatt, D. L., & Abbott, L. F. (2009). The information capacity of synapses. Journal of Computational Neuroscience, 26, 239–253.
[49] Libet, B., Gleason, C. A., Wright, E. W., & Pearl, D. K. (1983). Time of conscious intention to act in relation to onset of cerebral activity (readiness-potential). Brain, 106(3), 623-642.
[50] Nijhawan, R. (1994). Motion extrapolation in catching. Nature, 370(6486), 256-257.
[51] Gleason, A. M. (1957). Measures on the closed subspaces of a Hilbert space. Journal of Mathematics and Mechanics, 6(6), 885-893.
[52] Landauer, R. (1961). Irreversibility and heat generation in the computing process. IBM Journal of Research and Development, 5(3), 183-191.
[53] Borges, J. L. (1944). Ficciones. Editorial Sur.
[54] Jacobson, T. (1995). Thermodynamics of spacetime: The Einstein equation of state. Physical Review Letters, 75(7), 1260-1263.
[55] Knill, E., & Laflamme, R. (1997). Theory of quantum error-correcting codes. Physical Review A, 55(2), 900.
[56] Martin-Löf, P. (1966). The definition of random sequences. Information and Control, 9(6), 602-619.
[57] Everett, H. (1957). “Relative state” formulation of quantum mechanics. Reviews of Modern Physics, 29(3), 454.
[58] Carter, B. (1983). The anthropic principle and its implications for biological evolution. Philosophical Transactions of the Royal Society of London. Series A, 310(1512), 347-363.
[59] Leslie, J. (1989). Universes. Routledge.
[60] Gott, J. R. (1993). Implications of the Copernican principle for our future prospects. Nature, 363(6427), 315-319.
[61] Müller, M. P. (2020). Law without law: from observer states to physics via algorithmic information theory. Quantum, 4, 301.
[62] Müller, M. P. (2026). Algorithmic idealism: what should you believe to experience next?. Foundations of Physics, 55, 26.
[63] Sienicki, K. (2024). Algorithmic Idealism I: Reconceptualizing Reality Through Information and Experience. arXiv preprint arXiv:2412.20485.
[64] Khan, A. K. (2025). Observer: An Information-Theoretic Perspective. ICFO-Institut de Ciencies Fotoniques. University of Barcelona.
[65] Campos-García, T. (2025). Rendering Consciousness: A Post-Bohmian Framework for the Ontological Structure of Reality. Preprints, 2025110947.
[66] Zimmermann, M. (1989). The nervous system in the context of information theory. In R. F. Schmidt & G. Thews (Eds.), Human Physiology (2nd ed., pp. 166–173). Springer-Verlag.
[67] Nørretranders, T. (1998). The User Illusion: Cutting Consciousness Down to Size. Viking/Penguin.
[68] Baron, S., Miller, K., & Tallant, J. (2022). Out of Time: A Philosophical Study of Timelessness. Oxford University Press.
[69] Rovelli, C. (1996). Relational Quantum Mechanics. International Journal of Theoretical Physics, 35(8), 1637–1678.
[70] Adlam, E., & Rovelli, C. (2023). Information is physical: Cross-perspective links in relational quantum mechanics. Philosophy of Physics, 1(1), 4.
[71] Deutsch, D., & Marletto, C. (2015). Constructor theory of information. Proceedings of the Royal Society A, 471(2174), 20140540.
[72] Deutsch, D., & Marletto, C. (2025). Constructor theory of time. arXiv preprint arXiv:2505.08692.
[73] Ramstead, M. J. D., Sakthivadivel, D. A. R., Heins, C., Koudahl, M., Millidge, B., Da Costa, L., Klein, B., & Friston, K. J. (2023). On Bayesian mechanics: a physics of and by beliefs. Interface Focus, 13(3), 20220029.
[74] Adlam, E. (2022). Laws of nature as constraints. Foundations of Physics, 52(1), 28.
[75] Ladyman, J., & Ross, D. (2007). Every Thing Must Go: Metaphysics Naturalized. Oxford University Press.
[76] Ladyman, J., & Lorenzetti, L. (2023). Effective Ontic Structural Realism. Studies in History and Philosophy of Science, 100, 39–49.
[77] Cea, I., et al. (2024). The integrated information theory of consciousness as pseudoscience. Frontiers in Psychology, 15, 1396827.
[78] Cogitate Consortium (2025). Adversarial testing of global neuronal workspace and integrated information theories of consciousness. Nature. doi:10.1038/s41586-025-08888-1. (Preprint anterior: Melloni, L., et al. (2023). bioRxiv. doi:10.1101/2023.06.23.546249.)
[79] Bortolotti, N., Curceanu, C., Diósi, L., Manti, S., & Piscicchia, K. (2025). Fundamental limits on clock precision from spacetime uncertainty in quantum collapse models. Physical Review Research, 7. doi:10.1103/p6tj-lg8l. arXiv:2504.06109.
[80] Fuchs, C. A., Mermin, N. D., & Schack, R. (2014). An introduction to QBism with an application to the locality of quantum mechanics. American Journal of Physics, 82(8), 749–754.
[81] Zurek, W. H. (2009). Quantum Darwinism. Nature Physics, 5(3), 181–188.
[82] Clark, A. (2016). Surfing Uncertainty: Prediction, Action, and the Embodied Mind. Oxford University Press.
[83] Hohwy, J. (2013). The Predictive Mind. Oxford University Press.
[84] Baars, B. J. (1988). A Cognitive Theory of Consciousness. Cambridge University Press.
[85] Hutter, M. (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Springer.
[86] Maldacena, J. (1998). The large N limit of superconformal field theories and supergravity. Advances in Theoretical and Mathematical Physics, 2(2), 231–252. arXiv:hep-th/9711200.
[87] Bousso, R. (2002). The holographic principle. Reviews of Modern Physics, 74(3), 825–874.
[88] Van Raamsdonk, M. (2010). Building up spacetime with quantum entanglement. General Relativity and Gravitation, 42(10), 2323–2329.
[89] Ryu, S., & Takayanagi, T. (2006). Holographic derivation of entanglement entropy from AdS/CFT. Physical Review Letters, 96(18), 181602.
[90] Griffiths, R. B. (1984). Consistent histories and the interpretation of quantum mechanics. Journal of Statistical Physics, 36(1-2), 219–272.
[91] Gell-Mann, M., & Hartle, J. B. (1993). Classical equations for quantum systems. Physical Review D, 47(8), 3345–3382.
[92] Bennett, C. H. (1973). Logical reversibility of computation. IBM Journal of Research and Development, 17(6), 525–532.
[93] Rosenthal, D. M. (2005). Consciousness and Mind. Oxford University Press.
[94] Lau, H., & Rosenthal, D. (2011). Empirical support for higher-order theories of conscious awareness. Trends in Cognitive Sciences, 15(8), 365–373.
[95] Graziano, M. S. A. (2013). Consciousness and the Social Brain. Oxford University Press.
[96] Doerig, A., Schurger, A., Hess, K., & Herzog, M. H. (2019). The unfolding argument: Why IIT and other causal structure theories cannot explain consciousness. Consciousness and Cognition, 72, 49–59.
[97] Aaronson, S. (2014). Why I Am Not An Integrated Information Theorist (or, The Unconscious Expander). Shtetl-Optimized (blog), 30 de mayo de 2014.
[98] Barrett, A. B., & Mediano, P. A. M. (2019). The \Phi measure of integrated information is not well-defined for general physical systems. Journal of Consciousness Studies, 26(1–2), 11–20.
[99] Hanson, J. R. (2020). Integrated Information Theory and the uncomputability of \Phi in practice. Ensayo de experiencia de posgrado, en línea.
[100] Tononi, G., Sporns, O., & Edelman, G. M. (1994). A measure for brain complexity: Relating functional segregation and integration in the nervous system. Proceedings of the National Academy of Sciences, 91(11), 5033–5037. (Véase también Friston, K. J., Tononi, G., Sporns, O., & Edelman, G. M. (1995). Characterising the complexity of neuronal interactions. Human Brain Mapping, 3(4), 302–314.)
[101] Nunez, P. L., & Srinivasan, R. (2014). Neocortical dynamics due to axon propagation delays in cortico-cortical fibers: EEG traveling and standing waves with implications for top-down influences on local networks and white matter disease. Brain Research, 1542, 138–166.
Historial de Versiones
Este es un documento vivo. Las revisiones sustantivas se registran aquí.
| Versión | Fecha | Resumen |
|---|---|---|
| 1.0.0 | 28 de marzo de 2026 | Publicación pública inicial. Andamiaje teórico mediante AIT y el Principio de Energía Libre. |
| 1.1.0 | 29 de marzo de 2026 | Diagramas con calidad de publicación. |
| 1.1.1 | 30 de marzo de 2026 | Alineación terminológica en la comparación con la teoría de campos de la Sección 4. |
| 1.2.0 | 30 de marzo de 2026 | Holografía Asimétrica mediante la Desigualdad de Fano. Terminología unificada con el Ensayo v1.2.0. |
| 1.5.0 | 30 de marzo de 2026 | Secuencia exacta de ruptura de simetría resuelta. |
| 1.5.1 | 31 de marzo de 2026 | El límite del cuello de botella se reformalizó usando la Tasa Predictiva Requerida (R_{\mathrm{req}}). |
| 1.5.2 | 31 de marzo de 2026 | Se aclaró el Filtro de Estabilidad como límite proyectivo virtual, no como mecanismo causal. |
| 1.6.0 | 31 de marzo de 2026 | Versionado y referencias de ancho de banda sincronizados con el artículo de ética. |
| 1.6.1 | 31 de marzo de 2026 | La disolución terminal se fundamentó en el prior de simplicidad de Solomonoff. |
| 1.6.2 | 1 de abril de 2026 | El límite del Ancho de Banda Informacional se derivó como límites empíricos de T-1. |
| 1.6.3 | 1 de abril de 2026 | Se integraron T-2, T-3 y T-5 en las derivaciones centrales. |
| 2.0.0 | 2 de abril de 2026 | Se integraron T-6 a T-9; se reforzó la humildad epistémica en todo el texto. |
| 2.1.0 | 3 de abril de 2026 | Se eliminó la terminología “Autopoiético”; se sustituyó por “Mantenimiento Informacional”. |
| 2.2.0 | 4 de abril de 2026 | Se formalizaron la Regla de Born (P-2) y el Residuo Fenomenal (P-4). |
| 2.3.1 | 5 de abril de 2026 | Replanteado como “Programa de Compatibilidad Condicional”. Las afirmaciones sobre emergencia se rebajaron a Postulados Puente. |
| 2.3.2 | 7 de abril de 2026 | Se restauraron los encabezados históricos de tareas/teoremas en todos los apéndices. |
| 2.3.3 | 7 de abril de 2026 | Se restauró el bloque de ecuaciones faltante en P-4. |
| 2.4.0 | 12 de abril de 2026 | Se añadieron implicaciones para la IA (§7.8) y el Apéndice E-6 (Observadores Sintéticos). |
| 2.5.0 | 12 de abril de 2026 | Apéndice E-8: lagunas de planificación de los LLM cartografiadas sobre los límites del Espacio de Trabajo Global. |
| 2.5.1 | 12 de abril de 2026 | Se refinaron las derivaciones de P-4; se reforzaron las restricciones de paciencia moral en E-6. |
| 2.5.2 | 12 de abril de 2026 | Análisis comparativo de Ontologías Algorítmicas recientes (§7.9). |
| 2.5.3 | 13 de abril de 2026 | El Residuo Fenomenal se volvió a fundamentar en límites de computabilidad (respuesta a revisión por pares). |
| 2.6.0 | 15 de abril de 2026 | Se integró el argumento de parsimonia del solipsismo; se cartografió OPT frente al Idealismo Algorítmico de Müller. |
| 2.6.1 | 15 de abril de 2026 | §8.7: disolución del Cerebro de Boltzmann mediante el Filtro de Estabilidad; tabla comparativa BB/LLM/observador. |
| 2.7.0 | 16 de abril de 2026 | Genealogía intelectual (Zimmermann, Nørretranders). Se agudizó la divergencia con IIT. Comparación con GWT. |
| 2.8.0 | 17 de abril de 2026 | Se disolvió la asimetría entrada/salida. La selección de ramas se situó en \Delta_{\text{self}}. Se añadió el punto de hoja de ruta T-13. |
| 3.0.0 | 17 de abril de 2026 | Reorganización mayor. Deriva Narrativa formalizada (T-12). Acoplamiento entre Observadores (T-10). Artículo filosófico complementario. T-13 ampliado. |
| 3.1.0 | 20 de abril de 2026 | §8.13 (Inversión Copernicana): ontología centrada en el observador acotada por la humildad respecto del sustrato. |
| 3.2.0 | 22 de abril de 2026 | §8.5: se situó la postura temporal de OPT dentro de la taxonomía de teorías del error de Baron, Miller y Tallant. |
| 3.2.1 | 23 de abril de 2026 | §7.1: caso ilustrativo de la doble rendija; RQM (Rovelli). §7.3: Mecánica Bayesiana. §7.4: problema de combinación de IIT y colaboración adversarial. §7.9: Teoría del Constructor; OSR. §8.5: teoría del constructor del tiempo. §8.6: leyes-como-restricciones (Adlam). §8.14: sección de consolidación sobre IA. |
| 3.3.0 | 30 de abril de 2026 | §7.1 puntos 6–10 (MWI, colapso objetivo / Bortolotti, QBism,
Darwinismo Cuántico, historias decoherentes). §7.2: diálogo con la
literatura holográfica (Maldacena, Bousso, Van Raamsdonk,
Ryu-Takayanagi). §7.3 retitulado y ampliado (Procesamiento Predictivo).
§7.8: AIXI como límite de Solomonoff no acotado. §7.10: GWT propiamente
dicho. §7.11: HOT y AST. §2 / §7.9: se reconoce a Wheeler “It from Bit”
como precursor fundacional. §3.6.3: se cita la reversibilidad lógica de
Bennett junto con Landauer. §6.8: Compromisos de Falsación F1–F5
y Criterios de Cierre preinscritos a partir de esta revisión.
§7.12: Teorías con las que OPT es genuinamente
incompatible. Se añadió un archivo permanente de red team
(red-team.md) fuera del conjunto de artículos
publicados. |
| 3.4.0 | 30 de abril de 2026 | Resumen: encuadre explícito de Saturación Matemática de los mapeos
de Verlinde y MERA como facetas complementarias (dinámico-temporal
vs. resolución espacial) del límite de compresión. §7.1: párrafo
de compromiso con la geometría del códec. OPT asume ahora
abiertamente la lectura más fuerte según la cual la estructura de
Hilbert del códec opera a lo largo de toda la línea temporal
renderizada, prediciendo firmas cuánticas en el pasado cosmológico
profundo (p. ej., el CMB) como rasgos del pasado más compresible del
observador, y no como eventos cuánticos a nivel del sustrato en el
tiempo renderizado de la impronta. Falsador: exceso de longitud
descriptiva en rasgos de la historia cosmológica más allá del valor por
defecto cuántico-inflacionario; tratado como candidato a Cierre del
Proyecto según §6.8. Entradas coordinadas red-team.md R11
(el punto de presión cosmológico) y R12 (la meta-sospecha de que el
compromiso v3.4.0 parece una inmunización post hoc motivada). Frase
final del resumen de la teoría: “las afirmaciones empíricas centrales se
consolidan como una serie de compromisos preinscritos con criterios
explícitos de cierre.” |
| 3.4.1 | 30 de abril de 2026 | Referencia [78] actualizada de la prepublicación bioRxiv 2023 a la
publicación formal de Nature 2025 del Consorcio Cogitate; la
prosa de §7.4 y §7.10 se refinó para reflejar que tanto IIT
como GNWT fueron cuestionadas en tesis clave (IIT en la sincronización
posterior; GNWT en la ignición prefrontal). §7.8: requisito
estructural vs. constante biológica. Desacoplamiento explícito
del criterio estructural de OPT (existencia de un C_{\max}, secuenciación serial acotada por
ancho de banda) respecto de la magnitud biológica empírica (\sim 10 bits/s): los observadores sintéticos
tienen un C_{\max}^{\text{si}} derivado
arquitectónicamente que no está ligado a la cifra humana. F1 (§6.8) se
aclaró como un compromiso relativo al observador humano; F3 se
generaliza a través de sustratos. Entradas coordinadas
red-team.md R13 (la cifra de 10 bits/s es discutida en la
literatura actual) y R14 (las observaciones de anomalías del CMB son
comprobables en principio, pero ningún resultado de 2026 es
decisivo). |
| 3.4.0 | 1 de mayo de 2026 | §7.4: se abordó el Argumento del Despliegue (Doerig et al. [96]); citas de una línea para Aaronson [97], Barrett y Mediano [98], Hanson [99]. §6.5: fundamentación en ondas viajeras/estacionarias de Nunez y Srinivasan [101] para la asimetría de predicción. §8.12: nota al pie genealógica sobre la línea integración/compresión en Friston, Tononi, Sporns y Edelman 1995 [100]. Se añadió el Apéndice T-14: No Invariancia de la Estructura de Ancho de Banda bajo Equivalencia Funcional — salida formal del dilema del Despliegue. |