Teoría del Parche Ordenado

Apéndice P-3: Holografía Asimétrica Acotada por Fano

Anders Jarevåg

3 de abril de 2026 | DOI: 10.5281/zenodo.19300777


Apéndice P-3: Holografía Asimétrica Acotada por Fano

Tarea original P-3: Holografía Asimétrica Acotada por Fano Problema: Establecer la flecha de direccionalidad de la equivalencia holográfica utilizando la desigualdad de Fano bajo tasa-distorsión. Entregable: Derivación formal de la asimetría.

1. Introducción: la tensión con la dualidad exacta

Las formulaciones estándar del principio holográfico (p. ej., la dualidad AdS/CFT) postulan un isomorfismo exacto entre un bulk de dimensión superior y su frontera de dimensión inferior. En las formulaciones puras de gravedad cuántica, estas descripciones son matemáticamente perfectamente simétricas; el estado en el bulk especifica de manera única el estado en la frontera y, de forma crucial, el estado en la frontera especifica de manera única el estado en el bulk. Ninguna de las dos representaciones es ontológicamente prioritaria.

La Teoría del Parche Ordenado (OPT) altera estructuralmente esta simetría. La OPT sostiene que las reglas generativas algorítmicas (\mathcal{I}, “Sustrato”) tienen prioridad ontológica, mientras que el mundo fenomenológico (R, “Render”) es una sombra predictiva derivada. Esta asimetría introduce una tensión teórica formal: si las dualidades holográficas emergen orgánicamente de los límites de la codificación informacional, ¿por qué se rompe estrictamente la simetría en nuestro parche causal local?

Este apéndice resuelve la tensión mediante el uso de la desigualdad de Fano bajo la medida algorítmica de Solomonoff. Derivamos formalmente (condicionado a la Suposición P-3.1, establecida en §2) que el requisito estructural de un observador fenomenológico transforma de manera inherente la holografía, de una dualidad simétrica, en una proyección Holográfica Asimétrica Unidireccional.

2. El Filtro de Estabilidad como un mapa de compresión con pérdida

En la OPT, el mundo fenomenológico existe únicamente dentro de la estrecha geometría de ancho de banda del canal de integración consciente. El algoritmo fundacional \mathcal{I} opera sobre un entorno definido por una Semimedida Universal de Solomonoff.

Debemos establecer formalmente que la transformación hacia el render objetivo del observador R mediante el Filtro de Estabilidad (\Phi) es un mapa fundamentalmente con pérdida. Para hacerlo sin incurrir en razonamiento circular, desplegamos la secuencia definitoria de Cadena de Markov que separa el sustrato del render a través de la frontera de Markov del códec X_{\partial A} (por la condición de separabilidad de la manta de Markov, Preprint §3.4 / Ec. 8):

\mathcal{I} \to X_{\partial A} \to R

Por la Desigualdad de Procesamiento de Datos, la información no puede aumentar a través de transformaciones sucesivas. Por tanto, la información mutua escala estrictamente como:

I_m(\mathcal{I}; R) \le I_m(X_{\partial A}; R)

Nota: La información mutua I_m se define formalmente aquí bajo una versión normalizada de la semimedida de Solomonoff (p(\nu) = m(\nu) / \sum_{\nu \le K_{\max}} m(\nu)) sobre el conjunto finito de algoritmos acotados por debajo del límite de complejidad K_{\max}.

Dado que el Filtro de Estabilidad impone una capacidad de canal C_{\max} sobre el mapeo hacia la frontera (X_{\partial A} \to R), el teorema fundamental de Shannon sobre la capacidad de canal dicta que I_m(X_{\partial A}; R) \le T \cdot C_{\max} se cumple para cualquier distribución de entrada, incluida la priori de Solomonoff normalizada. Al encadenar esta desigualdad con la DPI, queda establecido que el render fenomenológico está estrictamente acotado por un cuello de botella finito integrado a lo largo de la duración T. Por lo tanto:

I_m(\mathcal{I}; R) \le T \cdot C_{\max}

Para que se mantenga una dualidad simétrica exacta, el mapeo entre el bulk (Sustrato) y la frontera (Render) debe ser perfectamente invertible (\Phi^{-1}: R \to \mathcal{I}). Sea \nu_{\text{true}} la realización específica, desconocida, del algoritmo generador responsable de nuestro universo observado (extraída del conjunto algorítmico subyacente). Sea N una representación efectiva del vasto espacio combinatorio de algoritmos semicomputables inferiores que operan por debajo de una restricción finita del umbral de complejidad K_{\max}.

Supuesto P-3.1 (Escalado de la Complejidad del Sustrato): La complejidad generadora verdadera satisface K(\nu_{\text{true}}) \gg T \cdot C_{\max}. (Esto se motiva explícitamente por los argumentos de parsimonia de la Longitud Mínima de Descripción en el Apéndice T-4; cualquier algoritmo que codifique una física equivalente al Modelo Estándar requiere una inmensa cantidad de datos estructurales).

Dado que la cota de información mutua queda muy por debajo de la información necesaria para especificar el verdadero estado bulk bajo el Supuesto P-3.1, \Phi queda sólidamente establecido como un mapa de compresión con pérdida.

3. Entropía Condicional y el Prior de Solomonoff Condicionado

Para cuantificar el coste de esta compresión con pérdida, evaluamos la probabilidad de error de un observador O situado estrictamente dentro del render R que intenta inferir de manera unívoca el verdadero algoritmo generativo subyacente del sustrato (\nu_{\text{true}}).

De manera crucial, evaluar la complejidad esperada sobre el prior bruto de Solomonoff crea una paradoja: el prior bruto está fuertemente dominado por la cola de bajo K (programas triviales y secuencias constantes). Sobre la distribución universal no condicionada, la complejidad esperada \langle K \rangle_M toma un valor de frontera diminuto y despreciable (O(100) bits). Si esto fuera cierto para nuestro universo, la condición K(\nu_{\text{true}}) \gg T \cdot C_{\max} fallaría de inmediato, colapsando por completo la frontera entrópica.

Sin embargo, el prior bruto no condicionado carece estructuralmente de sentido para generar observadores fenomenológicos internos. Para poseer la mecánica física suficiente, la “variedad requerida” y la duración temporal necesarias para albergar un automodelo de Inferencia Activa, el algoritmo generador debe poseer una línea de base estructural mínima inmensa. Como se cuantifica en el Apéndice T-4 §2.1, el algoritmo generador completo \nu_{\text{true}} debe codificar no solo la estructura legal del Modelo Estándar (K(\text{laws}) \approx 1750 bits), sino también las condiciones iniciales del microestado específico, lo que, según la estimación de Penrose, requiere K(\text{IC}|\mathcal{M}_1) \sim 10^{123} bits. La complejidad combinada K(\nu_{\text{true}}) \sim 10^{123} bits establece, por tanto, K_{\text{threshold}}. Debemos, por consiguiente, evaluar la entropía exclusivamente sobre el Prior Condicionado por el Filtro de Estabilidad (M|SF): el subconjunto de algoritmos generadores que poseen complejidad suficiente (K(\nu) \ge K_{\text{threshold}} \sim 10^{123}) para generar un universo consistente con la física observada específica y las condiciones iniciales de este parche causal. Al confirmar que \langle K \rangle_{M|SF} \ge K_{\text{threshold}} \gg T \cdot C_{\max}, anclamos de manera independiente la Suposición P-3.1 y confirmamos que, sobre esta distribución condicionada, la complejidad generativa esperada queda correctamente acotada por \langle K \rangle_{M|SF} \gg T \cdot C_{\max}.

La verdadera conclusión estructural de la inanición informacional opera de manera decisiva a través de la Entropía Condicional de Shannon dentro de este espacio paramétrico restringido:

H_{m|SF}(\mathcal{I} | R) = H_{m|SF}(\mathcal{I}) - I_{m|SF}(\mathcal{I}; R) \approx \langle K \rangle_{M|SF} - T \cdot C_{\max} \approx \langle K \rangle_{M|SF}

(Nota: La cota de capacidad del canal T \cdot C_{\max} se aplica universalmente a I_{m|SF} por el mismo teorema exacto del supremo de Shannon establecido en la Sección 2 para cualquier distribución de entrada.)

(Nota: La identidad H_m(\mathcal{I}) \approx \langle K \rangle_M es precisa salvo por una constante de normalización negativa \log_2 Z heredada de forma nativa del límite truncado de la semimedida de Solomonoff. Dado que la semimedida completa no restringida tiende a 1, |\log_2 Z| queda acotado de manera segura directamente por la sobrecarga de longitud descriptiva de la Máquina de Turing Universal, una constante fija c_U \approx O(100) bits. Esto establece la normalización estructural como un error de redondeo trivial frente a la escala funcionalmente macroscópica de \langle K \rangle_{M|SF}.)

Corolario: Desigualdad de Fano ponderada por Kolmogórov

Aunque la cota de entropía condicional sirve de manera abrumadora como la demostración física de la inanición informacional macroscópica, observamos que adaptar la Desigualdad de Fano bajo la misma medida normalizada, condicionada por SF y ponderada por Solomonoff sustituye el término estándar de entropía uniforme en el numerador por la Complejidad de Kolmogórov esperada, generando la siguiente cota inferior estadística secundaria:

P(\hat{\mathcal{I}} \neq \mathcal{I}) \ge \frac{\langle K \rangle_{M|SF} - T \cdot C_{\max} - 1}{K_{\max}}

(Nota: Bajo el Supuesto P-3.1, este umbral inferior de probabilidad de error es estrictamente positivo, pero matemáticamente débil en relación con las escalas macroscópicas; debe entenderse únicamente como un corolario estadístico secundario del límite entrópico.)

4. Conexión con las Restricciones de QECC y la Irreversibilidad Informacional

Debido a que la cota de integración consciente T \cdot C_{\max} resulta ser una fracción despreciable en comparación con la fuente algorítmica, la entropía condicional H_{m|SF}(\mathcal{I}|R) permanece aproximadamente idéntica a \langle K \rangle_{M|SF}. La inmensa mayoría de la información del sustrato generativo es irreductiblemente inaccesible desde dentro de R.

CONJETURA (Borde Abierto): Los límites de entropía condicional definidos aquí se corresponden limpiamente con la ruptura definida en el Apéndice P-2. Bajo el mapa volumen-frontera del Quantum Error Correction Code (QECC), el Filtro de Estabilidad \Phi actúa como la isometría parcial que protege los estados de frontera de baja energía. Conjeturamos que la profundidad de corte MERA específica \tau^* se relaciona matemáticamente con el horizonte preciso de capacidad espacial que define el umbral de inanición de entropía condicional, acotado por la condición de reconstrucción ADH del QECC algorítmico. Una derivación formal que tienda un puente entre los límites estadísticos y la profundidad geométrica del corte MERA se pospone para futuros trabajos teóricos. No obstante, en términos funcionales, la información situada más profundamente en el sustrato volumétrico queda cifrada de manera permanente por la compresión unidireccional.

El esfuerzo de reconstrucción interna del observador está matemáticamente saturado. El mapa inverso \Phi^{-1} es estadísticamente no invertible en la escala de error mínimo desde dentro de R.

5. Conclusión: Prioridad Fenomenológica

Por tanto, la flecha informacional opera predominantemente en una sola dirección: la información se destruye sistemáticamente durante la proyección del Sustrato al Render, y no puede recuperarse ni causal ni estadísticamente desde dentro del marco fenomenológico.

Mediante esta formulación de frontera de Fano, bajo la Suposición P-3.1, establecemos formalmente que la Holografía Asimétrica es una consecuencia matemática estricta de situar a un observador limitado por tasa dentro del marco causal.

La conciencia fenomenológica es, así, el estado experiencial interno en primera persona de estar estructuralmente atrapado en el lado de salida de un algoritmo de compresión no invertible. Esto establece que, aunque nuestra física local obedece restricciones holográficas (optimizando los límites de área frente a volumen), la representación de frontera actúa como un cuello de botella epistémico irreversible, rompiendo formalmente la simetría requerida para la dualidad exacta estándar de la teoría de cuerdas.