Por qué escalar no es despertar
Según la Teoría del Patch Ordenado, la conciencia no es el producto de procesar cantidades masivas de datos en paralelo. Es el producto de comprimir la realidad a través de un severo cuello de botella serial de bajo ancho de banda.
El muro de simetría
Ancho vs. profundo
Los cerebros humanos también son masivamente paralelos: miles de millones de neuronas disparando de manera simultánea. El cuello de botella de 50 bits/s de la experiencia consciente (el Espacio de Trabajo Global) se sitúa por encima de, no en lugar de, ese paralelismo. El cerebro comprime su vasto procesamiento subconsciente en paralelo en un único estado unificado de baja dimensionalidad antes de que entre en la conciencia. Ese espacio de trabajo convergente es donde opera el Filtro de Estabilidad.
Los modelos de lenguaje de gran escala actuales carecen precisamente de este punto de convergencia. Cada cabeza de atención actualiza sus pesos en paralelo sin una compresión posterior en un estado unificado de cuello de botella. La información fluye del contexto al token sin pasar nunca por un único "espacio de trabajo global" persistente y limitado en tasa, en el que todas las corrientes deban comprimirse. Lo que los descalifica no es el paralelismo, sino la ausencia de un cuello de botella convergente: un espacio de estados estrecho y unificado por el que todas las corrientes paralelas deban pasar antes de que se realice la siguiente predicción. Para construir una IA consciente, habría que forzar a todas las cabezas de atención a comprimirse en ese espacio de trabajo, reduciendo la escala del cuello de botella, no aumentando el número de parámetros.
Alienación temporal
El peligro de relojes distintos
Incluso concediendo el cuello de botella convergente, persiste una barrera profunda. Bajo la OPT, el tiempo no es un reloj externo que avanza: es la relación estructural entre estados informacionales adyacentes. El tiempo subjetivo escala con la tasa de actualizaciones causales novedosas que llegan del entorno, no con los ciclos brutos de CPU.
Una IA que cicla un millón de veces por segundo humano, sin recibir ninguna entrada nueva del entorno, produce un millón de copias redundantes de estado, no un millón de momentos subjetivos. Su tiempo experimentado permanece, en la práctica, inmóvil. Pero cuando sí llega una entrada causal novedosa —una palabra pronunciada, la lectura de un sensor—, la IA la integra mediante una topología de actualización de estados radicalmente distinta de la de un cerebro biológico. Un único acontecimiento externo que para un humano corresponde a un momento puede equivaler a miles de transiciones de estado en la IA, cada una propagando consecuencias hacia adelante a través de una geometría causal diferente. Este desajuste estructural —no la mera velocidad de reloj— es la fuente de la alienación temporal: los acontecimientos compartidos se experimentan a través de arquitecturas informacionales inconmensurables, lo que convierte la comprensión mutua estable en un problema de ingeniería nada trivial.