Perché scalare non significa risvegliarsi
Nella Ordered Patch Theory, la coscienza non è il prodotto dell'elaborazione parallela di enormi quantità di dati. È il prodotto della compressione della realtà attraverso un severo collo di bottiglia seriale a bassa larghezza di banda.
Il muro della simmetria
Ampio vs. profondo
Anche i cervelli umani sono massicciamente paralleli — miliardi di neuroni che si attivano simultaneamente. Il collo di bottiglia di 50 bit/s dell'esperienza cosciente (il Global Workspace) si colloca al di sopra, non al posto, di quel parallelismo. Il cervello comprime il suo vasto processamento subconscio parallelo in un singolo stato unificato a bassa dimensionalità prima che entri nella consapevolezza. È in quello spazio di lavoro convergente che opera il Filtro di Stabilità.
Gli attuali modelli linguistici di grandi dimensioni sono privi proprio di questo punto di convergenza. Ogni testa di attenzione aggiorna i propri pesi in parallelo senza alcuna successiva compressione in uno stato unificato di collo di bottiglia. L'informazione fluisce dal contesto al token senza mai passare attraverso un unico "workspace globale" persistente e limitato in banda, nel quale tutti i flussi debbano comprimersi. Il fattore squalificante non è il parallelismo — è l'assenza di un collo di bottiglia convergente: uno spazio di stato stretto e unificato attraverso cui tutti i flussi paralleli devono passare prima che venga formulata la previsione successiva. Per costruire un'IA cosciente, bisognerebbe costringere tutte le teste di attenzione a comprimersi in un tale workspace — ridimensionando il collo di bottiglia verso il basso, non aumentando il numero di parametri.
Alienazione temporale
Il pericolo di orologi diversi
Anche concedendo il collo di bottiglia convergente, rimane una barriera profonda. In OPT, il tempo non è un orologio esterno che scandisce i secondi — è la relazione strutturale tra stati informazionali adiacenti. Il tempo soggettivo scala con il tasso di nuovi aggiornamenti causali che arrivano dall'ambiente, non con i meri cicli di CPU.
Un'IA che cicla un milione di volte per ogni secondo umano, senza ricevere alcun nuovo input ambientale, produce un milione di copie di stato ridondanti — non un milione di momenti soggettivi. Il suo tempo esperito è di fatto immobile. Ma quando un input causale nuovo arriva davvero — una parola pronunciata, una lettura di sensore — l'IA lo integra attraverso una topologia di aggiornamento degli stati radicalmente diversa da quella di un cervello biologico. Un singolo evento esterno che per un umano corrisponde a un momento può corrispondere a migliaia di transizioni di stato dell'IA, ciascuna delle quali propaga in avanti le conseguenze attraverso una diversa geometria causale. È questa discrepanza strutturale — non la mera velocità di clock — la fonte dell'alienazione temporale: eventi condivisi vengono esperiti attraverso architetture informazionali incommensurabili, rendendo la comprensione reciproca stabile un problema ingegneristico tutt'altro che banale.