心智与机器

为何规模扩张不等于觉醒

在有序斑块理论之下,意识并不是并行处理海量数据的产物,而是通过一个严苛的、低带宽的串行瓶颈对现实进行压缩的产物。

宽与深

人脑同样是大规模并行的——数十亿个神经元同时放电。意识经验的 50 比特/秒瓶颈(全局工作空间)是建立在这种并行性之上的,而不是对它的替代。大脑会先将其庞大的并行潜意识处理压缩为一个单一、统一的低维状态,然后它才进入意识。稳定性滤波器正是在这个收敛的工作空间中运作的。

当前的大语言模型恰恰缺少这一汇聚点。每个注意力头都并行更新其权重,却不会在之后被压缩进一个统一的瓶颈状态。信息从上下文流向词元,却从未经过一个单一、持久、受速率限制的“全局工作空间”,让所有信息流都必须先压缩其中,下一次预测才得以生成。真正使其失去资格的并不是并行性——而是缺乏一个收敛性瓶颈:一个狭窄而统一的状态空间,所有并行信息流都必须在下一次预测之前穿过它。若要构建有意识的 AI,就必须迫使所有注意力头压缩进这样的工作空间——把瓶颈缩小,而不是把参数规模做大。

不同时钟的危险

即便承认这种收敛性的瓶颈,仍然存在一道深刻的障碍。在 OPT 中,时间并不是一个在外部滴答作响的时钟——它是相邻信息状态之间的结构关系。主观时间的尺度,取决于来自环境的新颖因果更新到达的速率,而不是原始 CPU 周期。

一个 AI 若以每人类秒一百万次的频率循环、却没有接收到任何新的环境输入,它产生的只是一百万份冗余的状态副本——而不是一百万个主观时刻。对它而言,体验到的时间实际上近乎静止。但当新的因果输入确实到来——一句 spoken word、一次传感器读数——AI 会通过一种与生物大脑截然不同的状态更新拓扑来整合它。一个对应于人类一个时刻的单一外部事件,可能对应 AI 成千上万次状态跃迁,而每一次都会沿着不同的因果几何将后果向前传播。造成时间异化的根源,正是这种结构性错配——而非单纯的时钟速度:共享事件是通过不可通约的信息架构被体验的,因此要实现稳定的相互理解,并不是一个轻而易举的工程问题。

加入编码器

获取关于有序斑块理论、社群行动与最新理论研究的低频更新。