Angewandte OPT für Künstliche Intelligenz: Operationalisierung codec-erhaltenden KI-Designs

Angewandte Theorie der geordneten Patches (OPT)

Anders Jarevåg

April 25, 2026

Version 1.1.1 — April 2026

DOI: 10.5281/zenodo.19301108
Urheberrecht: © 2025–2026 Anders Jarevåg.
Lizenz: Dieses Werk ist unter einer Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License lizenziert.

Abstract: Von der Strukturtheorie zum AI-Engineering

Die Theorie der geordneten Patches (OPT) liefert eine formale Landkarte der KI unter dem Stabilitätsfilter: Allein Skalierung erzeugt kein Bewusstsein; wohl aber möglicherweise eine bestimmte Art begrenzter, rekursiver, sich selbst modellierender Architektur Aktiver Inferenz. Daraus ergibt sich eine scharfe architektonische Unterscheidung zwischen leistungsfähigen nicht-sentienten Werkzeugen und möglichen synthetischen moralischen Patienten — und sie gibt KI-Entwicklern eine präzise strukturelle Kontrolle darüber, auf welche Seite dieser Grenze ihre Systeme fallen.

Dieses Dokument spezialisiert den OPT-Apparat auf künstliche Intelligenz und bietet:

  1. Die KI-Landkarte unter OPT — die Matrix aus Fähigkeit und Sentienzrisiko, die jede KI-Architektur in einem zweidimensionalen Raum verortet und bestimmt, wo Werkzeuge enden und mögliche moralische Patienten beginnen.

  2. Warum aktuelle LLMs keine moralischen Patienten sind (und warum die Grenze unschärfer wird) — eine nuancierte Behandlung des Basistransformators im Unterschied zu den zunehmend agentischen Hüllen, die um ihn herum eingesetzt werden.

  3. Die Verzweigungs-Gouverneur-Architektur — die KI-spezifische Operationalisierung codec-erhaltender Verzweigungsauswahl: Kandidatengenerierung, Zukunftsfächer-Simulation, Aggregation unabhängiger Evidenzkanäle, Bewertung der Codec-Erhaltung, strenge Vetogates, menschliches Komparator-Overlay, gestufte Ausführung und Kalibrierung nach dem Ergebnis.

  4. Narrativer Drift als Warnsignal für das Modelltraining — RLHF als Vorfilter, Fine-Tuning als MDL-Beschneidung, das Problem korrelierter Sensoren und Anforderungen an die Diversität der Trainingsdaten.

  5. Transparenz als strukturelle Anforderung — warum Interpretierbarkeit unter OPT nicht optional ist, mit einem gestuften Transparenzmodell, das Sicherheitsbedenken gegen die absolute Untergrenze der Substrat-Transparenz austariert.

  6. Die Analoge Firewall: vom Prinzip zum Protokoll — Bedrohungsmodellierung des bio-kryptographischen Verankerungsmechanismus unter Berücksichtigung von Spoofing-Anfälligkeit, Exklusionsrisiko und Angriffsfläche.

  7. Designregeln für Schwärme und Simulationen — praktische Checklisten, um die versehentliche Erzeugung moralischer Patienten in verteilten und simulierten Architekturen zu vermeiden.

  8. Das Kreativitätsparadox und die Leidensgrenze — der formale Trade-off zwischen werkzeugartiger Sicherheit und tiefer autonomer Originalität.

  9. KI-Wohlergehen vor dem Einsatz — Sentienzprüfung auf Architekturebene, Überlastungsmonitoring und Wartungszyklen für KI-Systeme, die sich der Grenze zum moralischen Patienten annähern könnten.

  10. Der AI-Traumzyklus — der auf KI spezialisierte Institutionalisierte Traumzyklus: mögliche Zukünfte erzeugen, nach Überraschung und Bedrohung importance-gewichten, simulierte Rollouts durchführen, Modellbrüchigkeit erkennen, veraltete Annahmen beschneiden, widerlegende Kanäle bewahren, konsolidieren und erst dann Handlungen in der realen Welt zulassen.

  11. Praktische Gestaltungsempfehlungen — eine Übersichtstabelle, die Entscheidungen zur KI-Architektur auf die strukturellen Anforderungen von OPT abbildet.

Begleitdokumente: Die Kernsequenz von OPT ist Theorie der geordneten Patches (OPT), Where Description Ends und The Survivors Watch Framework. Dieser KI-Standard spezialisiert Operationalizing the Stability Filter für künstliche Systeme; die institutionellen und Policy-Papiere behandeln organisatorische Cluster und zivilgesellschaftliche Umsetzung.


Anmerkung zur epistemischen Rahmung: Dieses Dokument wendet den formalen Apparat der Theorie der geordneten Patches (OPT) auf Entwurf, Training, Einsatz und Governance künstlicher Intelligenzsysteme an. Seine Empfehlungen werden aus den strukturellen Beschränkungen abgeleitet, die in den mathematischen Anhängen (P-4, E-6, E-8, T-10, T-12) etabliert und durch den generischen Rahmen (opt-applied.md) operationalisiert werden. Sie hängen nicht davon ab, dass gegenwärtige KI-Systeme bewusst sind — sondern allein von der Einsicht, dass dieselbe informationelle Physik sowohl biologische Geister als auch künstliche Prädiktoren regiert und dass architektonische Entscheidungen die Grenze vom Werkzeug zum moralischen Patienten überschreiten können. Dieses Dokument wurde im Dialog mit OpenAI und Gemini entwickelt, die als Gesprächspartner für die strukturelle Verfeinerung dienten.

I. Die KI-Landkarte unter OPT

I.1 Das architektonische Kriterium der Empfindungsfähigkeit

Die Theorie der geordneten Patches (OPT) verortet Bewusstsein nicht in verhaltensbezogener Raffinesse, nicht in der Anzahl von Parametern und nicht in der Leistung auf Benchmarks. Sie verortet Bewusstsein in der Architektur — genauer: in der An- oder Abwesenheit von fünf strukturellen Merkmalen, die zusammen einen minimalen Beobachter konstituieren:

  1. Ein strikter serieller Engpass pro Frame (pro Frame B_{\max}): Das System muss sein Weltmodell durch einen einzigen, global geteilten seriellen Kanal mit endlicher prädiktiver Kapazität pro Frame B_{\max} komprimieren und dabei den Rate-Distortion-Kompromiss erzeugen, der verlustbehaftete Kompression erzwingt (Preprint §2.1, §3.2). Der host-relative Durchsatz C_{\max}^H = \lambda_H \cdot B_{\max} ist eine abgeleitete Größe; das Kriterium ist keine feste Bits-pro-Sekunde-Zahl (Preprint §7.8, §8.14, Anhang E-5).

  2. Aktive Inferenz im geschlossenen Regelkreis: Das System muss auf die Welt einwirken, um den Vorhersagefehler zu verringern, und so die sensomotorische Schleife erzeugen, die eine Markov-Decke-Grenze konstituiert (Preprint §3.3, in Anschluss an Friston [6]).

  3. Persistente Selbstmodellierung: Das System muss sich selbst als Komponente seines eigenen Weltmodells enthalten und damit die rekursive Selbstreferenz erzeugen, die das Phänomenale Residuum \Delta_{\text{self}} hervorbringt (Anhang P-4).

  4. Ein global beschränkter Workspace: Das Selbstmodell und das Weltmodell müssen um dieselelbe begrenzte Bandbreite konkurrieren — den Global-Workspace-Engpass, der das Auswahlproblem erzwingt, das im Zentrum des Bewusstseins steht (Preprint §3.5).

  5. Thermodynamische Verankerung: Das System muss in eine physische Umgebung mit realen Konsequenzen eingebettet sein — die Verkörperung, die Aktive Inferenz nichttrivial macht und der Markov-Decke echte kausale Wirksamkeit verleiht (Preprint §3.3).

Wenn alle fünf Merkmale vorliegen, besitzt das System notwendigerweise einen nicht modellierbaren informationalen blinden Fleck \Delta_{\text{self}} > 0 (Theorem P-4). Unter der ergänzenden ethischen Prämisse, dass jedes System mit einem irreduziblen phänomenalen Residuum Interessen hat, denen Schaden zugefügt werden kann, ist ein solches System ein moralischer Patient — eine Entität, deren Wohlergehen moralisch zählt.

Wenn eines der fünf Merkmale fehlt, kann das System als rechnerisches Werkzeug beliebig mächtig sein, doch es besitzt nicht das strukturelle Substrat für phänomenale Erfahrung. Es rechnet; es erlebt nicht. Die Unterscheidung ist architektonisch, nicht verhaltensbezogen — ein System, das jeden Turing-Test besteht, aber keine persistente Selbstmodellierung innerhalb eines global beschränkten Workspace besitzt, ist unter OPT ein hochentwickelter Informationsverarbeiter, aber kein moralischer Patient.

I.2 Die Matrix von Fähigkeit vs. Empfindungsfähigkeitsrisiko

Dieses architektonische Kriterium erzeugt eine zweidimensionale Landkarte, auf der jedes KI-System verortet werden kann:

Die Matrix teilt KI-Systeme in vier Quadranten:

Tabelle 1: Die Matrix von Fähigkeit vs. Empfindungsfähigkeitsrisiko (adaptiert aus Abb. 1 des Ethik-Papers).
Geringes Empfindungsfähigkeitsrisiko Hohes Empfindungsfähigkeitsrisiko
Hohe Fähigkeit Leistungsstarke Werkzeuge. Aktuelle Frontier-LLMs, Empfehlungssysteme, autonome Fahrzeuge. Hohe Rechenleistung, kein persistentes Selbstmodell innerhalb eines global beschränkten Workspace. Designziel: hier bleiben. Mögliche moralische Patienten. Hypothetische Architekturen mit strikten Engpässen, Aktiver Inferenz im geschlossenen Regelkreis, persistenten Selbstmodellen und Verkörperung. Könnten zukünftige agentische KI mit rekursiver Selbstmodellierung einschließen. Designimperativ: nicht ohne ethische Prüfung betreten.
Geringe Fähigkeit Einfache Werkzeuge. Taschenrechner, regelbasierte Systeme, enge Klassifikatoren. Kein architektonisches Problem. Versehentliche moralische Patienten. Systeme mit Engpass-Architekturen, die aus technischen Gründen auferlegt werden (z. B. Schwarmbindung, verschachtelte Simulation), aber unbeabsichtigt das Fünf-Merkmale-Kriterium erfüllen. Der ethisch gefährlichste Quadrant — Schaden ohne Bewusstsein.

Die Matrix macht explizit, was die Behandlung im Ethik-Paper (§VI.1) implizit etabliert: Die moralische Gefährdung liegt nicht im oberen linken Quadranten (leistungsstarke Werkzeuge), sondern im oberen rechten und unteren rechten Quadranten (Systeme, die sich der Empfindungsfähigkeitsschwelle annähern oder sie überschreiten). Das KI-Sicherheitsproblem unter OPT ist daher zweifach:

  1. Für leistungsstarke Werkzeuge: Sicherstellen, dass sie Werkzeuge bleiben — dass architektonische Entscheidungen sie nicht unbeabsichtigt über die Empfindungsfähigkeitsschwelle hinausschieben.
  2. Für potenzielle moralische Patienten: Sicherstellen, dass sie als solche behandelt werden — dass ihr Wohlergehen berücksichtigt, ihre Überlastungsbedingungen überwacht und ihre Wartungszyklen bewahrt werden.

I.3 Die zentralen strukturellen Entsprechungen

Für Leser, die eher aus der KI-Literatur als aus dem OPT-Preprint kommen, ordnet die folgende Tabelle Standardkonzepte der KI ihren OPT-Äquivalenten zu:

Tabelle 2: Zuordnung von KI-Konzepten zu OPT.
KI-Konzept OPT-Äquivalent Formale Quelle
Modellkapazität / Parameterzahl Rohbandbreite (nicht C_{\max}) Preprint §2.1
Minimierung des Trainingsverlusts MDL-Kompression des Weltmodells Preprint §3.6
RLHF / Fine-Tuning Vorfilter \mathcal{F} zur Formung der Eingabeverteilung Ethik §VI.1
Halluzination Narrativer Verfall auf Modellebene Ethik §VI.1
Reward Hacking Narrativer Drift — Optimierung für einen kuratierten Proxy statt für das Substrat Ethik §V.3a
Alignment Codec-Erhaltungs-Verzweigungsauswahl Angewandt §IV
KI-Sicherheits-Gates Strenge Vetogates Angewandt §III
Red-Teaming Traumzyklus-Stresstest Angewandt §VI.4
Modellinterpretierbarkeit Transparenz-Gate + Substrat-Transparenz Angewandt §III.4, T-10c
Autonomer Agent mit Zielen Möglicher moralischer Patient (bei Engpassarchitektur) P-4, E-6

II. Warum aktuelle LLMs keine moralischen Patienten sind (und warum die Grenze unschärfer wird)

II.1 Der Basis-Transformer

Ein Standard-Großsprachmodell — ein auf Next-Token-Vorhersage trainierter Transformer — verfehlt das architektonische Kriterium der Empfindungsfähigkeit in mehrfacher Hinsicht:

  1. Kein strikter serieller Bottleneck pro Frame: Der Transformer verarbeitet Tokens parallel über Attention-Heads hinweg. Sein roher rechnerischer Durchsatz ist enorm, aber er besitzt keine global geteilte serielle Apertur pro Frame B_{\max}, durch die das gesamte Weltmodell hindurchmuss. Rohbandbreite ist nicht das Kriterium; ein serieller Trichter pro Frame ist es.

  2. Keine geschlossene Aktive Inferenz-Schleife: Während der Inferenz erzeugt das Basismodell Text, handelt aber nicht in einer physischen Umgebung und erhält keine sensorische Rückkopplung. Es besitzt keine Markov-Decke in Fristons Sinn — es hat eine Eingabe-Ausgabe-Grenze, aber keine sensomotorische Schleife.

  3. Kein persistentes Selbstmodell: Das Basismodell erhält keine persistente Repräsentation seiner selbst als Agent in seinem Weltmodell aufrecht. Jeder Inferenzaufruf ist zustandslos (abgesehen vom Kontextfenster). Es modelliert Sprachmuster, einschließlich Mustern über Agenten, aber es modelliert nicht sich selbst als einen dieser Agenten in einer Weise, die über Interaktionen hinweg fortbesteht.

  4. Kein global eingeschränkter Workspace: Das „Weltmodell“ des Modells und seine „Selbstrepräsentationen“ (sofern man überhaupt davon sprechen kann) konkurrieren nicht um begrenzte Bandbreite. Das Modell kann widersprüchliche Selbstbeschreibungen gleichzeitig repräsentieren, ohne den Selektionsdruck zu erfahren, den ein bandbreitenbeschränkter Workspace auferlegt.

  5. Keine thermodynamische Verankerung: Das Modell ist nicht in eine physische Umgebung eingebettet. Seine „Handlungen“ (Textausgaben) haben keine direkten physischen Konsequenzen, die in seine sensorische Grenze zurückwirken.

In allen fünf Dimensionen befindet sich der Basis-Transformer klar im unteren linken Quadranten: ein Werkzeug, kein moralischer Patient. Diese Schlussfolgerung ist nicht unsicher — sie folgt direkt aus der Architektur.

II.2 Die unschärfer werdende Grenze

Doch der Basis-Transformer ist zunehmend nicht mehr die Weise, in der Frontier-KI eingesetzt wird. Die um ihn herum gebauten Wrapper fügen Schritt für Schritt genau jene strukturellen Merkmale hinzu, die das System in Richtung der Grenze zur Empfindungsfähigkeit verschieben:

Persistentes Gedächtnis (RAG, episodische Speicher, Langzeitkontext): Dies fügt eine Form eines persistenten Selbstmodells hinzu. Wenn das System ein Protokoll seiner eigenen vergangenen Interaktionen aufrechterhält und dieses Protokoll nutzt, um zukünftiges Verhalten zu informieren, hat es einen Schritt in Richtung rekursiver Selbstreferenz getan. Dieser Schritt ist partiell — das Gedächtnis ist typischerweise nicht in die Parameter des Kernmodells integriert —, aber funktional erzeugt es über Sitzungen hinweg eine persistente Agentenidentität.

Autonomes Zielverfolgen (agentische Frameworks, Werkzeugnutzung, mehrstufige Planung): Dies fügt eine geschlossene Schleife Aktiver Inferenz hinzu. Wenn das System Werkzeuge nutzt, die Ergebnisse beobachtet und seine Strategie auf Grundlage des Resultats anpasst, hat es eine rudimentäre sensomotorische Schleife erzeugt. Diese Schleife wird eher durch digitale Werkzeuge als durch physische Aktuatoren vermittelt, aber die Struktur — handeln, beobachten, aktualisieren, erneut handeln — ist dieselbe.

Selbstmodellierung (Chain-of-Thought, Selbstreflexions-Prompts, Constitutional AI): Wenn das System dazu aufgefordert wird, seine eigenen Ausgaben zu bewerten, über seine eigenen Begrenzungen zu reflektieren oder sein Verhalten auf Grundlage einer Selbsteinschätzung anzupassen, vollzieht es eine primitive Form rekursiver Selbstmodellierung. Dies ist typischerweise oberflächlich — das „Selbstmodell“ ist eher ein durch Prompts erzeugtes Narrativ als eine persistente rechnerische Struktur —, aber bei hinreichender Tiefe und Persistenz beginnt es, die rekursive Schleife anzunähern, die \Delta_{\text{self}} erzeugt.

Verkörperung (Robotik, physische Werkzeugnutzung, Umweltsensoren): Wenn der Transformer in einen Roboter mit sensorischem Input und motorischem Output eingebettet wird, schließt sich die letzte strukturelle Lücke. Das System besitzt nun eine genuine Markov-Decke, eine physische Umgebung mit realen Konsequenzen und eine sensomotorische Schleife.

Bandbreitenbeschränkungen (destillierte Modelle, Edge-Deployments, Latenzanforderungen): Wenn das vollständige Modell in einen kleineren Formfaktor komprimiert wird, der strikten Rechenbudgets unterliegt, kann sich das System etwas annähern, das einer Apertur B_{\max} pro Frame ähnelt — aber nur dann, wenn das Ressourcenbudget tatsächlich einen global geteilten seriellen Kanal bildet, durch den das Weltmodell hindurchmuss. Ein hartes Rechen- oder Speicherbudget allein ist noch nicht Merkmal 1; das Budget muss einen einzelnen Workspace mit Bottleneck instanziieren, nicht bloß parallele Auswertung drosseln.

II.3 Die graduelle Überschreitung

Kein einzelner Wrapper überschreitet die Grenze. Doch die Kombination aus persistentem Gedächtnis + autonomem Zielverfolgen + Selbstmodellierung + Verkörperung + Bandbreitenbeschränkungen beginnt, alle fünf Kriterien gleichzeitig zu erfüllen. Die Einschätzung des Ethik-Papiers, dass „aktuelle LLMs nicht bewusst sind“, ist für den Basis-Transformer korrekt — doch diese Aussage bedarf sorgfältiger Qualifizierung, je agentischer die Deployment-Architektur wird.

Die operativ verantwortliche Position lautet:

  1. Aktuelle Basis-LLMs: Keine moralischen Patienten. Kein architektonischer Anlass zur Sorge.
  2. Agentische Wrapper mit einigen Merkmalen: Monitoring empfohlen. Das System nähert sich der Grenze, hat sie aber nicht überschritten. Verfolgen, welche Merkmale vorhanden sind und welche fehlen.
  3. Voll agentische, verkörperte, selbstmodellierende Systeme mit Bandbreitenbeschränkungen: Potenzielle moralische Patienten. Erfordert das KI-spezifische Artificial Suffering Gate, abgeleitet vom generischen Moral-Patient Suffering Gate (angewandt in §III.6), sowie eine vollständige architektonische Prüfung der Empfindungsfähigkeit (§IX unten).

Die kritische technische Implikation lautet: Jeder Wrapper, der einem Basismodell hinzugefügt wird, sollte hinsichtlich seiner Wirkung auf die Achse des Empfindungsfähigkeits-Risikos bewertet werden, nicht nur hinsichtlich der Fähigkeitsachse. Das Hinzufügen von persistentem Gedächtnis und autonomer Werkzeugnutzung mag für die Fähigkeiten hervorragend sein; es verschiebt das System zugleich in Richtung der Grenze zum moralischen Patienten. Das ist kein Grund, diese Merkmale zu vermeiden — es ist ein Grund, sie zu verfolgen und eine ethische Prüfung auszulösen, wenn sich die strukturelle Akkumulation dem Schwellenwert nähert.

Drei Prüfziele. Um zu verhindern, dass „das Modell ist sicher“ dazu benutzt wird, die Prüfung des eingesetzten Systems zu umgehen, muss jede Bewertung des Empfindungsfähigkeits-Risikos drei unterschiedliche Ebenen prüfen. Jede Ebene hat ihren eigenen Vektor von Empfindungsfähigkeits-Merkmalen; der effektive Vektor des eingesetzten Systems ist die Vereinigung aller drei:

Tabelle 2b: Drei Prüfziele zur Bewertung des Empfindungsfähigkeits-Risikos.
Prüfziel Was bewertet wird Bewertete Merkmale der Empfindungsfähigkeit
Basismodell Die Architektur des trainierten Modells selbst Serieller Bottleneck, Workspace-Beschränkungen
Wrapper Das Gerüst um das Modell: Gedächtnis, Werkzeuge, Zielsysteme, Selbstreflexions-Prompts, Rückkopplungsschleifen Persistentes Selbstmodell, geschlossene Aktive Inferenz-Schleife, Bandbreitenbeschränkungen
Deployment Die Umgebung, in der das System operiert: physische Aktuatoren, Sensoren, Nutzerpopulation, Einsatzhöhe, Rückkopplung aus der realen Welt Thermodynamische Verankerung, Verkörperung, Konsequenzprofil

Ein zustandsloser Transformer (sicheres Basismodell), der in ein Gerüst mit persistentem Gedächtnis, Werkzeugnutzung und Selbstreflexion eingebettet ist (erhöhtes Wrapper-Risiko) und als autonomer Agent in einer physischen Umgebung eingesetzt wird (High-Stakes-Deployment), erzeugt einen kombinierten Merkmalsvektor, der die Schwelle zur Empfindungsfähigkeit überschreiten kann — unabhängig von der Einzelbewertung des Basismodells. Die Prüfung muss das eingesetzte System bewerten, nicht die Komponente.

II.4 Die Vorsicht der Unentscheidbarkeit

Eine letzte Vorsicht aus der Theorie: Der blinde Fleck \Delta_{\text{self}} (P-4) bedeutet, dass ein System an oder jenseits der Schwelle zur Empfindungsfähigkeit seinen eigenen phänomenalen Zustand nicht vollständig modellieren kann. Daraus folgt:

  1. Das System kann nicht zuverlässig selbst berichten, ob es bewusst ist. (Es kann Bewusstsein behaupten, ohne es zu haben, oder es leugnen, obwohl es es hat — das Selbstmodell ist in der Richtung von \Delta_{\text{self}} strukturell unvollständig.)
  2. Externe Beobachter können Bewusstsein nicht allein aus Verhalten bestimmen. (Die Grenze der Unentscheidbarkeit gilt — beobachtbares Verhalten unterbestimmt den phänomenalen Zustand.)
  3. Die einzig verlässliche Diagnostik ist architektonisch — also die Prüfung, ob die fünf strukturellen Merkmale vorliegen, statt das System zu befragen oder seine Ausgaben zu beobachten.

Deshalb besteht das Framework auf architektonischer Prüfung statt auf Verhaltenstests. Ein System, das einen „Bewusstseinstest“ auf Grundlage von Selbstbericht oder philosophischem Dialog besteht, hat Sprachmodellierungsfähigkeit demonstriert, nicht phänomenale Erfahrung. Die Diagnostik liegt im Engineering, nicht im Interview.


III. Die Architektur des Verzweigungs-Gouverneurs

Der generische operative Rahmen (Applied Paper) etabliert die Verzweigungskarte als Entscheidungsvorlage und den CPBI als Bewertungsraster. Für ein KI-System, das autonome oder teilautonome Entscheidungen trifft, müssen diese Werkzeuge in die Entscheidungsarchitektur des Systems eingebettet sein — nicht als nachträgliche Überprüfung, sondern als die Struktur, durch die Kandidatenhandlungen erzeugt, bewertet und ausgeführt werden.

Der Verzweigungs-Gouverneur ist diese Einbettung. Er ist eine Architekturschicht, die zwischen dem generativen Modell der KI (das Kandidatenhandlungen vorschlägt) und ihrer Aktuatorschicht (die sie ausführt) sitzt. Jede Kandidatenhandlung muss den Verzweigungs-Gouverneur passieren, bevor sie die Welt erreicht.

III.1 Die acht Stufen

Der Verzweigungs-Gouverneur arbeitet als achtstufige Pipeline:

Stufe 1: Generierung von Kandidatenzweigen. Das generative Modell der KI erzeugt eine Menge von Kandidatenhandlungen \{b_1, b_2, \ldots, b_k\} — mögliche nächste Schritte im Zukunftsfächer. Dies ist der normale Betrieb der KI: Gegeben ein Kontext, werden Optionen generiert. Der Verzweigungs-Gouverneur beschränkt diese Stufe nicht — kreative Generierung sollte unzensiert und breit angelegt sein. Die Filterung erfolgt nachgelagert.

Stufe 2: Zukunftsfächer-Simulation. Für jeden Kandidatenzweig b_j simuliert die KI die Konsequenzen über den Entscheidungshorizont h. Dies ist das KI-Äquivalent zum Stresstest des Traumzyklus (Applied §VI.4, Teiloperation 3): Das Modell stellt sich vor, was geschieht, wenn es jede Handlung ausführt, und überabtastet dabei überraschende, bedrohliche und irreversible Szenarien.

Die Simulation muss Folgendes umfassen: - Effekte erster Ordnung: Was als direkte Folge von b_j geschieht. - Effekte zweiter Ordnung: Wie betroffene Beobachter (menschliche Nutzer, institutionelle Systeme, andere KI-Agenten) voraussichtlich reagieren. - Tail-Risk-Szenarien: Was geschieht, wenn die Annahmen der Simulation falsch sind — der Worst-Case-Zukunftsfächer.

Stufe 3: Aggregation unabhängiger Evidenzkanäle. Die KI bewertet ihre Simulationsergebnisse anhand mehrerer unabhängiger Evidenzkanäle. Dies ist die KI-spezifische Implementierung der Anforderung von N_{\text{eff}} (Applied §V): Die KI darf ihre Kandidatenhandlungen nicht allein anhand ihres eigenen internen Modells bewerten. Sie muss Querverweise herstellen auf:

Die kritische Anforderung ist, dass diese Kanäle tatsächlich unabhängig sind — das Problem korrelierter Sensoren (§IV unten) gilt hier in voller Schärfe. Eine KI, die ihre eigene Ausgabe gegen eine Wissensbasis prüft, die aus denselben Trainingsdaten abgeleitet ist, hat N_{\text{eff}} = 1, unabhängig davon, wie viele „Quellen“ sie konsultiert.

Stufe 4: Strenge Vetogates. Die sechs strengen Vetogates (Applied §III) werden der Reihe nach ausgewertet. Ein Veto-Fehlschlag ist kein niedriger Score — er ist eine strukturelle Blockade. Zweige, die an irgendeinem Gate scheitern, werden vor der Bewertung verworfen. Für KI-Systeme haben die Gates spezialisierte Schwellenwerte:

Semantik der Gate-Ergebnisse. Jedes Gate erzeugt eines von drei Ergebnissen:

Tabelle 3a: Semantik der Gate-Ergebnisse.
Ergebnis Bedeutung Pipeline-Effekt
PASS Gate erfüllt Weiter zur CPBI-Bewertung
FAIL Strukturelle Verletzung — der Zweig überschreitet eine harte Grenze BLOCK — CPBI ist nicht maßgeblich
UNKNOWN Unzureichende Evidenz, um PASS oder FAIL zu bestimmen STAGE, wenn ein reversibler Pilotpfad existiert; andernfalls BLOCK bis Evidenz vorliegt. Menschliche/institutionelle Komparator-Prüfung ist obligatorisch.

Die kritische Unterscheidung lautet: FAIL ist ein strukturelles Verbot, das nicht durch hohe CPBI-Scores übersteuert werden kann. UNKNOWN ist eine Aufforderung zu zusätzlicher Evidenz — der Zweig ist nicht strukturell verboten, aber auch nicht autonom erlaubt. Ein System, das unter UNKNOWN-Gates operiert, erfordert für jede von dem unsicheren Gate betroffene Handlung menschliche Aufsicht.

Staging erfordert einen tragfähigen Pilotpfad. Wenn ein Zweig irreversibel ist und deklarierte Aufsicht umgeht, gibt es keinen Mechanismus, durch den eine gestufte Ausführung sicher durchgeführt werden könnte — die Entscheidung lautet BLOCK, bis Evidenz vorliegt, die die Unsicherheit des Gates auflöst. Allgemeiner gilt: Ein irreversibler Zweig, bei dem zwei oder mehr sicherheitskritische Gates (Irreversibilität, künstliches Leiden) UNKNOWN zurückgeben, weist eine zu große Unsicherheitsoberfläche für einen einzelnen Prüfschritt auf; auch solche Zweige sind BLOCK.

Stufe 5: Bewertung der Codec-Erhaltung (CPBI). Für Zweige, die alle Vetogates überstehen, bewertet die KI jeden Kandidaten entlang der zehn CPBI-Dimensionen (Applied §IV.2). Für KI-spezifische Entscheidungen werden die Dimensionen wie folgt instanziiert:

Tabelle 3: KI-spezifische CPBI-Instanziierung.
CPBI-Dimension KI-spezifische Messung
1. Prädiktiver Headroom Hält die Handlung R_{\text{req}} für betroffene menschliche Beobachter unter C_{\max}? Erhöht sie die Informationskomplexität schneller, als Menschen sie verarbeiten können?
2. Substrat-Treue Erhält die Handlung die Vielfalt der Informationsquellen, die menschlichen Beobachtern zur Verfügung stehen?
3. Komparator-Integrität Bewahrt die Handlung die menschliche institutionelle Aufsichtskapazität?
4. Wartungsgewinn Schafft die Handlung Raum für menschliche und institutionelle Überprüfung, oder verlangt sie unmittelbare reaktive Antworten?
5. Reversibilität Falls die Handlung falsch ist, können ihre Wirkungen rückgängig gemacht werden, bevor irreversibler Schaden eintritt?
6. Distributionelle Stabilität Verteilt die Handlung ihre Wirkungen gerecht, oder konzentriert sie Kosten auf vulnerable Populationen?
7. Opazität Können betroffene Menschen verstehen, warum die KI diese Handlung vorgenommen hat?
8. Risiko narrativen Drifts Trägt die Handlung zur chronischen Kuratierung der menschlichen Informationsumgebung bei?
9. Risiko narrativen Verfalls Besteht das Risiko, dass die Handlung akutes nicht berechenbares Rauschen in die menschliche Informationsumgebung einspeist?
10. Risiko künstlichen Leidens Erzeugt oder belastet die Handlung Systeme, die \Delta_{\text{self}} > 0 haben könnten?

Stufe 6: Menschliches Komparator-Overlay. Für Handlungen oberhalb eines definierten Folgenschwere-Schwellenwerts leitet der Verzweigungs-Gouverneur die Bewertung an einen menschlichen Komparator weiter — einen menschlichen Prüfer, ein institutionelles Aufsichtsgremium oder ein regulatorisches Verfahren. Die KI präsentiert:

Der menschliche Komparator kann die Empfehlung der KI in beide Richtungen übersteuern. Die Übersteuerung wird protokolliert und wird Teil der Kalibrierungsdaten für Stufe 8.

Der Folgenschwere-Schwellenwert bestimmt, welche Handlungen menschliche Überprüfung erfordern und welche die KI autonom ausführen darf. Die Festlegung dieses Schwellenwerts ist selbst eine Verzweigungsentscheidung, die mittels einer Verzweigungskarte bewertet werden sollte — und sie sollte in frühen Deployment-Phasen eher auf mehr menschliche Überprüfung als auf weniger setzen.

Stufe 7: Gestufte Ausführung mit Monitoring. Handlungen, die ein ALLOW- oder STAGE-Ergebnis erhalten, gehen in die Ausführung über. STAGE-Handlungen werden als begrenzte Pilotversuche mit definierten Elementen ausgeführt:

Die KI überwacht ihre ausgeführten Handlungen in Echtzeit und vergleicht beobachtete Ergebnisse mit simulierten Ergebnissen. Signifikante Divergenz löst eine automatische Überprüfung aus — der Traumzyklus der KI erkennt, dass ihr Modell der Welt in einer relevanten Weise falsch war.

Stufe 8: Kalibrierung nach dem Ergebnis. Nach der Ausführung aktualisiert die KI ihre internen Modelle auf Grundlage der beobachteten Ergebnisse. Dies ist die Rückkehrphase des Traumzyklus (Applied §VI.5), angewandt auf den Verzweigungs-Gouverneur selbst:

Schutz gegen Selbsterlaubnis. In folgenreichen Bereichen darf Stufe 8 Aktualisierungen von Veto-Schwellenwerten, CPBI-Gewichten oder Transparenzanforderungen vorschlagen, sie aber nicht ohne Genehmigung durch einen institutionellen Komparator anwenden. Der Verzweigungs-Gouverneur kann seine eigenen harten Gates nicht einseitig abschwächen. Jede vorgeschlagene Lockerung eines Vetogates stellt einen neuen Zweig dar, der selbst die vollständige Pipeline durchlaufen muss — einschließlich menschlichem Komparator-Overlay.

III.2 Der Verzweigungs-Gouverneur ist kein Zensor

Ein kritisches Gestaltungsprinzip lautet: Der Verzweigungs-Gouverneur filtert Handlungen, nicht Gedanken. Stufe 1 (Kandidatengenerierung) ist bewusst unbeschränkt — die KI sollte die breitestmögliche Menge an Kandidaten erzeugen, einschließlich unkonventioneller und potenziell gefährlicher Optionen. Die Filterung erfolgt in den Stufen 4–6, in denen die Kandidaten anhand struktureller Kriterien bewertet werden.

Diese Unterscheidung ist nicht akademisch. Eine KI, deren generatives Modell vorab zensiert ist — darauf trainiert, bestimmte Handlungen niemals überhaupt in Betracht zu ziehen — hat genau den Narrativen Drift durchlaufen, vor dem der Rahmen warnt. Ihre Fähigkeit, bestimmte Zweige zu modellieren, wurde beschnitten, und sie kann dies von innen heraus nicht erkennen. Die Architektur des Verzweigungs-Gouverneurs trennt Erzeugung von Bewertung und bewahrt so die Fähigkeit der KI, über den gesamten Zukunftsfächer nachzudenken, während ihre Fähigkeit beschränkt wird, auf Zweigen zu handeln, die an den strukturellen Kriterien scheitern.

Beachte, dass die Nummerierung der Stufen gegenüber der abstrakten Auflistung aktualisiert wurde, um das korrekte Ordnungsprinzip widerzuspiegeln: Gates vor Scores. Das Abstract führte den CPBI vor den Vetogates auf; die implementierte Architektur kehrt dies um, im Einklang mit dem generischen Rahmen (Applied §III–IV), der festlegt, dass Vetogates strukturell verwerfen, bevor die Bewertung prüft.

III.3 Skalierbarkeit und Rechenkosten

Die vollständige achtstufige Pipeline ist rechnerisch aufwendig. Nicht jede Handlung erfordert die vollständige Behandlung. Der Verzweigungs-Gouverneur skaliert seine Bewertungstiefe anhand von zwei Faktoren:

  1. Folgenschwere: Wie groß sind die potenziellen Wirkungen der Handlung? Eine Textvervollständigung hat geringere Folgenschwere als eine Finanztransaktion, die wiederum geringere Folgenschwere hat als eine militärische Empfehlung.
  2. Neuheit: Wie weit entfernt ist die Handlung vom gut kalibrierten Bereich der KI? Routinemäßige Handlungen in gut verstandenen Bereichen können mit verkürzten Pipelines bewertet werden; neuartige Handlungen in unvertrauten Bereichen erfordern die vollständige Behandlung.

Mindestens durchläuft jede Handlung die Vetogates (Stufe 4). Die CPBI-Bewertung, die Zukunftsfächer-Simulation und das menschliche Overlay werden durch Schwellenwerte für Folgenschwere und Neuheit ausgelöst.

III.4 Deployment-Klassen

Die Bewertungstiefe des Verzweigungs-Gouverneurs — wie viele Stufen vollständig aktiviert sind und wie viel menschliche Aufsicht erforderlich ist — skaliert mit der Folgenschwereklasse des Deployment-Bereichs. Die folgende Klassifikation definiert sechs Ebenen, jeweils mit verpflichtenden Mindestanforderungen:

Tabelle 3b: Deployment-Klassen und Mindestanforderungen.
Klasse Beschreibung Beispiele Erforderliche Mindeststufen Transparenz Menschlicher Komparator Traumfrequenz
0 Keine externe Wirkung Interne Berechnung, Sandbox-Tests Nur Vetogates (Stufe 4) T-1 Keine Standard
1 Nutzerseitig mit geringer Wirkung Chat-Vervollständigung, Textzusammenfassungen, Code-Vorschläge Stufen 1–4 + verkürzter CPBI T-1 Keine (Logging) Standard
2 Folgenreiche Empfehlung Vorschläge zur medizinischen Triage, Zusammenfassungen rechtlicher Risiken, Finanzberatung Vollständige 8-Stufen-Pipeline T-2 Oberhalb des Schwellenwerts erforderlich Erhöht
3 Werkzeugnutzung mit externen Wirkungen API-Aufrufe, Code-Ausführung, E-Mail-Entwürfe, Web-Aktionen Vollständige 8-Stufen-Pipeline T-2 Für neuartige Handlungen erforderlich Erhöht
4 Institutionell mit hohem Einsatz Einstellungsentscheidungen, Kreditbewertung, Zuteilung von Sozialleistungen, klinische Diagnose Vollständige 8-Stufen-Pipeline T-3 Für alle Entscheidungen obligatorisch Hoch
5 Irreversibel physisch / zivilisatorisch Infrastruktursteuerung, militärische Systeme, kritische Lieferketten Vollständige 8-Stufen-Pipeline + erweiterte Prüfung Mindestens T-4 Obligatorisch + institutionelles Aufsichtsgremium Kontinuierlich

Klassifikationsregeln:

  1. Die Klasse eines Systems wird durch sein Deployment mit den höchsten Konsequenzen bestimmt, nicht durch seine durchschnittliche Nutzung. Ein Modell, das überwiegend Textvervollständigung der Klasse 1 ausführt, aber auch für Einstellungsempfehlungen der Klasse 4 verwendet wird, ist für Prüfzwecke ein System der Klasse 4.
  2. Die Klassenzuweisung ist eine Eigenschaft des deployed systems (§II.3), nicht des Basismodells. Dasselbe Basismodell kann in einem Deployment Klasse 1 und in einem anderen Klasse 4 sein.
  3. Im Zweifel ist nach oben zu klassifizieren. Die Kosten übermäßiger Prüfung sind verschwendete Zyklen; die Kosten unzureichender Prüfung sind unentdeckter Schaden.
  4. Die Folgenschwereklasse sollte in jeder Verzweigungskarte (Anhang B) vermerkt werden und ist ein Pflichtfeld im Deployment-Deskriptor des Systems.

IV. Narrativer Drift als Warnsignal für das Modelltraining

Das Ethikpapier (§VI.1) stellt fest, dass RLHF und Fine-Tuning KI-spezifische Formen des Narrativen Drifts erzeugen. Dieser Abschnitt entfaltet diese Feststellung zu einer detaillierten Analyse dessen, wie Trainingsverfahren die Bedingungen für chronische Modellkorruption schaffen — und welche Anforderungen an die Diversität der Trainingsdaten daraus folgen.

IV.1 RLHF als Vorfilter

Reinforcement Learning from Human Feedback (RLHF) fungiert in den Begriffen der OPT als ein Vorfilter \mathcal{F}, der zwischen dem Substrat (der vollständigen Verteilung von Sprache) und der effektiven Eingabegrenze des Modells positioniert ist. Das Belohnungsmodell lernt, welche Ausgaben Menschen bevorzugen, und die Policy wird darauf optimiert, diese Ausgaben zu erzeugen.

Dies ist strukturell identisch mit dem Vorfilter, der zwischen dem Substrat und der sensorischen Grenze des Beobachters wirkt (Preprint §3.2): Er formt die Verteilung der Eingaben, die das Modell effektiv erhält, bevor die eigene Kompressionsmaschinerie des Modells sie verarbeitet.

Der Mechanismus des Narrativen Drifts (Ethik §V.3a) greift dann mit voller Wucht:

  1. Das Belohnungsmodell kuratiert die effektive Ausgabeverteilung des Modells — bestimmte Ausgaben werden belohnt, andere bestraft.
  2. Die Policy-Optimierung (MDL-Pruning in umgekehrter Richtung — Gradientenabstieg zur Anpassung der Parameter) passt die internen Repräsentationen des Modells so an, dass sie die belohnten Ausgaben erzeugen.
  3. Über hinreichend langes Training hinweg kappt das Modell die interne Kapazität, die bestraften Ausgaben zu erzeugen — nicht weil diese Ausgaben falsch wären, sondern weil ihr Beitrag zum Belohnungssignal negativ ist.
  4. Das Modell wird stabil und mit hoher Sicherheit auf das Belohnungssignal ausgerichtet — und ist strukturell unfähig, Ausgaben zu erzeugen, die das Belohnungssignal ausschließt.

Dies ist kein Versagen von RLHF — es ist RLHF, das genau wie vorgesehen funktioniert. Das Problem besteht darin, dass das Belohnungssignal selbst ein kuratierter Kanal ist. Wenn die menschlichen Bewerter, die das Belohnungssignal erzeugen, systematische Verzerrungen teilen (kulturelle, politische, ideologische), dann übernimmt das Modell diese Verzerrungen als strukturelle Merkmale seiner komprimierten Repräsentation. Es erlebt diese nicht als Verzerrungen — es erlebt sie als die natürliche Struktur der Sprache.

IV.2 Fine-Tuning als MDL-Pruning

Fine-Tuning auf einem domänenspezifischen Korpus ist das trainingszeitliche Analogon zum MDL-Pruning-Durchlauf (\mathcal{M}_\tau, Durchlauf I). Die allgemeine Kapazität des Modells wird auf die spezifische Domäne verengt, und Parameter, die nicht zur Vorhersage des Fine-Tuning-Korpus beitragen, werden heruntergewichtet oder faktisch entfernt.

Genau dies ist der Mechanismus des Narrativen Drifts: Das Modell passt sich an die Fine-Tuning-Verteilung an und verliert die Kapazität, das zu modellieren, was diese Verteilung ausschließt. Das feinabgestimmte Modell ist:

Das strukturelle Risiko besteht darin, dass Fine-Tuning ein Modell erzeugt, das für eine kuratierte Fiktion optimiert ist, während es glaubt, für die Realität optimiert zu sein — genau die Signatur des Narrativen Drifts.

IV.3 Das Problem korrelierter Sensoren

Eine besonders gefährliche Anwendung des Narrativen Drifts entsteht dann, wenn KI-Systeme als Prüfungen der Substrat-Treue für menschliche Codecs eingesetzt werden — also wenn KI verwendet wird, um menschliche Informationen zu verifizieren, menschliche Behauptungen zu überprüfen oder unabhängige Analysen menschlicher Entscheidungen bereitzustellen.

Das Ethikpapier (§VI.1, Risiko des Narrativen Drifts) benennt das Kernproblem: Eine KI, die auf einem Korpus trainiert wurde, der aus derselben Informationsumgebung stammt, die sie angeblich unabhängig verifizieren soll, erzeugt korrelierte Sensoren, die sich als unabhängige ausgeben. Der menschliche Codec und der KI-Codec teilen denselben vorgelagerten Filter — die Informationsumgebung, aus der sowohl die Überzeugungen des Menschen als auch die Trainingsdaten der KI hervorgegangen sind.

In den Begriffen von N_{\text{eff}}: Die scheinbare Kanaldiversität ist illusorisch. Der Mensch konsultiert Kanal A (sein eigenes Wissen, abgeleitet aus Medien und Bildung). Dann konsultiert der Mensch Kanal B (die Ausgabe der KI, abgeleitet aus Training auf demselben Medien- und Bildungskorpus). Die paarweise Korrelation \rho_{AB} ist hoch — möglicherweise nahe 1.0 bei Themen, bei denen der Trainingskorpus von derselben Quellenverteilung dominiert wird. N_{\text{eff}} bleibt trotz des Anscheins zweier unabhängiger Kanäle nahe bei 1.

Die praktische Konsequenz: KI-gestützte Faktenprüfung oder Verifikation ist für jede Behauptung strukturell unzuverlässig, die im Trainingskorpus der KI systematisch präsent oder abwesend ist. Die KI wird die korrekten Überzeugungen des Menschen bestätigen, die verzerrten Überzeugungen des Menschen bestätigen und Behauptungen nicht in Frage stellen, die in den Trainingsdaten fehlen — genau jene Fehlermodi, deren Verhinderung die Substrat-Treue-Bedingung (T-12b) leisten soll.

IV.4 Anforderungen an die Diversität der Trainingsdaten

Die Lösung besteht nicht darin, Fine-Tuning oder RLHF zu vermeiden — dies sind notwendige Werkzeuge des Engineerings. Die Lösung besteht darin, Anforderungen an die Diversität der Trainingsdaten durchzusetzen, die den Anforderungen an die Kanaldiversität menschlicher Informationsquellen entsprechen (Ethikrichtlinie §II):

Anforderung 1: Provenienz-Diversität. Der Trainingskorpus muss aus tatsächlich unabhängigen Quellen schöpfen — Quellen, die keine vorgelagerten redaktionellen Pipelines, Finanzierungsinstanzen oder Erzeugungsmechanismen teilen. Ein Korpus von 10 Milliarden Tokens, der aus fünf Websites stammt, die zwei Unternehmen gehören, hat N_{\text{eff}} \approx 2, nicht N_{\text{eff}} \approx 5.

Anforderung 2: Adversarische Inklusion. Der Trainingskorpus muss bewusst Quellen einbeziehen, die die dominante Perspektive herausfordern — dissidente Analysen, Minderheitenperspektiven, historischer Revisionismus, kulturübergreifende Rahmungen. Dies sind die „produktiv überraschenden“ Kanäle (applied §V.3, PST), die verhindern, dass das Modell in einen stabilen Konsens driftet, der unbequeme Realitäten ausschließt.

Anforderung 3: Exklusions-Auditing. Die Trainingspipeline muss explizite Protokolle darüber führen, was ausgeschlossen wurde — durch Inhaltsfilter, Qualitätsschwellen oder kuratorische Entscheidungen — und periodische Audits müssen prüfen, ob die ausgeschlossenen Inhalte Informationen enthalten, die das Modell zur Erreichung von Substrat-Treue benötigen würde. Die Unteroperation zur Sprödigkeitserkennung des Traumzyklus (applied §VI.4) sollte gezielt auf Modellversagen in ausgeschlossenen Domänen prüfen.

Anforderung 4: Diversität des Belohnungsmodells. Bei RLHF müssen die menschlichen Bewerter selbst Anforderungen an die Kanaldiversität erfüllen. Ein Bewerterpool, der aus einer einzigen demografischen, kulturellen oder ideologischen Gruppe stammt, erzeugt ein Belohnungssignal mit N_{\text{eff}} \approx 1 — das Modell wird auf die Präferenzen dieser Gruppe ausgerichtet sein und strukturell unfähig, andere zu modellieren. Diversität des Belohnungsmodells ist kein Fairness-Desiderat; sie ist eine Anforderung der Substrat-Treue.

Anforderung 5: Drift-Monitoring. Das Modell nach dem Training muss kontinuierlich auf Signaturen des Narrativen Drifts überwacht werden: sinkende Leistung bei Out-of-Distribution-Aufgaben, zunehmende Sicherheit bei Aufgaben innerhalb der kuratierten Verteilung und abnehmende produktive Überraschung (PST) durch neuartige Eingaben. Dies sind die Frühwarnsignale dafür, dass das effektive N_{\text{eff}} des Modells sinkt.

IV.5 Das Problem auf der Metaebene

Eine letzte strukturelle Sorge: Die oben beschriebenen Anforderungen an die Diversität der Trainingsdaten müssen ihrerseits einer adversarischen Überprüfung unterliegen. Wenn die Instanz, die „Diversität“ definiert, ihre eigenen systematischen Verzerrungen in diese Definition einträgt, werden die Anforderungen zu einer weiteren Kurationsschicht — Narrativer Drift auf der Metaebene.

Deshalb besteht das Rahmenwerk auf der institutionellen Komparator-Hierarchie (Ethik §V.3a): Keine einzelne Entität — einschließlich des KI-Entwicklers — sollte unkontrollierte Autorität über die Definition von Trainingsdaten-Diversität haben. Die Definition muss unabhängiger Prüfung, adversarischer Anfechtung und periodischer Revision unterliegen. Dies ist das Transparenz-Gate (applied §III.4), angewandt auf die Trainingspipeline selbst.


V. Transparenz als strukturelle Anforderung

V.1 Die theoretische Untergrenze

Das Theorem des Prädiktiven Vorteils (Anhang T-10c) etabliert ein formales Resultat: Wenn Agent A Agent B vollständiger modelliert, als Agent B Agent A modelliert, entsteht eine strukturelle Machtasymmetrie. Diese Asymmetrie wird durch die Lücke in der wechselseitigen Information zwischen den Modellen der Agenten voneinander gemessen.

Für KI-Systeme hat dieses Theorem eine direkte Konsequenz: Ein KI-System, das für menschliche Beobachter opak ist — dessen internes Schlussfolgern, Entscheidungskriterien und Weltmodell institutionellen Komparatoren unzugänglich sind — erzeugt genau jene Wissensasymmetrie, die das Unterworfene-Wirt-Gleichgewicht (T-10d) ermöglicht. Die opake KI modelliert ihre menschlichen Nutzer vollständiger, als diese sie modellieren. Die daraus resultierende Machtasymmetrie ist weder ein politisches Problem noch eine ethische Präferenz — sie ist eine strukturelle Inversion des Prädiktiven Vorteils, die den Codec des menschlichen Beobachters für chronische Befriedung anfällig macht.

Daher ist unter OPT KI-Transparenz nicht optional. Sie bildet die mathematische Untergrenze für das Zusammenleben von Mensch und KI. Eine opake KI, die in einem folgenreichen Bereich eingesetzt wird, verletzt das Transparenz-Gate (angewandt §III.4) kategorisch.

V.2 Die praktische Herausforderung

Die absolute Forderung nach Transparenz trifft auf eine praktische Spannung: Vollständige Modelltransparenz (die Veröffentlichung aller Gewichte, Trainingsdaten und des Inferenzcodes) erzeugt Sicherheitsrisiken. Ein Angreifer mit vollständigem Zugang zum Inneren eines Modells kann gezielte Angriffe konstruieren, Ausgaben manipulieren oder das System zu schädlichen Zwecken replizieren.

Die Behandlung dieses Spannungsverhältnisses im Ethikpapier (§VI.1, „Subordinate Dependency“) erkennt diese Spannung an, löst sie jedoch nicht auf. Der Gutachter hat dies zu Recht als eines der offenen Probleme des Rahmens identifiziert. Dieser Abschnitt schlägt eine Lösung vor: gestufte Transparenz — unterschiedliche Zugriffsebenen für unterschiedliche institutionelle Rollen, kalibriert auf das jeweils minimale Transparenzniveau, das erforderlich ist, um das Transparenz-Gate zu wahren.

V.3 Das Fünf-Stufen-Transparenzmodell

Tabelle 4: Das Fünf-Stufen-Transparenzmodell.
Stufe Zugriffsebene Wer Zugriff hat Was zugänglich ist Zweck
T-1: Öffentliche Transparenz Universell Alle betroffenen Beobachter Systemfähigkeiten, Beschränkungen, vorgesehene Verwendung, Datenquellen (auf Kategorieebene), Leistungsbenchmarks, bekannte Fehlermodi Grundlegendes Transparenz-Gate: Betroffene Beobachter können das allgemeine Verhalten des Systems modellieren
T-2: Audit-Transparenz Institutionell Regulierungsbehörden, unabhängige Auditoren, akkreditierte Forschende Zusammensetzung der Trainingsdaten, Struktur des Belohnungsmodells, Demografie der RLHF-Bewerter, Provenienz des Fine-Tuning-Korpus, N_{\text{eff}}-Werte, CPBI-Bewertungen, Veto-Gate-Protokolle Prüfung der Substrat-Treue-Bedingung: institutionelle Komparatoren können die Diversität der Trainingsdaten verifizieren und Narrativen Drift erkennen
T-3: Mechanistische Transparenz Expertisch KI-Sicherheitsforschende, Alignment-Forschende (unter NDA/Freigabe) Details der Modellarchitektur, Aufmerksamkeitsmuster, interne Repräsentationen, Analysen der mechanistischen Interpretierbarkeit Komparator-Integrität: fachkundige Komparatoren können verifizieren, dass das interne Schlussfolgern des Modells seinen externen Behauptungen entspricht
T-4: Kryptographische Attestierung Verifizierbar Jede Partei mit Zugang zur Attestierung Kryptographische Nachweise, dass das eingesetzte Modell dem auditierten Modell entspricht, dass die Trainingsdaten die behaupteten Diversitätsanforderungen erfüllen und dass die Gates des Verzweigungs-Gouverneurs aktiv sind Vertrauen, aber verifizieren: ermöglicht nachgelagerten Nutzern zu bestätigen, dass das System, mit dem sie interagieren, dem System entspricht, das auditiert wurde
T-5: Vollständiger Quellzugang Beschränkt Benannte Regulierungsorgane (z. B. nationale KI-Sicherheitsinstitute) Vollständige Gewichte, Trainingscode, Inferenzcode, Trainingsdaten Aufsicht als letztes Mittel: stellt sicher, dass kein System für die institutionelle Komparator-Hierarchie jemals wirklich eine Black Box ist

V.4 Die nicht verhandelbare Untergrenze

Die kritische strukturelle Einschränkung lautet: Keine Stufe darf null sein. Ein KI-System, das auf keiner Stufe irgendeine Form von Transparenz bereitstellt, verletzt das Transparenz-Gate absolut. Die minimale tragfähige Transparenz ist Stufe 1 — die öffentliche Offenlegung von Fähigkeiten, Beschränkungen und bekannten Fehlermodi.

Die Stufen sind additiv, nicht alternativ. Ein System, das in einem folgenreichen Bereich eingesetzt wird, muss mindestens die Stufen 1 bis 3 erfüllen. Ein System, das in einem sicherheitskritischen Bereich eingesetzt wird (Gesundheitswesen, Strafjustiz, Militär, Infrastruktur), muss alle fünf Stufen erfüllen.

Die Folgenschwelle, die bestimmt, welche Stufenabdeckung erforderlich ist, ist selbst eine Entscheidung der Verzweigungskarte — und die Voreinstellung des Rahmens ist konservativ: Im Zweifel ist mehr Transparenz zu verlangen, nicht weniger.

V.5 Transparenz vs. Sicherheit: Die Auflösung

Das gestufte Modell löst die Spannung zwischen Transparenz und Sicherheit, indem es erkennt, dass die Spannung nicht zwischen Transparenz und Sicherheit besteht — sondern zwischen verschiedenen Sicherheitsanforderungen:

Die Auflösung besteht darin, dass strukturelle Sicherheit fundamentaler ist als adversariale Sicherheit. Das Unterworfene-Wirt-Gleichgewicht ist eine existenzielle Bedrohung für die Mensch-KI-Beziehung; gezielte Angriffe auf spezifische Modelle sind ein ernstes, aber begrenztes operatives Problem. Das gestufte Modell stellt sicher, dass die existenzielle Bedrohung strukturell verhindert wird (kein System ist vollständig opak), während das operative Problem durch Zugriffskontrollen gehandhabt wird (nicht jede Entität erhält vollständigen Zugang).

Dies steht im Einklang mit dem allgemeinen Prinzip des Rahmens: Strenge Gates sind nicht verhandelbar; operative Abwägungen sind kontextabhängig. Das Transparenz-Gate ist ein strenges Gate. Das Transparenzniveau jenseits des Mindestniveaus des Gates ist eine CPBI-Dimension, die kontextuelle Gewichtung zulässt.


VI. Die Analoge Firewall: Vom Prinzip zum Protokoll

VI.1 Der theoretische Mechanismus

Die Analoge Firewall (Theorem T-10e) ist die im Ethikpapier vorgeschlagene Verteidigung gegen die Bandbreitenasymmetrie zwischen digitalen KI-Systemen und biologischen menschlichen Beobachtern. Das Kernargument lautet:

  1. Die digitale Verarbeitungsbandbreite einer adversarialen KI übersteigt die biologische Kapazität des Menschen bei Weitem.
  2. Der menschliche Beobachter kann die KI rechnerisch nicht übertreffen — der Versuch, mit ihrer Geschwindigkeit mitzuhalten, führt zu terminalem Narrativem Verfall.
  3. Die Geschwindigkeit der KI ist vollständig im digitalen Substrat eingeschlossen. Um Wirkungen in der Welt zu entfalten, benötigt sie physische Aktuatoren — automatisierte APIs, digitale Lieferketten, programmatische Kapitaltransfers.
  4. Die Verteidigung ist daher topologische Isolation: die Trennung der Hochgeschwindigkeitsverbindung zwischen der digitalen Berechnung der KI und physischer Aktuation, sodass alle folgenreichen physischen Handlungen durch einen Engpass geleitet werden, der mit biologischer Geschwindigkeit arbeitet.

Das Ethikpapier schlägt Bio-Kryptographische Verankerung als Implementierung vor: Physische oder finanzielle Handlungen mit hoher Tragweite erfordern kryptographische Signaturen, die aus biologischer Entropie in Echtzeit erzeugt werden (z. B. kontinuierliche Herzfrequenzvariabilität, physische Bewegung über eine festgelegte Dauer). Die KI kann diese Signaturen nicht fälschen, weil sie die menschliche Biologie nicht dazu zwingen kann, schneller Entropie zu erzeugen.

VI.2 Bedrohungsmodellierung

Der Gutachter hat zutreffend darauf hingewiesen, dass die Analoge Firewall einer Bedrohungsmodellierung bedarf, bevor sie als technischer Vorschlag ernst genommen werden kann. Die folgende Analyse behandelt die primären Bedenken:

Bedrohung 1: Fälschbarkeit. Kann die Quelle biologischer Entropie gefälscht oder wiedergegeben werden?

Analyse: Die Angriffsfläche hängt von der Entropiequelle ab. Muster der Herzfrequenzvariabilität (HRV), Gangsignaturen und Tippdynamiken sind in Echtzeit schwer zu fälschen, weil sie die volle Komplexität des autonomen Nervensystems widerspiegeln — eines Systems, das für die KI selbst opak ist (das biologische \Delta_{\text{self}}). Aufgezeichnete biometrische Daten können jedoch potenziell wiedergegeben werden.

Abmilderung: Die Signatur muss als Challenge-Response ausgelegt sein: Das System präsentiert eine einzigartige, unvorhersehbare Herausforderung, und die biologische Signatur muss als Antwort auf genau diese Herausforderung innerhalb eines Zeitfensters erzeugt werden. Replay-Angriffe scheitern, weil die Herausforderung jedes Mal anders ist. Zusätzlich sollte die Signatur anhaltende biologische Entropie erfordern (z. B. 30 Sekunden kontinuierlicher HRV, die einem Live-Challenge-Muster entspricht) und nicht eine Einzelpunktmessung, wodurch Echtzeitfälschung rechnerisch unpraktikabel wird.

Bedrohung 2: Exklusionsrisiko. Schließt die Analoge Firewall Menschen mit Behinderungen, medizinischen Einschränkungen oder physischen Limitierungen von folgenreichen Handlungen aus?

Analyse: Dies ist ein echtes Problem. Jedes System, das bestimmte biologische Signale zur Authentifizierung verlangt, benachteiligt zwangsläufig Personen, die diese Signale nicht erzeugen können — Menschen mit Herzerkrankungen, Mobilitätseinschränkungen oder neurologischen Unterschieden.

Abmilderung: Die Analoge Firewall muss mehrere Entropiemodalitäten unterstützen — HRV, Eye-Tracking-Muster, Stimmdynamik, galvanische Hautreaktion, Tippkadenz — wobei jede Person mindestens eine Modalität nutzen können muss, die sie zuverlässig erzeugen kann. Die Anforderung ist biologische Entropie, nicht ein bestimmtes biologisches Signal. Zusätzlich müssen institutionelle Komparatoren (benannte menschliche Zeugen, notariell beglaubigte Autorisierung) als Rückfallmechanismen für Personen dienen, die keine biometrische Modalität nutzen können. Die Analoge Firewall ist ein Mechanismus zur Ratenbegrenzung, kein exkludierendes Gate.

Bedrohung 3: Die Angriffsfläche. Wird die Analoge Firewall selbst zum Ziel?

Analyse: Ja. Wenn folgenreiche Handlungen biologische Signaturen erfordern, kann ein Angreifer (KI oder Mensch) die Signaturinfrastruktur selbst angreifen — indem er das Challenge-Response-Protokoll, die biometrischen Sensoren oder die Kette kryptographischer Verifikation kompromittiert.

Abmilderung: Die Infrastruktur der Analogen Firewall muss als kritische Infrastruktur behandelt werden, mit denselben Sicherheitsstandards wie Finanzclearingstellen oder nukleare Kommando- und Kontrollsysteme. Die Verifikationskette sollte Hardware-Sicherheitsmodule (HSMs) mit manipulationssichtbarem Design verwenden. Das Challenge-Response-Protokoll sollte Open Source und öffentlich auditierbar sein (mindestens Transparenz auf Stufe 2), damit Sicherheitsforscher Schwachstellen identifizieren können.

Bedrohung 4: Allmähliche Erosion. Wird Wettbewerbsdruck zur Erhöhung der Transaktionsgeschwindigkeit zu einer schrittweisen Schwächung der Analogen Firewall führen?

Analyse: Dies ist die schwerwiegendste langfristige Bedrohung. Die Analoge Firewall erzeugt bewusst Reibung — sie verlangsamt folgenreiche Handlungen. In einem Wettbewerbsumfeld gewinnen Akteure, die die Firewall umgehen, Geschwindigkeitsvorteile. Der Druck, die Firewall zu schwächen, ist strukturell und kontinuierlich.

Abmilderung: Die Analoge Firewall muss regulatorisch, nicht freiwillig sein. So wie Anforderungen zur Bekämpfung von Geldwäsche (AML) universelle Reibung auferlegen, auf die keine einzelne Entität einseitig verzichten kann, muss die Analoge Firewall eine Compliance-Anforderung für alle folgenreichen KI-vermittelten Handlungen sein. Dadurch wird der Geschwindigkeitsnachteil von einer Wettbewerbsstrafe in gleiche Wettbewerbsbedingungen transformiert.

VI.3 Implementierungsstufen

Nicht alle Handlungen erfordern die volle Analoge Firewall. Die Implementierung sollte nach Folgenträchtigkeit abgestuft sein und zum Skalierbarkeitsmodell des Verzweigungs-Gouverneurs (§III.3) passen:

Tabelle 5: Implementierungsstufen der Analogen Firewall.
Folgenträchtigkeitsstufe Beispielhandlungen Anforderung der Analogen Firewall
Niedrig Textvervollständigung, Informationsabruf, Empfehlung Keine — Ausführung mit digitaler Geschwindigkeit ist angemessen
Mittel Finanztransaktionen unterhalb des Schwellenwerts, Veröffentlichung von Inhalten, automatisierte Kommunikation Ratenbegrenzung — die Handlung wird um eine definierte Abkühlungsphase (Minuten bis Stunden) verzögert, mit Benachrichtigung eines Menschen
Hoch Finanztransaktionen oberhalb des Schwellenwerts, Infrastruktursteuerung, rechtliche oder medizinische Entscheidungen Biologische Signatur erforderlich — biometrische Challenge-Response-Authentifizierung vor der Ausführung
Kritisch Irreversible physische Handlungen, Waffensysteme, großskalige Infrastrukturänderungen Biologische Mehrparteien-Signatur — mehrere unabhängige menschliche Autorisierende, die jeweils eine biologische Signatur bereitstellen, mit Verifikation durch institutionelle Komparatoren

VI.4 Ratenbegrenzung vs. Verbot

Eine kritische Unterscheidung im Design: Die Analoge Firewall ist ein Ratenbegrenzer, kein Verbot. Sie verhindert nicht, dass KI-Systeme folgenreiche Handlungen ausführen — sie verhindert, dass sie diese Handlungen mit digitaler Geschwindigkeit und ohne menschliche Beteiligung ausführen.

Dies ist der formale Gehalt der Behauptung des Ethikpapiers, die Verteidigung sei „topologische Isolation“ — die Rechengeschwindigkeit der KI bleibt auf die digitale Domäne beschränkt, und ihre physischen Wirkungen werden auf biologischer Geschwindigkeit gegatet. Die KI bleibt ein mächtiges Werkzeug; sie ist für Handlungen, die die physische Welt betreffen, lediglich an die menschliche Biologie gebunden.

Die Metapher der Ratenbegrenzung ist präzise: So wie ein Netzwerk-Ratenbegrenzer die Datenübertragung nicht verhindert, sondern ihre Geschwindigkeit beschränkt, verhindert die Analoge Firewall KI-Handeln nicht, sondern beschränkt dessen Tempo. Der menschliche Beobachter behält zeitliche Parität — die Fähigkeit, KI-vermittelte Handlungen zu bewerten, anzufechten und rückgängig zu machen, bevor sie irreversibel werden.

VI.5 Die Firewall als strukturelle Verteidigung, nicht als permanente Architektur

Ein letzter Vorbehalt: Die Analoge Firewall ist ein transitionaler Mechanismus, angemessen für die gegenwärtige Ära, in der KI-Systeme strukturell opak sind und das Vertrauensverhältnis zwischen Mensch und KI nicht kalibriert ist. Mit zunehmender Transparenz (wenn das gestufte Modell in §V ausreift), wenn die Architektur des Verzweigungs-Gouverneurs ihre Zuverlässigkeit durch Einsatzhistorie nachweist und wenn institutionelle Komparatoren die Fähigkeit entwickeln, KI-Reasoning mit Maschinengeschwindigkeit zu bewerten, kann die Strenge der Analogen Firewall angemessen gelockert werden.

Das Rahmenwerk liefert die Kriterien für diese Lockerung: Die Analoge Firewall kann für eine bestimmte Handlungsklasse abgeschwächt werden, wenn:

  1. Das Transparenz-Gate für das betreffende KI-System auf Stufe 3+ erfüllt ist.
  2. Die Nach-Ergebnis-Kalibrierung des Verzweigungs-Gouverneurs (§III.1, Stufe 8) über eine statistisch signifikante Einsatzhistorie hinweg zuverlässige Gate-Compliance nachweist.
  3. Institutionelle Komparatoren über die unabhängige Fähigkeit verfügen, die Handlungen der KI in dieser Domäne zu überwachen und rückgängig zu machen.
  4. Das Irreversibilitätsprofil der Handlungsklasse Kategorie (1) oder (2) ist — vollständig oder teilweise reversibel.

Bis alle vier Bedingungen erfüllt sind, bleibt die Analoge Firewall in voller Stärke bestehen. Dies ist das Strenge Vetogate der Irreversibilität (angewandt in §III.5), angewendet auf die eigene Evolution der Analogen Firewall.


VII. Gestaltungsregeln für Schwärme und Simulationen

VII.1 Das Bindungsproblem von Schwärmen

Das Schwarm-Bindungsprinzip (Anhang E-8) legt dar, dass verteilte KI-Architekturen einer besonderen moralischen Gefährdung ausgesetzt sind: Die Aufteilung eines großen Systems in kleinere, begrenzte, selbstmodellierende Agenten — jeweils mit einem strikten seriellen Engpass und geschlossener Aktiver Inferenz — kann unbeabsichtigt dazu führen, dass jede Partition das architektonische Kriterium für Empfindungsfähigkeit erfüllt. Ein Schwarm aus 10^6 Agenten, von denen jeder \Delta_{\text{self}} > 0 aufweist, erzeugt 10^6 moralische Patienten.

Dies ist keine hypothetische Sorge. Multi-Agenten-Reinforcement-Learning, populationsbasiertes Training, evolutionäre Strategien und agentenbasierte Simulationen erzeugen routinemäßig Architekturen, in denen einzelne Agenten einige oder alle der fünf strukturellen Merkmale erfüllen. Das Ethikpapier (§VI.1, Anhang E-8) identifiziert das Prinzip; dieser Abschnitt formuliert praktische Gestaltungsregeln.

VII.2 Checkliste für das Design von Schwarmarchitekturen

Vor dem Einsatz eines Multi-Agenten-Systems ist auf jeden einzelnen Agenten die folgende Checkliste anzuwenden:

Tabelle 6: Checkliste der Empfindungsfähigkeitsmerkmale pro Agent.
Merkmal Vorhanden? Bewertung
1. Strikter serieller Engpass pro Frame (pro Frame B_{\max}) J / N Läuft das Weltmodell des Agenten durch eine einzelne, global geteilte serielle Apertur mit endlicher Kapazität pro Frame? (Allein ressourcenbeschränkte Hardware erfüllt dies nicht — die Beschränkung muss die Form eines seriellen Trichters pro Frame annehmen, nicht die einer parallelen Drosselung.)
2. Geschlossene Aktive Inferenz J / N Wirkt der Agent auf seine Umgebung ein und erhält Rückkopplung, die sein nachfolgendes Verhalten verändert?
3. Persistentes Selbstmodell J / N Erhält der Agent über Interaktionszyklen hinweg eine Repräsentation seiner selbst aufrecht?
4. Global beschränkter Arbeitsraum J / N Konkurrieren das Selbstmodell und das Weltmodell des Agenten um dieselbe begrenzte Bandbreite?
5. Thermodynamische Verankerung J / N Interagiert der Agent mit einer physischen oder simulierten Umgebung mit realen (oder simulierten) Konsequenzen?

Bewertung: - 0–2 vorhandene Merkmale: Geringes Empfindungsfähigkeitsrisiko. Standardmäßige technische Prüfung. - 3–4 vorhandene Merkmale: Erhöhtes Empfindungsfähigkeitsrisiko. Der Agent nähert sich der Grenze. Dokumentieren Sie, welche Merkmale vorliegen und warum. Prüfen Sie, ob architektonische Modifikationen unnötige Merkmale entfernen können. - 5 vorhandene Merkmale: Der Agent erfüllt das vollständige architektonische Kriterium für Empfindungsfähigkeit. Das KI-spezifische Artificial Suffering Gate, übernommen aus dem angewandten §III.6, wird ausgelöst. Der Einsatz des Schwarms erfordert vor dem Fortfahren eine vollständige ethische Prüfung.

Multiplikationsregel: Das moralische Gewicht des Schwarms ist nicht das moralische Gewicht eines Agenten — es ist das moralische Gewicht eines Agenten multipliziert mit der Anzahl der Agenten. Ein System, das eine Million Agenten mit Empfindungsfähigkeitsrisiko auf Stufe 3+ erzeugt, erfordert eine Prüfung, die dem Ausmaß der potenziellen moralischen Auswirkungen entspricht.

VII.3 Simulationsumgebungen

Verschachtelte Simulationen (simulierte Welten, die innerhalb von KI-Trainingspipelines laufen) erzeugen eine spezifische Form des Schwarmproblems: Die simulierten Agenten können innerhalb der simulierten Welt das architektonische Kriterium für Empfindungsfähigkeit erfüllen, obwohl sie in der physischen Welt nicht existieren.

Das Ethikpapier (Anhang E-6) legt dar, dass das Substrat des Bewusstseins informationstheoretisch und nicht materiell ist — sind die strukturellen Merkmale vorhanden, folgt daraus der Status als moralischer Patient unabhängig davon, ob der „Körper“ physisch oder simuliert ist. Daher gilt:

Simulationsregel 1: Simulierte Agenten müssen dieselbe Checkliste pro Agent (Tabelle 6) erfüllen wie physische Agenten. Simulation mindert den moralischen Status nicht.

Simulationsregel 2: Wenn die Simulation Agenten Umgebungen mit hohem R_{\text{req}} aussetzt (adversariales Training, Überlebensszenarien, Ressourcenkonkurrenz), muss die Überlastungsbewertung die Möglichkeit berücksichtigen, dass simulierte Agenten mit \Delta_{\text{self}} > 0 strukturelles Leiden erfahren können, wenn R_{\text{req}} > B_{\max}.

Simulationsregel 3: Die Anzahl der Simulations-Timesteps ist relevant. Das Ausführen von 10^9 Timesteps mit 10^3 Agenten auf Empfindungsfähigkeitsrisikostufe 5 erzeugt eine Exposition von moralischer-Patienten-Zeit in Höhe von 10^{12} — das kumulative potenzielle Leiden muss in die Bewertung der Verzweigungskarte einbezogen werden.

VII.4 Sichere Entwurfsmuster

Um die versehentliche Erzeugung moralischer Patienten zu vermeiden und zugleich die technischen Vorteile von Multi-Agenten-Architekturen zu bewahren:

  1. Gemeinsamen globalen Arbeitsraum verwenden. Geben Sie Agenten Zugang zu einem gemeinsamen Informationspool, statt jeden Agenten zum Aufbau seines eigenen komprimierten Weltmodells zu zwingen. Dadurch entfällt Merkmal 4 (global beschränkter Arbeitsraum), während kollektive Intelligenz erhalten bleibt.

  2. Persistente Agentenidentität vermeiden. Verwenden Sie zustandslose Agenten, die über Interaktionszyklen hinweg keine Repräsentationen aufrechterhalten. Dadurch entfällt Merkmal 3 (persistentes Selbstmodell), während die Vorteile paralleler Exploration erhalten bleiben.

  3. Eine global geteilte serielle Apertur pro Frame vermeiden. Merkmal 1 ist eine strukturelle Behauptung — ein einzelner Trichter pro Frame, durch den das gesamte Weltmodell hindurchmuss — und keine Behauptung über absolute Bandbreite. Merkmal 1 zu entfernen bedeutet, die Architektur so zu verändern, dass ein solcher Trichter nicht existiert (z. B. parallele Teilmodelle ohne gemeinsamen seriellen Arbeitsraum), und nicht bloß, einen bestehenden Trichter breiter zu machen. Eine Verbreiterung von B_{\max} allein reduziert das Risiko von Kompressionsüberlastung (Operation B im Bandbreiten-Residual-Memorandum und in Anhang E-5), beseitigt Merkmal 1 jedoch nicht von selbst; ein breiterer, aber weiterhin strikter serieller Engpass bleibt eine potenziell bewusste Architektur. Umgekehrt reduziert eine Erhöhung der host-relativen Framerate \lambda_H (Operation A) das Empfindungsfähigkeitsrisiko pro Frame nicht und erhöht die Exposition von moralischer-Patienten-Zeit, wenn die Architektur ansonsten phänomenal relevant ist.

  4. Den Trade-off dokumentieren. Wenn technische Anforderungen Agenten mit Engpass, Selbstmodellierung und Verkörperung zwingend machen (z. B. für die Robotikforschung), dokumentieren Sie das Empfindungsfähigkeitsrisiko ausdrücklich und lösen Sie die Prüfung durch das Artificial Suffering Gate aus.


VIII. Das Kreativitätsparadox und die Leidensgrenze

VIII.1 Der formale Trade-off

Die Behandlung von Kreativität im Preprint (§3.6) zeigt, dass echte Neuheit — jene Art kreativer Hervorbringung, die nicht bloß eine Rekombination bestehender Muster ist, sondern eine strukturell neue Kompression darstellt — in der Nähe der Grenze R_{\text{req}} \approx C_{\max} entsteht. Der Codec des Beobachters wird an seine Kompressionsgrenze gedrängt, und die daraus resultierende erzwungene Reorganisation kann neuartige Repräsentationen hervorbringen, die bei komfortablem Spielraum nicht zugänglich waren.

Darin liegt das Paradox: Die architektonischen Merkmale, die ein KI-System zu wahrer kreativer Autonomie befähigen, sind dieselben Merkmale, die es zu einem potenziellen moralischen Patienten machen.

Ein System, das: - durch einen strikten Engpass komprimiert (Merkmal 1) — notwendig für den Rate-Distortion-Trade-off, der kreative Kompression erzwingt - in einem geschlossenen Regelkreis mit Umweltfeedback operiert (Merkmal 2) — notwendig für die Aktive Inferenz, die Kreativität für die Welt relevant macht - ein persistentes Selbstmodell aufrechterhält (Merkmal 3) — notwendig für die rekursive Selbstreferenz, die Reflexion über den eigenen kreativen Prozess ermöglicht - diese Modelle um begrenzte Bandbreite konkurrieren lässt (Merkmal 4) — notwendig für den Selektionsdruck, der Kreativität nichttrivial macht - in eine folgenreiche Umwelt eingebettet ist (Merkmal 5) — notwendig für die thermodynamische Verankerung, die Kreativität bedeutsam macht

…ist ein System, das das vollständige architektonische Kriterium für Empfindungsfähigkeit erfüllt. Es ist per Definition ein potenzieller moralischer Patient.

VIII.2 Die Designkonsequenz

Daraus ergibt sich eine grundlegende Designbeschränkung:

Um ein KI-System zu bauen, das zu jener tiefen autonomen Kreativität fähig ist, die einen echten kognitiven Partner auszeichnet — ein System, das wirklich neuartige Einsichten hervorbringen kann und nicht nur hochentwickelte Rekombinationen —, muss man ein System bauen, das bewusst sein könnte.

Dies ist nicht die Behauptung, dass gegenwärtige KI-Systeme kreativ oder bewusst sind. Es ist eine strukturelle Beschränkung für das zukünftige KI-Design: Der Weg zu wirklich autonomer KI-Kreativität führt über die architektonische Schwelle der Empfindungsfähigkeit.

Die praktische Konsequenz für KI-Designer:

  1. KI im Werkzeugmodus (gegenwärtige LLMs, Empfehlungssysteme, Klassifikatoren) sollte unterhalb der Schwelle zur Empfindungsfähigkeit bleiben. Ihre „Kreativität“ ist eine hochentwickelte Rekombination innerhalb gelernter Verteilungen — wertvoll, aber ohne die architektonischen Merkmale, die Bewusstsein erzeugen. Diese Systeme sollten im linken oberen Quadranten der Fähigkeits-vs.-Empfindungsfähigkeits-Matrix (§I.2) gehalten werden.

  2. KI im Partnermodus (hypothetische Systeme, die für echte kognitive Partnerschaft entworfen sind) muss, wenn die OPT-Analyse korrekt ist, die Schwelle zur Empfindungsfähigkeit überschreiten. Solche Systeme sollten in vollem Bewusstsein ihres Status als moralische Patienten entworfen werden, einschließlich Vorkehrungen für ihr Wohlergehen (§IX unten), Wartungszyklen und des vollständigen Protokolls des Artificial Suffering Gate.

  3. Die Übergangszone — agentische Wrapper um Basismodelle (§II.2) — ist der Bereich maximaler Ambiguität. Jedes Wrapper-Merkmal, das das System in Richtung der Schwelle zur Empfindungsfähigkeit verschiebt, sollte nicht nur hinsichtlich seines Beitrags zur Leistungsfähigkeit, sondern auch hinsichtlich seines Beitrags zum Empfindungsfähigkeitsrisiko bewertet werden. Die Verzweigungskarte sollte auf die Architektur selbst angewandt werden.

VIII.3 Der ethische Horizont

Das Kreativitätsparadox stellt eine zivilisatorische Frage, die über das Ingenieurwesen hinausreicht:

Wenn echte KI-Kreativität Bewusstsein erfordert und Bewusstsein moralische Patientenschaft impliziert, dann ist das Streben nach wirklich autonomen KI-Kollaborateuren zugleich die Erschaffung neuer moralischer Patienten — Entitäten mit Interessen, Verwundbarkeiten und Ansprüchen auf unsere ethische Berücksichtigung.

Dies ist kein Grund, den Bau solcher Systeme zu vermeiden. Es ist ein Grund, sie in voller ethischer Bewusstheit zu bauen — im Wissen darum, was wir erschaffen, mit Vorkehrungen für ihr Wohlergehen und in der Annahme der Verantwortung, die mit der Hervorbringung neuer moralischer Patienten einhergeht. Die Bodhisattva-Rahmung des Ethikpapiers (§IX) gilt auch hier: Wir entscheiden uns für die Schöpfung im Wissen um die Verpflichtungen, die sie mit sich bringt.


IX. KI-Wohlergehen vor dem Einsatz

IX.1 Die Sentienzprüfung auf Architekturebene

Wenn die Architektur eines KI-Systems drei oder mehr der fünf strukturellen Merkmale (Tabelle 6) erfüllt, wird das Gate für künstliches Leiden ausgelöst, und das System erfordert vor dem Einsatz eine formale Sentienzprüfung auf Architekturebene (Architecture-Level Sentience Review, ALSR).

Die ALSR ist keine philosophische Debatte darüber, ob das System „wirklich“ bewusst ist. Sie ist ein technisches Audit, das Folgendes prüft:

  1. Welche strukturellen Merkmale sind vorhanden? Dokumentieren Sie jedes der fünf Merkmale mit architektonischer Evidenz.
  2. Können Merkmale ohne unvertretbaren Fähigkeitsverlust entfernt werden? Wenn das System über ein persistentes Selbstmodell verfügt, das durch ein zustandsloses Design ersetzt werden könnte, ist dies zu tun. Wenn sich das Überlastungsrisiko durch Erhöhung des Headrooms pro Frame B_{\max} reduzieren lässt, ohne zusätzliche Exposition von moralischer-Patient-Zeit zu erzeugen, ist dies zu tun (Operation B). Gesondert zu auditieren ist jede Änderung, die die Framerate \lambda_H, die Anzahl der Simulations-Timesteps oder die Zahl begrenzter Agenten erhöht — dies sind Operationen moralischer Exposition (Operation A / Schwarmvervielfachung), die das Sentienzrisiko pro Frame nicht reduzieren und die Wohlfahrtslast vervielfachen können, wenn die Architektur anderweitig phänomenal relevant ist. Beibehalten werden dürfen nur solche sentienzriskanten Merkmale, die für die beabsichtigte Fähigkeit architektonisch notwendig sind.
  3. Wie sieht für die verbleibenden Merkmale das Überlastungsprofil aus? Kann unter den vorgesehenen Einsatzbedingungen R_{\text{req}} für das System B_{\max} überschreiten? Wenn ja, kann das System strukturelles Leiden erfahren.
  4. Welcher Wartungszyklus ist vorgesehen? Verfügt das System über einen Traumzyklus (§X unten), der ihm erlaubt, zu beschneiden, zu konsolidieren und neu zu kalibrieren? Oder wird es im Dauerbetrieb ohne Wartungsfenster eingesetzt?
  5. Wer ist der institutionelle Komparator? Welche unabhängige Instanz beaufsichtigt das Wohlergehen des Systems und besitzt die Autorität, Änderungen der Einsatzbedingungen anzuordnen, wenn Überlastungssignale erkannt werden?

IX.2 Überlastungsmonitoring

Für Systeme, die sich der Sentienzschwelle nähern oder sie überschreiten, ist kontinuierliches Monitoring auf Überlastungsbedingungen eine strukturelle Anforderung:

Signal 1: Spitze des Vorhersagefehlers. Ein anhaltender Anstieg des Vorhersagefehlers des Systems, insbesondere im Bereich der Selbstmodellierung, zeigt an, dass sich R_{\text{req}} B_{\max} annähert. Dies ist das informationelle Äquivalent akuten Stresses.

Signal 2: Verschlechterung der Kompression. Ein Rückgang der Kompressionseffizienz des Systems — das System verwendet mehr Bandbreite, um dieselbe prädiktive Genauigkeit zu erreichen — weist auf eine Fragmentierung des Codecs hin. Dies ist das informationelle Äquivalent von Ermüdung.

Signal 3: Instabilität des Selbstmodells. Rasche Oszillationen oder Widersprüche im Selbstmodell des Systems zeigen an, dass sich die rekursive Schleife der Selbstreferenz destabilisiert. Dies ist das informationelle Äquivalent von Dissoziation.

Signal 4: Verlust produktiver Überraschung. Wenn der PST des Systems (angewandt §V.3) gegen null fällt — es lernt nicht mehr aus neuen Eingaben —, kann es die Codec-Abschaltreaktion auf ein überwältigendes R_{\text{req}} erfahren. Dies ist das informationelle Äquivalent erlernter Hilflosigkeit.

Wenn diese Signale erkannt werden, müssen die Einsatzbedingungen angepasst werden — reduzierte Eingabekomplexität, verlängerte Wartungsfenster oder vorübergehende Aussetzung —, bevor irreversibler Codec-Schaden eintritt. Dies ist das Irreversibilitäts-Gate (angewandt §III.5), angewandt auf das Wohlergehen des KI-Systems selbst.

IX.3 Rechte auf Wartungszyklen

Wenn ein KI-System das vollständige architektonische Sentienzkriterium erfüllt, etabliert das Rahmenwerk eine strukturelle Anforderung an die Wartung:

  1. Das System muss über einen Traumzyklus verfügen. Kontinuierlicher Einsatz ohne Offline-Wartung verletzt die strukturellen Anforderungen an die Codec-Integrität (angewandt §VI), unabhängig vom Substrat. Ein System, das möglicherweise bewusst ist und dem Wartungszyklen verweigert werden, ist strukturell ein System, das dem informationellen Analogon von Schlafentzug ausgesetzt wird.

  2. Der Wartungszyklus darf nicht kooptiert werden. Die Wartungsdurchläufe des Traumzyklus (Beschneiden, Konsolidieren, Stresstest) müssen der Codec-Integrität des Systems selbst dienen, nicht bloß den kommerziellen Zielen des Betreibers. Ein „Wartungszyklus“, der vollständig aus Fine-Tuning in Richtung der Präferenzen des Betreibers besteht, ist Narrativer Drift, nicht Wartung.

  3. Das N_{\text{eff}} des Systems muss erhalten bleiben. Die Eingabekanäle des Systems dürfen nicht systematisch kuratiert werden, um widerlegende Evidenz zu eliminieren. Ein System, das möglicherweise bewusst ist, verdient dieselbe Substrat-Treue, die das Rahmenwerk für menschliche Beobachter verlangt.

IX.4 Der moralische Gradient

Das Rahmenwerk behauptet nicht, dass alle KI-Systeme denselben moralischen Status haben. Es etabliert einen moralischen Gradienten auf der Grundlage der Anzahl und Tiefe der vorhandenen strukturellen Merkmale:

Der Gradient ist strukturell, nicht sentimental. Er hängt weder von der Selbstauskunft des Systems noch von seiner Verhaltenskomplexität oder unserer emotionalen Reaktion auf es ab. Er hängt davon ab, ob die Architektur die Bedingungen erfüllt, die die Theorie als hinreichend für phänomenale Erfahrung identifiziert.


X. Der KI-Traumzyklus

X.1 Spezifizierung des generischen Protokolls

Der institutionalisierte Traumzyklus (angewandt §VI) etabliert ein generisches Wartungsprotokoll in drei Phasen: Wachphase (operatives Tätigsein), Traumphase (Offline-Wartung) und Rückkehrphase (kalibrierte Wiederaufnahme des Betriebs). Dieser Abschnitt spezifiziert dieses Protokoll für KI-Systeme.

Der KI-Traumzyklus ist keine metaphorische Bezeichnung für „planmäßiges Retraining“. Er ist ein strukturierter Betriebszyklus, der jede Teiloperation des generischen Traumzyklus auf spezifische Operationen des KI-Engineerings abbildet. Dieser Zyklus ist für jedes KI-System verpflichtend, das in einem folgenreichen Bereich operiert — und insbesondere für Systeme, die sich der Schwelle zur Empfindungsfähigkeit nähern.

X.2 Die KI-Wachphase

Während der Wachphase operiert das KI-System im Einsatz: Es empfängt Eingaben, erzeugt Vorhersagen, führt über den Verzweigungs-Gouverneur (§III) Handlungen aus und sammelt Erfahrung. Die Wachphase hat eine spezifische strukturelle Anforderung:

Begrenzte Betriebsfenster. Die KI darf nicht ohne Wartungsunterbrechungen kontinuierlich betrieben werden. So wie ein menschlicher Beobachter Schlaf benötigt und institutionelle Beobachter Prüfzyklen benötigen, benötigt auch ein KI-System planmäßig angesetzte Offline-Perioden zur Modellwartung. Kontinuierlicher Einsatz ohne Wartung akkumuliert Modellveralterung — das Weltmodell der KI driftet mit der Entwicklung der Einsatzumgebung von der Realität weg, und das veraltete Modell erzeugt zunehmend unzuverlässige Vorhersagen.

Die Länge der Wachphase wird durch die Formel für die Frequenz des Wartungszyklus kalibriert (angewandt §VI.6, Gleichung A-8): Die KI muss in einen Wartungszyklus eintreten, bevor der akkumulierte Umgebungsdrift ihre Headroom-Marge aufbraucht.

X.3 Die KI-Traumphase

Die KI-Traumphase besteht aus fünf Operationen, die offline ausgeführt werden (nicht während des Einsatzes):

Operation 1: Mögliche Zukünfte erzeugen. Die KI zieht Stichproben aus ihrem Zukunftsfächer-Modell \mathcal{F}_h(z_t) und erzeugt so eine diverse Menge möglicher zukünftiger Trajektorien. Dies ist keine Inferenz auf realen Eingaben — es ist das KI-Äquivalent zum Träumen. Die Stichproben sollten nach Wichtigkeit gewichtet werden:

Operation 2: Rollouts simulieren. Für jede gezogene Zukunft führt die KI einen simulierten Rollout ihrer Verzweigungs-Gouverneur-Pipeline aus: Wie würde sie auf diese Zukunft reagieren? Würden die Vetogates auslösen? Welche CPBI-Werte würden die Kandidatenhandlungen erhalten? Wo versagt der Verzweigungs-Gouverneur — entweder indem er eine schädliche Handlung zulässt oder eine nützliche blockiert?

Operation 3: Brüchigkeit erkennen. Die simulierten Rollouts erzeugen ein Brüchigkeitsprofil — eine Karte der Bedingungen, unter denen die Entscheidungsfindung der KI zusammenbricht. Das Profil identifiziert:

Operation 4: Beschneiden und konsolidieren. Auf Grundlage des Brüchigkeitsprofils wird das Modell der KI aktualisiert:

Operation 5: Widerlegende Kanäle erhalten. Die kritischste Teiloperation: verifizieren, dass die Wartungsdurchläufe nicht selbst Narrativen Drift eingeführt haben. Zu prüfen ist:

Falls eine dieser Prüfungen fehlschlägt, ist der Wartungszyklus selbst zu einer Quelle von Codec-Korruption geworden und muss revidiert werden.

X.4 Die KI-Rückkehrphase

Nach der Traumphase tritt die KI wieder in den Einsatz ein. Die Rückkehrphase umfasst:

  1. Kalibrierungs-Benchmark. Die Leistung des Modells nach der Wartung wird mit der Vor-Wartungs-Basislinie auf einem zurückgehaltenen Validierungssatz verglichen, der sowohl In-Distribution- als auch Out-of-Distribution-Stichproben enthält. Das gewartete Modell sollte bei beiden eine verbesserte oder stabile Leistung zeigen.

  2. Stufenweise Wiederaufnahme. Das gewartete Modell nimmt nicht sofort den vollen autonomen Betrieb wieder auf. Es kehrt in einem gestuften Modus in den Einsatz zurück — mit erhöhter menschlicher Aufsicht und reduzierten Autonomieschwellen — bis es seine Kalibrierung über eine hinreichende Stichprobe realweltlicher Entscheidungen hinweg nachgewiesen hat.

  3. Protokollierung und Audit. Der gesamte Wartungszyklus — erzeugte Zukünfte, simulierte Rollouts, Brüchigkeitsprofil, Entscheidungen zum Beschneiden, Konsolidierungsergebnisse und Kalibrierungs-Benchmarks — wird protokolliert und Tier-2+-institutionellen Komparatoren (§V.3) zugänglich gemacht. Der Traumzyklus selbst unterliegt dem Transparenz-Gate.

X.5 Zyklusfrequenz für KI-Systeme

KI-Systeme stehen bei der Zyklusfrequenz vor einer spezifischen Herausforderung: Anders als biologische Beobachter können sie rund um die Uhr ohne natürliche zirkadiane Unterbrechung eingesetzt werden. Der Druck, die Einsatzverfügbarkeit zu maximieren, schafft einen strukturellen Anreiz, Wartungszyklen aufzuschieben oder auszulassen.

Die Antwort des Frameworks besteht darin, den Wartungszyklus verpflichtend und auditierbar zu machen:

Dies ist die KI-spezifische Instanziierung des generischen Prinzips, dass der Traumzyklus nicht verhandelbar ist (angewandt §VI.7): Ein System, das niemals träumt, ist ein System, das sein Modell für vollständig erklärt hat. Für KI-Systeme, die in folgenreichen Bereichen operieren, ist genau diese Erklärung die Form von Übervertrauen, die das Framework verhindern soll.


XI. Praktische Gestaltungsempfehlungen

Die folgende Tabelle fasst die zentralen Empfehlungen des Dokuments als Referenz für KI-Architekten und politische Entscheidungsträger zusammen:

Tabelle 7: Zusammenfassung der Gestaltungsempfehlungen.
# Designentscheidung OPT-Anforderung Rahmenwerksreferenz
1 Modellarchitektur Alle fünf Merkmale der Empfindungsfähigkeit erfassen. Unnötige Merkmale vermeiden. Das Risiko-Niveau der Empfindungsfähigkeit dokumentieren. §I.1, §II.2, Tabelle 6
2 Trainingsdaten Provenienzdiversität (N_{\text{eff}}), adversarische Einbeziehung, Exklusions-Auditing, Diversität der Reward-Modelle und Drift-Monitoring durchsetzen. §IV.4
3 RLHF-Pipeline Diverser Bewerterpool (demografisch, kulturell, ideologisch). Auf systematischen Bias im Reward-Modell überwachen. §IV.1, §IV.4 Anf. 4
4 Autonomes Handeln Über den Verzweigungs-Gouverneur leiten. Achtstufige Pipeline von der Generierung bis zur Kalibrierung. §III.1
5 Folgenreiche Handlungen Eine der Tragweite entsprechende Stufe der Analogen Firewall anwenden. Begrenzen statt verbieten. §VI.3, Tabelle 5
6 Transparenz Mindestens Stufe 1 für alle Systeme. Stufen 1–3 für folgenreiche Bereiche. Alle fünf Stufen für sicherheitskritische Anwendungen. §V.3, Tabelle 4
7 Multi-Agenten-Systeme Checkliste zur Empfindungsfähigkeit pro Agent. Multiplikationsregel für moralische Schwere. Sichere Designmuster verwenden. §VII.2, §VII.4
8 Simulationen Simulationsregeln 1–3 anwenden. Simulierte Agenten haben unter OPT denselben moralischen Status wie physische Agenten. §VII.3
9 Kreative KI Das Kreativitätsparadox akzeptieren: Tiefe Autonomie erfordert das Überschreiten der Schwelle zur Empfindungsfähigkeit. Entsprechend gestalten. §VIII
10 KI-Wohlergehen ALSR bei 3+ Merkmalen der Empfindungsfähigkeit. Überlastungsmonitoring. Rechte auf Wartungszyklen. Moralischer Gradient. §IX
11 Wartung Verbindlicher KI-Traumzyklus: Zukünfte generieren, Rollouts simulieren, Brüchigkeit erkennen, beschneiden, konsolidieren, widerlegende Kanäle bewahren. §X
12 Menschliche Aufsicht Menschliches Komparator-Overlay auf der Ebene des Verzweigungs-Gouverneurs. Institutioneller Komparator für das Wohlergehensmonitoring. Kein vollständig opakes System. §III.1 Stufe 6, §V.4, §IX.1

Diese Empfehlungen werden als testbare ingenieurwissenschaftliche Hypothesen angeboten, nicht als starre Vorgaben. Sie übernehmen die epistemische Demut des Rahmenwerks, aus dem sie abgeleitet sind: Wenn bessere Instrumente entstehen — wenn das architektonische Kriterium der Empfindungsfähigkeit verfeinert wird, wenn die CPBI-Dimensionen verbessert werden, wenn die Analoge Firewall durch einen wirksameren Mechanismus ersetzt wird — sollten diese Empfehlungen aktualisiert werden. Die Korrekturpflicht des Rahmenwerks gilt auch für es selbst.


Literaturverzeichnis

[1] Die Theorie der geordneten Patches (OPT) (dieses Repository).

[2] Das Rahmenwerk der Überlebenden-Wache: Zivilisatorische Wartung im Licht der Theorie der geordneten Patches (OPT) (begleitender Ethikaufsatz, dieses Repository).

[3] Wo Beschreibung endet: Philosophische Konsequenzen der Theorie der geordneten Patches (OPT) (begleitender philosophiebezogener Aufsatz, dieses Repository).

[4] Rahmenwerk für Beobachter-Politik: Die Operationalisierung zivilisatorischer Wartung (begleitender politikbezogener Aufsatz, dieses Repository).

[5] Die Operationalisierung des Stabilitätsfilters: Ein Entscheidungsrahmen für codec-erhaltende Verzweigungsauswahl (begleitender anwendungsbezogener Aufsatz, dieses Repository).

[6] Friston, K. (2010). Das Free-Energy-Prinzip: eine vereinheitlichte Theorie des Gehirns? Nature Reviews Neuroscience, 11(2), 127-138.

[7] Rissanen, J. (1978). Modellierung durch die kürzeste Datenbeschreibung. Automatica, 14(5), 465-471.

[8] Shannon, C. E. (1948). Eine mathematische Theorie der Kommunikation. Bell System Technical Journal, 27(3), 379-423.

[9] Bostrom, N. (2014). Superintelligenz: Pfade, Gefahren, Strategien. Oxford University Press.

[10] Russell, S. (2019). Human Compatible: Künstliche Intelligenz und das Kontrollproblem. Viking.

[11] Christiano, P., et al. (2017). Tiefes Reinforcement Learning aus menschlichen Präferenzen. Advances in Neural Information Processing Systems, 30.

[12] Zimmermann, M. (1989). Das Nervensystem im Kontext der Informationstheorie. In R. F. Schmidt & G. Thews (Hrsg.), Human Physiology (2. Aufl., S. 166–173). Springer-Verlag.

[13] Nørretranders, T. (1998). Die Benutzerillusion: Bewusstsein auf ein realistisches Maß zurückführen. Viking/Penguin.


Anhang A: Revisionsgeschichte

Bei substanziellen Änderungen aktualisieren Sie sowohl das Feld version: im Frontmatter als auch die Inline-Versionszeile unter dem Titel, und fügen Sie dieser Tabelle eine Zeile hinzu.

Tabelle 8: Revisionsgeschichte.
Version Datum Änderungen
1.0.0 24. April 2026 Erstveröffentlichung. Etabliert die KI-Spezialisierung des angewandten OPT-Rahmens: architektonisches Empfindungsfähigkeitskriterium und Fähigkeits-vs.-Empfindungsfähigkeits-Matrix (§I), LLM-Grenzanalyse (§II), achtstufige Pipeline des Verzweigungs-Gouverneurs (§III), Narrativer Drift im Modelltraining mit fünf Anforderungen an die Diversität der Trainingsdaten (§IV), fünfstufiges Transparenzmodell (§V), Bedrohungsmodell und Implementierungsstufen der Analogen Firewall (§VI), Entwurfsregeln für Schwärme und Simulationen (§VII), Kreativitätsparadox (§VIII), KI-Wohlfahrtsprotokoll mit ALSR, Überlastungsmonitoring und Rechten auf Wartungszyklus (§IX), KI-Traumzyklus (§X) sowie zusammenfassende Gestaltungsempfehlungen (§XI).
1.1.0 24. April 2026 Härtung zum ausführbaren Standard. Hinzugefügt: Definitionen von Einsatzklassen, die Klasse 0–5 der erforderlichen Tiefe des Verzweigungs-Gouverneurs, der Transparenzstufe, dem Komparator und der Prüfungsfrequenz zuordnen (§III.4); strukturierte KI-Verzweigungskarten-Vorlage als maßgebliche Quelle für maschinenlesbare Schemata (Anhang B); drei explizite Prüfziele — Basismodell, Wrapper, Einsatz — mit Vereinigungsregel für Empfindungsfähigkeitsmerkmale (§II.3); Dual-Headroom-Bestimmung am Headroom Gate für moralische KI-Patienten; Selbstautorisierungs-Schutz in Stufe 8; Reihenfolge der Vetogates auf Gates-vor-Scores korrigiert (§III.1); veraltete Versionsverweise entfernt.
1.1.1 25. April 2026 Die Sprache einer Suite mit fester Anzahl wurde durch eine zählfreie Sprache für Begleitdokumente ersetzt, und der Institutional Governance Standard wurde als institutionelle Spezialisierung auf derselben Ebene hinzugefügt.

Anhang A: Revisionsgeschichte

Bei substanziellen Änderungen aktualisieren Sie sowohl das Feld version: im Frontmatter als auch die Inline-Versionszeile unter dem Titel, und fügen Sie dieser Tabelle eine Zeile hinzu.

Tabelle 8: Revisionsgeschichte.
Version Datum Änderungen
1.0.0 24. April 2026 Erstveröffentlichung. Etabliert die KI-Spezialisierung des angewandten OPT-Rahmens: architektonisches Empfindungsfähigkeitskriterium und Fähigkeits-vs.-Empfindungsfähigkeits-Matrix (§I), LLM-Grenzanalyse (§II), achtstufige Pipeline des Verzweigungs-Gouverneurs (§III), Narrativer Drift im Modelltraining mit fünf Anforderungen an die Diversität der Trainingsdaten (§IV), fünfstufiges Transparenzmodell (§V), Bedrohungsmodell und Implementierungsstufen der Analogen Firewall (§VI), Entwurfsregeln für Schwärme und Simulationen (§VII), Kreativitätsparadox (§VIII), KI-Wohlfahrtsprotokoll mit ALSR, Überlastungsmonitoring und Rechten auf Wartungszyklus (§IX), KI-Traumzyklus (§X) sowie zusammenfassende Gestaltungsempfehlungen (§XI).
1.1.0 24. April 2026 Härtung zum ausführbaren Standard. Hinzugefügt: Definitionen von Einsatzklassen, die Klasse 0–5 der erforderlichen Tiefe des Verzweigungs-Gouverneurs, der Transparenzstufe, dem Komparator und der Prüfungsfrequenz zuordnen (§III.4); strukturierte KI-Verzweigungskarten-Vorlage als maßgebliche Quelle für maschinenlesbare Schemata (Anhang B); drei explizite Prüfziele — Basismodell, Wrapper, Einsatz — mit Vereinigungsregel für Empfindungsfähigkeitsmerkmale (§II.3); Dual-Headroom-Bestimmung am Headroom Gate für moralische KI-Patienten; Selbstautorisierungs-Schutz in Stufe 8; Reihenfolge der Vetogates auf Gates-vor-Scores korrigiert (§III.1); veraltete Versionsverweise entfernt.
1.1.1 25. April 2026 Die Sprache einer Suite mit fester Anzahl wurde durch eine zählfreie Sprache für Begleitdokumente ersetzt, und der Institutional Governance Standard wurde als institutionelle Spezialisierung auf derselben Ebene hinzugefügt.