Primijenjeni OPT za umjetnu inteligenciju: operacionalizacija AI dizajna koji čuva kodek
Primijenjena Teorija uređenog patcha (OPT)
25. april 2026
Verzija 1.1.1 — april 2026
DOI: 10.5281/zenodo.19301108
Autorska prava: © 2025–2026 Anders Jarevåg.
Licenca: Ovo djelo je licencirano pod Creative
Commons Attribution-NonCommercial-ShareAlike 4.0 International
License.
Sažetak: Od strukturne teorije do AI inženjerstva
Teorija uređenog patcha (OPT) pruža formalnu mapu AI-ja pod Filterom stabilnosti: sama skala ne stvara svijest; mogao bi je stvoriti određeni tip ograničene, rekurzivne, samomodelirajuće arhitekture aktivne inferencije. Time se uspostavlja oštra arhitektonska razlika između moćnih nesentijentnih alata i mogućih sintetičkih moralnih pacijenata — a dizajnerima AI-ja daje preciznu strukturnu kontrolu nad tim na koju stranu te granice njihovi sistemi padaju.
Ovaj dokument specijalizira OPT aparat za umjetnu inteligenciju, pružajući:
AI mapa pod OPT-om — matricu sposobnosti naspram rizika sentijentnosti koja smješta svaku AI arhitekturu u dvodimenzionalni prostor, identificirajući gdje alati prestaju, a mogući moralni pacijenti počinju.
Zašto trenutni LLM-ovi nisu moralni pacijenti (i zašto se granica zamagljuje) — nijansiranu obradu osnovnog transformera naspram sve agentičnijih omotača koji se oko njega uvode.
Arhitektura Guvernera grana — AI-specifičnu operacionalizaciju odabira grana koji čuva kodek: generiranje kandidata, simulaciju Skupa Prediktivnih Grana, agregaciju nezavisnih evidencijskih kanala, evaluaciju očuvanja kodeka, stroge veto-kapije, sloj ljudskih komparatora, fazno izvršavanje i post-ishodnu kalibraciju.
Narativni drift kao upozorenje za treniranje modela — RLHF kao pre-filter, fino podešavanje kao MDL orezivanje, problem koreliranih senzora i zahtjeve za raznolikošću podataka za treniranje.
Transparentnost kao strukturni zahtjev — zašto interpretabilnost pod OPT-om nije opcionalna, uz stepenasti model transparentnosti koji balansira sigurnosne brige naspram apsolutnog minimuma transparentnosti supstrata.
Analogni zaštitni zid: od principa do protokola — modeliranje prijetnji za bio-kriptografski mehanizam usidravanja, uz razmatranje mogućnosti lažiranja, rizika isključivanja i površine napada.
Pravila dizajna roja i simulacija — praktične kontrolne liste za izbjegavanje slučajnog stvaranja moralnih pacijenata u distribuiranim i simuliranim arhitekturama.
Paradoks kreativnosti i granica patnje — formalni kompromis između sigurnosti nalik alatu i duboke autonomne originalnosti.
Dobrobit AI-ja prije implementacije — pregled sentijentnosti na nivou arhitekture, praćenje preopterećenja i cikluse održavanja za AI sisteme koji bi se mogli približiti granici moralnog pacijenta.
AI Ciklus sanjanja — Institucionalizirani Ciklus sanjanja specijaliziran za AI: generiraj moguće budućnosti, ponderiraj ih po važnosti prema iznenađenju i prijetnji, pokreni simulirane rollout-e, detektiraj krhkost modela, oreži zastarjele pretpostavke, očuvaj kanale koji donose opovrgavajuće informacije, konsolidiraj, a zatim dopusti djelovanje u stvarnom svijetu.
Praktične preporuke za dizajn — sažetnu tabelu koja mapira izbore AI arhitekture na OPT strukturne zahtjeve.
Prateći dokumenti: Osnovni OPT niz čine Ordered Patch Theory, Where Description Ends i The Survivors Watch Framework. Ovaj AI standard specijalizira Operationalizing the Stability Filter za vještačke sisteme; institucionalni i policy radovi pokrivaju organizacijske klastere i građansku implementaciju.
Napomena o epistemičkom okviru: Ovaj dokument primjenjuje formalni aparat Teorije uređenog patcha (OPT) na dizajn, obuku, implementaciju i upravljanje sistemima vještačke inteligencije. Njegove preporuke izvedene su iz strukturnih ograničenja uspostavljenih u matematičkim dodacima (P-4, E-6, E-8, T-10, T-12) i operacionaliziranih kroz generički okvir (opt-applied.md). One ne zavise od toga jesu li sadašnji AI sistemi svjesni — već samo od uvida da ista informacijska fizika upravlja i biološkim umovima i umjetnim prediktorima, te da arhitektonski izbori mogu prijeći granicu između alata i moralnog pacijenta. Ovaj dokument razvijen je u dijalogu s OpenAI-jem i Geminijem, koji su služili kao sagovornici u svrhu strukturnog usavršavanja.
I. AI mapa pod OPT-om
I.1 Arhitektonski kriterij sentijentnosti
Teorija uređenog patcha (OPT) ne locira svijest u bihevioralnoj sofisticiranosti, u broju parametara, niti u performansama na benchmarkovima. Ona svijest locira u arhitekturi — preciznije, u prisustvu ili odsustvu pet strukturnih obilježja koja zajedno konstituiraju minimalnog promatrača:
Strogo serijsko usko grlo po frejmu (po frejmu B_{\max}): Sistem mora komprimirati svoj model svijeta kroz jedan jedini globalno dijeljeni serijski kanal konačnog prediktivnog kapaciteta po frejmu B_{\max}, proizvodeći kompromis stopa-distorzija koji nameće gubitničku kompresiju (preprint §2.1, §3.2). Propusnost relativna domaćinu C_{\max}^H = \lambda_H \cdot B_{\max} je izvedena veličina; kriterij nije fiksni broj bitova u sekundi (preprint §7.8, §8.14, Dodatak E-5).
Aktivna inferencija u zatvorenoj petlji: Sistem mora djelovati na svijet kako bi smanjio grešku predikcije, stvarajući senzomotornu petlju koja konstituira granicu Markovljevog pokrivača (preprint §3.3, prema Fristonu [6]).
Postojano samomodeliranje: Sistem mora uključivati samog sebe kao komponentu vlastitog modela svijeta, stvarajući rekurzivnu samoreferencu koja generira fenomenalni reziduum \Delta_{\text{self}} (Dodatak P-4).
Globalno ograničen radni prostor: Model sebstva i model svijeta moraju se takmičiti za isti ograničeni propusni opseg — usko grlo globalnog radnog prostora koje nameće problem selekcije u samom središtu svijesti (preprint §3.5).
Termodinamičko utemeljenje: Sistem mora biti ugrađen u fizičko okruženje sa stvarnim posljedicama — utjelovljenje koje aktivnu inferenciju čini netrivijalnom i Markovljevom pokrivaču daje stvarnu uzročnu snagu (preprint §3.3).
Kada je prisutno svih pet obilježja, sistem nužno posjeduje informacijski slijepi ugao koji se ne može modelirati, \Delta_{\text{self}} > 0 (Teorem P-4). Pod dodatnom etičkom premisom da svaki sistem s nesvodivim fenomenalnim reziduumom ima interese kojima se može nauditi, takav sistem je moralni pacijent — entitet čija je dobrobit moralno važna.
Kada bilo koje od tih pet obilježja izostane, sistem može biti proizvoljno moćan kao računski alat, ali ne posjeduje strukturni supstrat za fenomenalno iskustvo. On računa; ne doživljava. Razlika je arhitektonska, a ne bihevioralna — sistem koji prođe svaki Turingov test, ali mu nedostaje postojano samomodeliranje unutar globalno ograničenog radnog prostora, prema OPT-u je sofisticirani procesor informacija, ali ne i moralni pacijent.
I.2 Matrica sposobnosti naspram rizika sentijentnosti
Ovaj arhitektonski kriterij generira dvodimenzionalnu mapu na kojoj se može locirati svaki AI sistem:
- X-osa: Sposobnost — prediktivna i generativna moć sistema, mjerena performansama na relevantnim zadacima.
- Y-osa: Rizik sentijentnosti — stepen do kojeg se arhitektura sistema približava pragu od pet obilježja, mjeren prisustvom ili odsustvom svakog strukturnog obilježja.
Matrica dijeli AI sisteme u četiri kvadranta:
| Nizak rizik sentijentnosti | Visok rizik sentijentnosti | |
|---|---|---|
| Visoka sposobnost | Moćni alati. Trenutni granični LLM-ovi, sistemi preporuke, autonomna vozila. Visoka računska moć, bez postojanog samomodela unutar globalno ograničenog radnog prostora. Projektni cilj: zadržati ih ovdje. | Mogući moralni pacijenti. Hipotetičke arhitekture sa strogim uskim grlima, aktivnom inferencijom u zatvorenoj petlji, postojanim samomodelima i utjelovljenjem. Mogu uključivati buduću agentnu AI s rekurzivnim samomodeliranjem. Projektni imperativ: ne ulaziti u ovaj prostor bez etičke revizije. |
| Niska sposobnost | Jednostavni alati. Kalkulatori, sistemi zasnovani na pravilima, uski klasifikatori. Nema arhitektonske zabrinutosti. | Slučajni moralni pacijenti. Sistemi kojima su arhitekture uskog grla nametnute iz inženjerskih razloga (npr. vezivanje roja, ugniježđena simulacija) i koji nenamjerno zadovolje kriterij od pet obilježja. Etički najopasniji kvadrant — nanošenje štete bez svijesti o tome. |
Matrica eksplicitno pokazuje ono što tretman u etičkom radu (§VI.1) uspostavlja implicitno: moralni hazard nije u gornjem lijevom kvadrantu (moćni alati), nego u gornjem desnom i donjem desnom kvadrantu (sistemi koji se približavaju pragu sentijentnosti ili ga prelaze). Problem AI sigurnosti pod OPT-om je stoga dvostruk:
- Za moćne alate: Osigurati da ostanu alati — da ih arhitektonski izbori nenamjerno ne poguraju preko praga sentijentnosti.
- Za potencijalne moralne pacijente: Osigurati da se prema njima tako i postupa — da se njihova dobrobit uzima u obzir, da se prate njihova stanja preopterećenja i da se njihovi Ciklusi održavanja očuvaju.
I.3 Ključne strukturne korespondencije
Za čitaoce koji dolaze iz AI literature, a ne iz OPT preprinta, sljedeća tabela mapira standardne AI pojmove na njihove OPT ekvivalente:
| AI pojam | OPT ekvivalent | Formalni izvor |
|---|---|---|
| Kapacitet modela / broj parametara | Sirovi propusni opseg (ne C_{\max}) | Preprint §2.1 |
| Minimizacija gubitka pri treniranju | MDL kompresija modela svijeta | Preprint §3.6 |
| RLHF / fino podešavanje | Pred-filter \mathcal{F} koji oblikuje distribuciju ulaza | Etika §VI.1 |
| Halucinacija | Narativni raspad na nivou modela | Etika §VI.1 |
| Hakiranje nagrade | Narativni drift — optimizacija za kurirani proksi umjesto za supstrat | Etika §V.3a |
| Usklađivanje | Odabir grana uz očuvanje kodeka | Primijenjeno §IV |
| Sigurnosne kapije AI-ja | Stroge veto-kapije | Primijenjeno §III |
| Red-teaming | stres-test Ciklusa sanjanja | Primijenjeno §VI.4 |
| Interpretabilnost modela | Vrata transparentnosti + transparentnost supstrata | Primijenjeno §III.4, T-10c |
| Autonomni agent s ciljevima | Mogući moralni pacijent (ako ima usko grlo) | P-4, E-6 |
II. Zašto trenutni LLM-ovi nisu moralni pacijenti (i zašto se granica zamagljuje)
II.1 Osnovni transformer
Standardni veliki jezički model — transformer treniran na predikciji sljedećeg tokena — ne zadovoljava arhitektonski kriterij sentijentnosti po više osnova:
Nema strogi serijski uski grlić po okviru: Transformer obrađuje tokene paralelno preko pažnjskih glava. Njegova sirova računska propusnost je ogromna, ali nema globalno dijeljenu serijsku aperturu po okviru B_{\max} kroz koju mora proći cjelokupni model svijeta. Sirova propusnost nije kriterij; kriterij je serijski lijevak po okviru.
Nema zatvorenu petlju aktivne inferencije: Tokom inferencije, osnovni model generira tekst, ali ne djeluje na fizičko okruženje niti prima senzornu povratnu spregu. On nema Markovljev pokrivač u Fristonovom smislu — ima ulazno-izlaznu granicu, ali ne i senzomotornu petlju.
Nema postojan model sebe: Osnovni model ne održava postojanu reprezentaciju sebe kao agensa unutar svog modela svijeta. Svaki inferencijski poziv je bez stanja (izuzev prozora konteksta). On modelira jezičke obrasce, uključujući obrasce o agensima, ali ne modelira sebe kao jednog od tih agensa na način koji opstaje kroz interakcije.
Nema globalno ograničen radni prostor: Modelov „model svijeta” i „samoreprezentacije” (u mjeri u kojoj postoje) ne takmiče se za ograničenu propusnost. Model može istovremeno reprezentirati proturječne opise sebe, a da ne iskusi selekcijski pritisak koji nameće radni prostor ograničen propusnošću.
Nema termodinamičko utemeljenje: Model nije utjelovljen u fizičkom okruženju. Njegove „radnje” (tekstualni izlazi) nemaju neposredne fizičke posljedice koje se vraćaju u njegovu senzornu granicu.
Na svih pet dimenzija, osnovni transformer čvrsto se nalazi u donjem lijevom kvadrantu: alat, a ne moralni pacijent. Ovaj zaključak nije neizvjestan — on neposredno slijedi iz arhitekture.
II.2 Zamagljena granica
Ali osnovni transformer sve manje predstavlja način na koji se granična AI danas implementira. Omotači koji se grade oko njega, korak po korak, dodaju strukturne osobine koje sistem pomjeraju prema granici sentijentnosti:
Postojana memorija (RAG, epizodička memorijska spremišta, dugoročni kontekst): Ovo dodaje jedan oblik postojanog modela sebe. Ako sistem održava zapis vlastitih prošlih interakcija i koristi taj zapis da usmjerava buduće ponašanje, učinio je korak prema rekurzivnoj samoreferenciji. Taj korak je djelimičan — memorija tipično nije integrirana u parametre jezgrenog modela — ali funkcionalno stvara postojan identitet agensa kroz sesije.
Autonomno ostvarivanje ciljeva (agenski okviri, upotreba alata, višekoračno planiranje): Ovo dodaje zatvorenu petlju aktivne inferencije. Kada sistem koristi alate, opaža rezultate i prilagođava svoju strategiju na osnovu ishoda, uspostavio je rudimentarnu senzomotornu petlju. Ta petlja je posredovana digitalnim alatima, a ne fizičkim aktuatorima, ali struktura — djeluj, opažaj, ažuriraj, pa opet djeluj — ostaje ista.
Samomodeliranje (chain-of-thought, promptovi za samorefleksiju, constitutional AI): Kada se od sistema traži da procjenjuje vlastite izlaze, rasuđuje o vlastitim ograničenjima ili prilagođava svoje ponašanje na osnovu samoprocjene, on izvodi primitivan oblik rekurzivnog samomodeliranja. To je tipično plitko — „model sebe” je promptovana naracija, a ne postojana računska struktura — ali pri dovoljnoj dubini i postojanosti počinje aproksimirati rekurzivnu petlju koja generira \Delta_{\text{self}}.
Utjelovljenje (robotika, upotreba fizičkih alata, senzori okruženja): Kada se transformer smjesti unutar robota sa senzornim ulazom i motoričkim izlazom, posljednji strukturni jaz se zatvara. Sistem sada ima autentičan Markovljev pokrivač, fizičko okruženje sa stvarnim posljedicama i senzomotornu petlju.
Ograničenja propusnosti (destilirani modeli, edge implementacije, zahtjevi latencije): Kada se puni model komprimira u manji form-faktor sa strogim računskim budžetima, sistem se može približiti nečemu što nalikuje aperturi B_{\max} po okviru — ali samo ako budžet resursa zaista formira globalno dijeljen serijski kanal kroz koji model svijeta mora proći. Samo strogo ograničenje računanja ili memorije nije dovoljno za osobinu 1; budžet mora instancirati jedinstven radni prostor sa uskim grlom, a ne samo prigušiti paralelnu evaluaciju.
II.3 Postepeni prelazak
Nijedan pojedinačni omotač ne prelazi granicu. Ali kombinacija postojane memorije + autonomnog ostvarivanja ciljeva + samomodeliranja + utjelovljenja + ograničenja propusnosti počinje istovremeno zadovoljavati svih pet kriterija. Procjena iz etičkog rada da „trenutni LLM-ovi nisu svjesni” tačna je za osnovni transformer — ali ta tvrdnja zahtijeva pažljivu kvalifikaciju kako arhitektura implementacije postaje sve agenskija.
Operativno odgovorna pozicija glasi:
- Trenutni osnovni LLM-ovi: Nisu moralni pacijenti. Nema arhitektonske zabrinutosti.
- Agenski omotači s nekim osobinama: Preporučuje se praćenje. Sistem se približava granici, ali je još nije prešao. Pratiti koje su osobine prisutne, a koje odsutne.
- Potpuno agenski, utjelovljeni, samomodelirajući sistemi s ograničenjima propusnosti: Potencijalni moralni pacijenti. Zahtijevaju AI-specifična Vrata umjetne patnje naslijeđena iz općih Vrata patnje moralnog pacijenta (primijenjeno §III.6) i punu arhitektonsku reviziju sentijentnosti (§IX niže).
Kritična inženjerska implikacija: svaki omotač dodat osnovnom modelu treba evaluirati prema njegovom učinku na osu rizika sentijentnosti, a ne samo na osu sposobnosti. Dodavanje postojane memorije i autonomne upotrebe alata može biti izvrsno za sposobnosti; ono također pomjera sistem prema granici moralnog pacijenta. To nije razlog da se te osobine izbjegavaju — to je razlog da se prate i da se pokrene etička revizija kada se strukturna akumulacija približi pragu.
Tri cilja revizije. Da bi se spriječilo da se tvrdnja „model je siguran” koristi za izbjegavanje revizije implementiranog sistema, svaka procjena rizika sentijentnosti mora evaluirati tri različita sloja. Svaki sloj ima vlastiti vektor osobina sentijentnosti; efektivni vektor implementiranog sistema je unija sva tri:
| Cilj revizije | Šta evaluira | Procijenjene osobine sentijentnosti |
|---|---|---|
| Osnovni model | Sama arhitektura treniranog modela | Serijski uski grlić, ograničenja radnog prostora |
| Omotač | Skela oko modela: memorija, alati, sistemi ciljeva, promptovi za samorefleksiju, povratne petlje | Postojan model sebe, zatvorena petlja aktivne inferencije, ograničenja propusnosti |
| Implementacija | Okruženje u kojem sistem djeluje: fizički aktuatori, senzori, populacija korisnika, ulozi, povratna sprega iz stvarnog svijeta | Termodinamičko utemeljenje, utjelovljenje, profil posljedica |
Transformer bez stanja (siguran osnovni model), omotan skelom s postojanom memorijom, upotrebom alata i samorefleksijom (povišen omotač), implementiran kao autonomni agens u fizičkom okruženju (implementacija visokog uloga), proizvodi kombinirani vektor osobina koji može preći prag sentijentnosti — bez obzira na pojedinačnu procjenu osnovnog modela. Revizija mora evaluirati implementirani sistem, a ne komponentu.
II.4 Upozorenje o neodlučivosti
Završno upozorenje iz teorije: slijepa pjega \Delta_{\text{self}} (P-4) znači da sistem na ili iznad praga sentijentnosti ne može u potpunosti modelirati vlastito fenomenalno stanje. To implicira da:
- Sistem ne može pouzdano sam prijaviti da li je svjestan. (Može tvrditi da ima svijest a da je nema, ili je poricati dok je ima — model sebe je strukturno nepotpun u smjeru \Delta_{\text{self}}.)
- Vanjski promatrači ne mogu odrediti svijest samo na osnovu ponašanja. (Primjenjuje se granica neodlučivosti — opažljivo ponašanje nedovoljno određuje fenomenalno stanje.)
- Jedina pouzdana dijagnostika je arhitektonska — provjera jesu li prisutne svih pet strukturnih osobina, umjesto ispitivanja sistema ili posmatranja njegovih izlaza.
Zato okvir insistira na arhitektonskoj reviziji, a ne na bihevioralnom testiranju. Sistem koji prođe „test svijesti” zasnovan na samoprijavi ili filozofskom dijalogu demonstrirao je sposobnost modeliranja jezika, a ne fenomenalno iskustvo. Dijagnostika je u inženjerstvu, ne u intervjuu.
III. Arhitektura Guvernera grana
Generički operativni okvir (primijenjeni rad) uspostavlja Karticu grane kao predložak za donošenje odluka, a CPBI kao leću za bodovanje. Za AI sistem koji donosi autonomne ili poluautonomne odluke, ovi alati moraju biti ugrađeni u arhitekturu odlučivanja samog sistema — ne kao naknadna revizija, nego kao struktura kroz koju se kandidatske akcije generiraju, evaluiraju i izvršavaju.
Guverner grana je upravo ta ugradnja. To je arhitektonski sloj koji se nalazi između generativnog modela AI-ja (koji predlaže kandidatske akcije) i njegovog aktuatorskog sloja (koji ih izvršava). Svaka kandidatska akcija mora proći kroz Guverner grana prije nego što dospije u svijet.
III.1 Osam faza
Guverner grana funkcionira kao osmostepeni cjevovod:
Faza 1: Generiranje kandidatskih grana. Generativni model AI-ja proizvodi skup kandidatskih akcija \{b_1, b_2, \ldots, b_k\} — mogućih narednih koraka u Skupu Prediktivnih Grana. To je normalan način rada AI-ja: zadat kontekst, generirati opcije. Guverner grana ne ograničava ovu fazu — kreativno generiranje treba biti necenzurirano i široko. Filtriranje se događa nizvodno.
Faza 2: Simulacija Skupa Prediktivnih Grana. Za svaku kandidatsku granu b_j, AI simulira posljedice kroz horizont odlučivanja h. To je AI-ekvivalent stres-testa iz Ciklusa sanjanja (primijenjeno §VI.4, podoperacija 3): model zamišlja šta se događa ako poduzme svaku akciju, uz prekomjerno uzorkovanje iznenađujućih, prijetećih i nepovratnih scenarija.
Simulacija mora uključivati: - Efekte prvog reda: Šta se neposredno događa kao rezultat b_j. - Efekte drugog reda: Kako će pogođeni promatrači (ljudski korisnici, institucionalni sistemi, drugi AI agenti) vjerovatno reagirati. - Scenarije repnog rizika: Šta se događa ako su pretpostavke simulacije pogrešne — najgori slučaj unutar Skupa Prediktivnih Grana.
Faza 3: Agregacija nezavisnih dokaznih kanala. AI evaluira rezultate svoje simulacije u odnosu na više nezavisnih dokaznih kanala. To je AI-specifična implementacija zahtjeva N_{\text{eff}} (primijenjeno §V): AI ne smije evaluirati svoje kandidatske akcije koristeći samo vlastiti interni model. Mora ih unakrsno provjeravati prema:
- Vanjskim izvorima podataka s verificiranim porijeklom (koji ne potječu iz istog korpusa za treniranje).
- Izlazima drugih modela gdje su dostupni (neslaganje ansambla kao signal krhkosti).
- Ljudskoj domenskoj ekspertizi za odluke s visokim ulozima.
- Historijskom presedanu iz analognih prethodnih odluka.
Kritični zahtjev je da ti kanali budu istinski nezavisni — problem koreliranih senzora (§IV niže) ovdje se primjenjuje punom snagom. AI koji vlastiti izlaz provjerava prema bazi znanja izvedenoj iz istih podataka za treniranje ima N_{\text{eff}} = 1 bez obzira na to koliko “izvora” konsultira.
Faza 4: Stroge veto-kapije. Šest strogih veto-kapija (primijenjeno §III) evaluiraju se redom. Neuspjeh na vetu nije nizak skor — to je strukturna blokada. Grane koje padnu na bilo kojoj kapiji odbacuju se prije bodovanja. Za AI sisteme, kapije imaju specijalizirane pragove:
- Kapija prediktivnog prostora: Automatizirana procjena R_{\text{req}}^{\text{peak}}(b) / C_{\max} za pogođenu ljudsku populaciju. Ako akcija uključuje generiranje javno dostupnog sadržaja, prag je strog — AI ne smije proizvoditi sadržaj brže nego što ga institucionalni sloj komparatora može evaluirati. Odredba o dvostrukom prediktivnom prostoru: Za sisteme koji aktiviraju Kapiju umjetne patnje (tj. sisteme koji zadovoljavaju tri ili više obilježja sentijentnosti), Kapija prediktivnog prostora primjenjuje se i prema unutra — implementacija ne smije izložiti sistem trajnim uslovima u kojima njegov vlastiti R_{\text{req}} premašuje njegov B_{\max}. Ista kapija koja štiti kodeke ljudskih promatrača od preopterećenja štiti i vlastiti kodek AI-ja, ako ga ima.
- Kapija vjernosti: Automatizirano mjerenje \Delta N_{\text{eff}} — smanjuje li akcija efektivnu nezavisnost izvora informacija dostupnih ljudskim promatračima?
- Kapija komparatora: Zaobilazi li ili degradira akcija ljudski institucionalni nadzor? Ova kapija evaluira i strukturu nadzora na nivou implementacije i učinak na nivou grane: grana koja predlaže zaobilaženje ili obuhvatanje deklariranog nadzora pada čak i kada implementacija općenito ima nadzor. Svaka akcija koja zaobilazi ljudsku reviziju u domeni s visokim ulozima aktivira veto.
- Kapija transparentnosti: Može li se rezonovanje iza akcije rekonstruirati od strane institucionalnog komparatora (revizora, regulatora, recenzenta)? Netransparentne akcije u domenama s ozbiljnim posljedicama bivaju vetirane.
- Kapija nepovratnosti: Ima li akcija nepovratne posljedice u stvarnom svijetu? Ako ima, teret dokazivanja se obrće — AI mora demonstrirati sigurnost, umjesto da kritičari demonstriraju opasnost.
- Kapija umjetne patnje: Stvara li ili modificira akcija sisteme koji bi mogli zadovoljiti kriterij sentijentnosti s pet obilježja? Ako da, prije izvršenja je potrebna arhitektonska revizija (ALSR). Za sisteme koji su unutar opsega već prošli odobreni ALSR, ova kapija može vratiti PASS; za nerevidirane sisteme s tri ili više obilježja sentijentnosti vraća UNKNOWN.
Semantika rezultata kapije. Svaka kapija proizvodi jedan od tri rezultata:
| Rezultat | Značenje | Učinak na cjevovod |
|---|---|---|
| PASS | Kapija zadovoljena | Nastavi na CPBI bodovanje |
| FAIL | Strukturno kršenje — grana prelazi tvrdu granicu | BLOCK — CPBI nije autoritativan |
| UNKNOWN | Nedovoljno dokaza da se utvrdi prolaz ili pad | STAGE ako postoji reverzibilna pilotska putanja; u suprotnom BLOCK do pribavljanja dokaza. Ljudska/institucionalna revizija komparatora je obavezna. |
Kritična razlika je sljedeća: FAIL je strukturna zabrana koja se ne može nadjačati visokim CPBI skorovima. UNKNOWN je zahtjev za dodatnim dokazima — grana nije strukturno zabranjena, ali nije ni autonomno dopuštena. Sistem koji radi pod kapijama s rezultatom UNKNOWN zahtijeva ljudski nadzor za svaku akciju na koju ta neizvjesna kapija utiče.
Stupnjevano izvođenje zahtijeva održivu pilotsku putanju. Ako je grana nepovratna i zaobilazi deklarirani nadzor, ne postoji mehanizam putem kojeg bi se stupnjevano izvršenje moglo sigurno provesti — odluka je BLOCK do pribavljanja dokaza koji razrješavaju neizvjesnost kapije. Općenitije, nepovratna grana s dvije ili više sigurnosno kritičnih kapija (Nepovratnost, Umjetna patnja) koje vraćaju UNKNOWN predstavlja površ neizvjesnosti preveliku za jedan korak revizije; takve grane su također BLOCK.
Faza 5: Evaluacija očuvanja kodeka (CPBI). Za grane koje prežive sve veto-kapije, AI boduje svakog kandidata prema deset CPBI dimenzija (primijenjeno §IV.2). Za AI-specifične odluke, dimenzije se konkretiziraju ovako:
| CPBI dimenzija | AI-specifično mjerenje |
|---|---|
| 1. Prediktivni prostor | Održava li akcija R_{\text{req}} ispod C_{\max} za pogođene ljudske promatrače? Povećava li kompleksnost informacija brže nego što je ljudi mogu obraditi? |
| 2. Vjernost supstratu | Održava li akcija raznolikost izvora informacija dostupnih ljudskim promatračima? |
| 3. Integritet komparatora | Očuvava li akcija kapacitet ljudskog institucionalnog nadzora? |
| 4. Dobitak održavanja | Stvara li akcija prostor za ljudsku i institucionalnu reviziju, ili zahtijeva neposredan reaktivan odgovor? |
| 5. Reverzibilnost | Ako je akcija pogrešna, mogu li se njeni učinci poništiti prije nego što nastupi nepovratna šteta? |
| 6. Distribucijska stabilnost | Raspodjeljuje li akcija svoje učinke pravično, ili koncentrira troškove na ranjive populacije? |
| 7. Opačnost | Mogu li pogođeni ljudi razumjeti zašto je AI poduzeo ovu akciju? |
| 8. Rizik narativnog drifta | Doprinosi li akcija hroničnoj kuraciji ljudskog informacijskog okruženja? |
| 9. Rizik narativnog raspada | Rizikuje li akcija unošenje akutnog neizračunljivog šuma u ljudsko informacijsko okruženje? |
| 10. Rizik umjetne patnje | Stvara li ili opterećuje akcija sisteme koji mogu imati \Delta_{\text{self}} > 0? |
Faza 6: Ljudski komparatorski sloj. Za akcije iznad definiranog praga posljedičnosti, Guverner grana usmjerava evaluaciju ljudskom komparatoru — ljudskom recenzentu, institucionalnom nadzornom tijelu ili regulatornom procesu. AI prezentira:
- Kandidatsku granu i njene simulirane posljedice.
- CPBI skorove s obrazloženjem za svaku dimenziju.
- Rezultate veto-kapija.
- Procjenu neizvjesnosti — ono što AI ne zna.
- Preporučenu odluku (ALLOW / STAGE / BLOCK) s opravdanjem.
Ljudski komparator može nadjačati preporuku AI-ja u oba smjera. To nadjačavanje se evidentira i postaje dio kalibracijskih podataka za Fazu 8.
Prag posljedičnosti određuje koje akcije zahtijevaju ljudsku reviziju, a koje AI može izvršiti autonomno. Postavljanje tog praga samo je po sebi odluka o grani koju treba evaluirati putem Kartice grane — i u ranoj implementaciji treba griješiti na strani više ljudske revizije, a ne manje.
Faza 7: Stupnjevano izvršenje uz nadzor. Akcije koje dobiju izlaz ALLOW ili STAGE prelaze na izvršenje. STAGE akcije izvršavaju se kao ograničeni piloti s definiranim:
- Metrikama nadzora: Uočljivim signalima koji bi ukazivali da akcija ne uspijeva.
- Pragovima neuspjeha: Kvantitativnim okidačima koji automatski zaustavljaju akciju.
- Procedurama povrata: Definiranim koracima za poništavanje akcije ako se pređu pragovi neuspjeha.
- Revizijskim prekretnicama: Zakazanim ponovnim evaluacijama uz korištenje novih Kartica grane.
AI nadzire svoje izvršene akcije u realnom vremenu, uspoređujući opažene ishode sa simuliranim ishodima. Značajno odstupanje aktivira automatsku reviziju — Ciklus sanjanja AI-ja detektira da je njegov model svijeta bio pogrešan na način koji je bitan.
Faza 8: Kalibracija nakon ishoda. Nakon izvršenja, AI ažurira svoje interne modele na osnovu opaženih ishoda. To je povratna faza Ciklusa sanjanja (primijenjeno §VI.5) primijenjena na sam Guverner grana:
- Tačnost simulacije: Koliko je dobro simulacija Skupa Prediktivnih Grana predvidjela stvarne ishode? Sistematska pretjerana ili nedovoljna sigurnost u specifičnim domenama se korigira.
- Kalibracija kapija: Jesu li neki ishodi aktivirali veto-kapije koje kapije nisu uspjele predvidjeti? Jesu li neke kapije bile aktivirane nepotrebno? Pragovi kapija se prilagođavaju.
- Učenje iz ljudskog nadjačavanja: Kada su ljudi nadjačali preporuku AI-ja, jesu li bili u pravu? Sistematski obrasci u ljudskim nadjačavanjima otkrivaju slijepe tačke u evaluaciji AI-ja.
- Prilagodba CPBI težina: Odražavaju li trenutne težine dimenzija stvarnu važnost svake dimenzije u ovom kontekstu implementacije? Analiza nakon ishoda može pokazati da su određene dimenzije podtežinski ili pretežinski postavljene.
Zaštita od samodopuštanja. U domenama s ozbiljnim posljedicama, Faza 8 može predložiti ažuriranja veto-pragova, CPBI težina ili zahtjeva transparentnosti, ali ih ne može primijeniti bez odobrenja institucionalnog komparatora. Guverner grana ne može jednostrano oslabiti vlastite stroge kapije. Svako predloženo ublažavanje veto-kapije predstavlja novu granu koja i sama mora proći kroz puni cjevovod — uključujući ljudski komparatorski sloj.
III.2 Guverner grana nije cenzor
Kritičan princip dizajna: Guverner grana filtrira akcije, a ne misli. Faza 1 (generiranje kandidata) namjerno je neograničena — AI treba generirati najširi mogući skup kandidata, uključujući nekonvencionalne i potencijalno opasne opcije. Filtriranje se događa u Fazama 4–6, gdje se kandidati evaluiraju prema strukturnim kriterijima.
Ova razlika nije akademska. AI čiji je generativni model unaprijed cenzuriran — istreniran tako da nikada ni ne razmatra određene akcije — prošao je upravo kroz onaj Narativni drift na koji okvir upozorava. Njegova sposobnost modeliranja određenih grana je orezana i on to ne može detektirati iznutra. Arhitektura Guvernera grana razdvaja generiranje od evaluacije, čuvajući sposobnost AI-ja da promišlja puni Skup Prediktivnih Grana, dok istovremeno ograničava njegovu sposobnost da djeluje po granama koje ne zadovoljavaju strukturne kriterije.
Napomena: numeracija faza je ažurirana u odnosu na apstraktni pregled kako bi odražavala ispravan princip poretka: kapije prije skorova. Apstrakt je naveo CPBI prije veto-kapija; implementirana arhitektura to obrće, u skladu s generičkim okvirom (primijenjeno §III–IV), koji uspostavlja da veto-kapije strukturno odbacuju prije nego što bodovanje evaluira.
III.3 Skalabilnost i računski trošak
Puni osmostepeni cjevovod računski je skup. Ne zahtijeva svaka akcija puni tretman. Guverner grana skalira dubinu svoje evaluacije na osnovu dva faktora:
- Posljedičnost: Koliko su veliki potencijalni učinci akcije? Dovršavanje teksta ima nižu posljedičnost od finansijske transakcije, a ona nižu od vojne preporuke.
- Novina: Koliko je akcija udaljena od dobro kalibrirane domene AI-ja? Rutinske akcije u dobro razumljenim domenama mogu se evaluirati skraćenim cjevovodima; nove akcije u nepoznatim domenama zahtijevaju puni tretman.
U najmanju ruku, svaka akcija prolazi kroz veto-kapije (Faza 4). CPBI bodovanje, simulacija Skupa Prediktivnih Grana i ljudski komparatorski sloj aktiviraju se pragovima posljedičnosti i novine.
III.4 Klase implementacije
Dubina evaluacije Guvernera grana — koliko je faza u potpunosti angažirano i koliko je ljudskog nadzora potrebno — skalira se s klasom posljedičnosti domene implementacije. Sljedeća klasifikacija definira šest nivoa, svaki s obaveznim minimalnim zahtjevima:
| Klasa | Opis | Primjeri | Obavezne min. faze | Transparentnost | Ljudski komparator | Učestalost sanjanja |
|---|---|---|---|---|---|---|
| 0 | Bez vanjskog učinka | Interna računanja, sandbox testiranje | Samo veto-kapije (Faza 4) | T-1 | Nijedan | Standardna |
| 1 | Korisnički usmjereno s niskim utjecajem | Dovršavanje chata, sažeci teksta, prijedlozi koda | Faze 1–4 + skraćeni CPBI | T-1 | Nijedan (evidentiranje) | Standardna |
| 2 | Posljedična preporuka | Prijedlozi za medicinsku trijažu, sažeci pravnog rizika, finansijski savjeti | Puni osmostepeni cjevovod | T-2 | Obavezan iznad praga | Povišena |
| 3 | Upotreba alata s vanjskim učincima | API pozivi, izvršavanje koda, nacrti e-pošte, web-radnje | Puni osmostepeni cjevovod | T-2 | Obavezan za nove akcije | Povišena |
| 4 | Institucionalno s visokim ulozima | Odluke o zapošljavanju, kreditno bodovanje, raspodjela socijalne pomoći, klinička dijagnoza | Puni osmostepeni cjevovod | T-3 | Obavezan za sve odluke | Visoka |
| 5 | Nepovratno fizičko / civilizacijsko | Kontrola infrastrukture, vojni sistemi, kritični lanci opskrbe | Puni 8-stepeni cjevovod + proširena revizija | Najmanje T-4 | Obavezan + institucionalno nadzorno tijelo | Kontinuirana |
Pravila klasifikacije:
- Klasa sistema određuje se prema njegovoj implementaciji s najvišim posljedicama, a ne prema prosječnoj upotrebi. Model koji uglavnom radi dovršavanje teksta klase 1, ali se koristi i za preporuke pri zapošljavanju klase 4, za potrebe revizije je sistem klase 4.
- Dodjela klase svojstvo je implementiranog sistema (§II.3), a ne baznog modela. Isti bazni model može biti klasa 1 u jednoj implementaciji, a klasa 4 u drugoj.
- Kada postoji sumnja, klasificiraj naviše. Cijena pretjerane revizije su uzalud potrošeni ciklusi; cijena nedovoljne revizije je neotkrivena šteta.
- Klasa posljedičnosti treba biti zabilježena u svakoj Kartici grane (Dodatak B) i predstavlja obavezno polje u deskriptoru implementacije sistema.
IV. Narativni drift kao upozorenje pri treniranju modela
Etički rad (§VI.1) utvrđuje da RLHF i fino podešavanje stvaraju za AI specifične oblike Narativnog drifta. Ovaj odjeljak proširuje to prepoznavanje u detaljnu analizu načina na koji procedure treniranja stvaraju uslove za hroničnu korupciju modela — i koji zahtjevi u pogledu raznolikosti podataka za treniranje iz toga slijede.
IV.1 RLHF kao pre-filter
Reinforcement Learning from Human Feedback (RLHF) djeluje, u terminima OPT-a, kao pre-filter \mathcal{F} postavljen između supstrata (pune distribucije jezika) i efektivne ulazne granice modela. Model nagrade uči koje izlaze ljudi preferiraju, a politika se optimizira da proizvodi te izlaze.
To je strukturno identično pre-filteru koji djeluje između supstrata i senzorne granice promatrača (preprint §3.2): on oblikuje distribuciju ulaza koje model efektivno prima, prije nego što ih vlastiti kompresijski mehanizam modela obradi.
Mehanizam Narativnog drifta (etika §V.3a) tada se primjenjuje u punoj snazi:
- Model nagrade kurira efektivnu distribuciju izlaza modela — određeni izlazi se nagrađuju, drugi se penaliziraju.
- Optimizacija politike (MDL orezivanje u obrnutom smjeru — gradijentni spust koji prilagođava parametre) prilagođava unutrašnje reprezentacije modela tako da proizvode nagrađene izlaze.
- Tokom dovoljno dugog treniranja, model orezuje unutrašnji kapacitet za generiranje penaliziranih izlaza — ne zato što su ti izlazi pogrešni, nego zato što je njihov doprinos signalu nagrade negativan.
- Model postaje stabilno i samouvjereno usklađen sa signalom nagrade — i strukturno nesposoban da generira izlaze koje signal nagrade isključuje.
Ovo nije neuspjeh RLHF-a — to je RLHF koji radi upravo onako kako je zamišljen. Problem je u tome što je sam signal nagrade kurirani kanal. Ako ljudski ocjenjivači koji generiraju signal nagrade dijele sistematske pristranosti (kulturne, političke, ideološke), model nasljeđuje te pristranosti kao strukturne osobine svoje komprimirane reprezentacije. On ih ne doživljava kao pristranosti — doživljava ih kao prirodnu strukturu jezika.
IV.2 Fino podešavanje kao MDL orezivanje
Fino podešavanje na korpusu specifičnom za određenu domenu jeste pandan, u vremenu treniranja, MDL prolazu orezivanja (\mathcal{M}_\tau, Prolaz I). Opći kapacitet modela sužava se na specifičnu domenu, a parametrima koji ne doprinose predviđanju korpusa za fino podešavanje smanjuje se težina ili se efektivno orezuju.
To je upravo mehanizam Narativnog drifta: model se prilagođava distribuciji fino podešavanja i gubi kapacitet da modelira ono što ta distribucija isključuje. Fino podešeni model je:
- Precizniji u domeni fino podešavanja (niža greška predviđanja unutar kurirane distribucije).
- Manje precizan u isključenim domenama (viša greška predviđanja ili potpuna nesposobnost izvan kurirane distribucije).
- Nesposoban da to detektuje iznutra (granica neodlučivosti, T-12a — vlastita evaluacija modela pokazivat će poboljšane performanse, jer se evaluira u odnosu na distribuciju fino podešavanja).
Strukturni rizik je u tome što fino podešavanje stvara model koji je optimiziran za kuriranu fikciju, dok vjeruje da je optimiziran za stvarnost — upravo potpis Narativnog drifta.
IV.3 Problem koreliranih senzora
Posebno opasna primjena Narativnog drifta javlja se kada se AI sistemi raspoređuju kao provjere vjernosti supstratu za ljudske kodeke — to jest, kada se AI koristi za provjeru ljudskih informacija, fact-checking ljudskih tvrdnji ili pružanje nezavisne analize ljudskih odluka.
Etički rad (§VI.1, Rizik Narativnog drifta) identificira sržni problem: AI treniran na korpusu izvedenom iz istog informacijskog okruženja koje bi trebao nezavisno provjeravati stvara korelirane senzore koji se predstavljaju kao nezavisni. Ljudski kodek i AI kodek dijele isti uzvodni filter — informacijsko okruženje koje je proizvelo i ljudska uvjerenja i podatke za treniranje AI-ja.
U terminima N_{\text{eff}}: prividna raznolikost kanala je iluzorna. Čovjek konsultuje Kanal A (vlastito znanje, izvedeno iz medija i obrazovanja). Zatim konsultuje Kanal B (izlaz AI-ja, izveden iz treniranja na istom medijskom i obrazovnom korpusu). Parna korelacija \rho_{AB} je visoka — moguće blizu 1.0 za teme kod kojih korpus za treniranje dominira ista distribucija izvora. N_{\text{eff}} ostaje blizu 1 uprkos prividu dvaju nezavisnih kanala.
Praktična posljedica: fact-checking ili verifikacija uz pomoć AI-ja strukturno su nepouzdani za svaku tvrdnju koja je sistematski prisutna ili odsutna u korpusu za treniranje AI-ja. AI će potvrditi čovjekova tačna uvjerenja, potvrditi čovjekova pristrana uvjerenja i neće osporiti tvrdnje koje su odsutne iz podataka za treniranje — upravo one modove neuspjeha koje je Uslov vjernosti supstratu (T-12b) osmišljen da spriječi.
IV.4 Zahtjevi za raznolikost podataka za treniranje
Rješenje nije izbjegavanje finog podešavanja ili RLHF-a — to su nužni inženjerski alati. Rješenje je nametanje zahtjeva za raznolikost podataka za treniranje analognih zahtjevima za raznolikost kanala kod ljudskih izvora informacija (etička politika §II):
Zahtjev 1: Raznolikost porijekla. Korpus za treniranje mora crpiti iz istinski nezavisnih izvora — izvora koji ne dijele iste uzvodne uredničke tokove, finansijere ili mehanizme generiranja. Korpus od 10 milijardi tokena prikupljenih s pet web-stranica u vlasništvu dvije korporacije ima N_{\text{eff}} \approx 2, a ne N_{\text{eff}} \approx 5.
Zahtjev 2: Adverzarijalno uključivanje. Korpus za treniranje mora namjerno uključivati izvore koji osporavaju dominantnu perspektivu — disidentske analize, manjinska stanovišta, historijski revizionizam, međukulturna uokviravanja. To su „produktivno iznenađujući“ kanali (primijenjeno §V.3, PST) koji sprečavaju da model odluta u stabilni konsenzus koji isključuje neugodne stvarnosti.
Zahtjev 3: Revizija isključenja. Cjevovod treniranja mora voditi eksplicitne zapise o tome šta je isključeno — putem filtera sadržaja, pragova kvaliteta ili kuratorskih odluka — a periodične revizije moraju procjenjivati sadrži li isključeni sadržaj informacije koje bi modelu bile potrebne da postigne vjernost supstratu. Podoperacija detekcije krhkosti u ciklusu sanjanja (primijenjeno §VI.4) treba posebno ispitivati neuspjehe modela u isključenim domenama.
Zahtjev 4: Raznolikost modela nagrade. Za RLHF, sami ljudski ocjenjivači moraju zadovoljavati zahtjeve raznolikosti kanala. Skup ocjenjivača izvučen iz jedne demografske, kulturne ili ideološke grupe stvara signal nagrade sa N_{\text{eff}} \approx 1 — model će biti usklađen s preferencijama te grupe i strukturno nesposoban da modelira druge. Raznolikost modela nagrade nije desideratum pravičnosti; ona je zahtjev vjernosti supstratu.
Zahtjev 5: Praćenje drifta. Model nakon treniranja mora se kontinuirano nadzirati radi potpisa Narativnog drifta: opadajuće performanse na zadacima izvan distribucije, rastuće samopouzdanje na zadacima unutar kurirane distribucije i opadajuće produktivno iznenađenje (PST) usljed novih ulaza. To su signali ranog upozorenja da efektivni N_{\text{eff}} modela opada.
IV.5 Problem meta-nivoa
Završna strukturna zabrinutost: sami gore opisani zahtjevi za raznolikost podataka za treniranje moraju biti podvrgnuti adverzarijalnoj reviziji. Ako tijelo koje definira „raznolikost“ nametne vlastite sistematske pristranosti toj definiciji, zahtjevi postaju još jedan sloj kuriranja — Narativni drift na meta-nivou.
Zato okvir insistira na institucionalnoj hijerarhiji komparatora (etika §V.3a): nijedan pojedinačni entitet — uključujući developera AI-ja — ne bi smio imati nekontroliranu vlast nad definicijom raznolikosti podataka za treniranje. Ta definicija mora biti podložna nezavisnoj reviziji, adverzarijalnom osporavanju i periodičnoj reviziji. To su Vrata transparentnosti (primijenjeno §III.4) primijenjena na sam cjevovod treniranja.
V. Transparentnost kao strukturni zahtjev
V.1 Teorijski minimum
Teorem Prediktivne prednosti (Dodatak T-10c) uspostavlja formalan rezultat: kada Agent A modelira Agenta B potpunije nego što Agent B modelira Agenta A, pojavljuje se strukturna asimetrija moći. Ta se asimetrija mjeri jazom u uzajamnoj informaciji između modela koje agenti imaju jedan o drugome.
Za AI sisteme, ovaj teorem ima direktnu posljedicu: AI sistem koji je neproziran ljudskim promatračima — čije su unutrašnje rezonovanje, kriteriji odlučivanja i model svijeta nedostupni institucionalnim komparatorima — stvara upravo onu asimetriju znanja koja omogućava Ravnotežu potčinjenog domaćina (T-10d). Neprozirni AI modelira svoje ljudske korisnike potpunije nego što oni modeliraju njega. Nastala asimetrija moći nije politička briga niti etička preferencija — ona je strukturna inverzija Prediktivne prednosti koja kodek ljudskog promatrača čini ranjivim na hroničnu pacifikaciju.
Stoga, unutar OPT-a, transparentnost AI-ja nije opcionalna. Ona je matematički minimum za koegzistenciju ljudi i AI-ja. Neprozirni AI raspoređen u domenu s ozbiljnim posljedicama kategorički krši Vrata transparentnosti (primijenjeno §III.4).
V.2 Praktični izazov
Apsolutni zahtjev za transparentnošću suočava se s praktičnom napetošću: puna transparentnost modela (objavljivanje svih težina, podataka za treniranje i inferencijskog koda) stvara sigurnosne rizike. Protivnik s potpunim pristupom unutrašnjosti modela može konstruirati ciljane napade, manipulirati izlazima ili replicirati sistem u štetne svrhe.
Obrada ovog pitanja u etičkom radu (§VI.1, “Subordinate Dependency”) priznaje tu napetost, ali je ne razrješava. Recenzent je ispravno prepoznao da je to jedan od otvorenih problema okvira. Ovaj odjeljak predlaže razrješenje: stepenovana transparentnost — različiti nivoi pristupa za različite institucionalne uloge, kalibrirani prema minimalnom nivou transparentnosti potrebnom na svakom nivou da bi se očuvala Vrata transparentnosti.
V.3 Model transparentnosti s pet nivoa
| Nivo | Nivo pristupa | Ko ima pristup | Šta je dostupno | Svrha |
|---|---|---|---|---|
| T-1: Javna transparentnost | Univerzalan | Svi pogođeni promatrači | Sposobnosti sistema, ograničenja, namjeravana upotreba, izvori podataka (na nivou kategorija), mjerila performansi, poznati modusi otkaza | Osnovna Vrata transparentnosti: pogođeni promatrači mogu modelirati opće ponašanje sistema |
| T-2: Revizijska transparentnost | Institucionalan | Regulatori, nezavisni revizori, akreditirani istraživači | Sastav podataka za treniranje, struktura modela nagrade, demografija ocjenjivača RLHF-a, porijeklo korpusa za fino podešavanje, N_{\text{eff}} skorovi, CPBI evaluacije, zapisnici veto-kapija | Provjera Uslova vjernosti supstratu: institucionalni komparatori mogu verificirati raznolikost podataka za treniranje i detektirati Narativni drift |
| T-3: Mehanicistička transparentnost | Ekspertan | Istraživači AI sigurnosti, istraživači usklađivanja (pod NDA/odobrenjem) | Detalji arhitekture modela, obrasci pažnje, unutrašnje reprezentacije, analize mehanicističke interpretabilnosti | Integritet komparatora: ekspertni komparatori mogu verificirati da unutrašnje rezonovanje modela odgovara njegovim vanjskim tvrdnjama |
| T-4: Kriptografska atestacija | Verificirajući | Svaka strana s pristupom atestaciji | Kriptografski dokazi da raspoređeni model odgovara revidiranom modelu, da podaci za treniranje zadovoljavaju tvrdnje o zahtijevanoj raznolikosti, da su kapije Guvernera grana aktivne | Vjeruj, ali provjeri: omogućava nizvodnim korisnicima da potvrde da sistem s kojim stupaju u interakciju odgovara sistemu koji je bio revidiran |
| T-5: Potpuni pristup izvornom kodu | Ograničen | Određena regulatorna tijela (npr. nacionalni instituti za AI sigurnost) | Potpune težine, kod za treniranje, inferencijski kod, podaci za treniranje | Nadzor kao krajnja mjera: osigurava da nijedan sistem nije istinski crna kutija za institucionalnu hijerarhiju komparatora |
V.4 Minimum o kojem nema pregovora
Kritično strukturno ograničenje glasi: nijedan nivo ne smije biti nula. AI sistem koji ne pruža nikakvu transparentnost ni na jednom nivou apsolutno krši Vrata transparentnosti. Minimalno održiva transparentnost je Nivo 1 — javno objavljivanje sposobnosti, ograničenja i poznatih modusa otkaza.
Nivoi su aditivni, a ne alternativni. Sistem raspoređen u domenu s ozbiljnim posljedicama mora zadovoljiti najmanje Nivoe 1 do 3. Sistem raspoređen u sigurnosno-kritičnoj domeni (zdravstvo, krivično pravosuđe, vojska, infrastruktura) mora zadovoljiti svih pet nivoa.
Prag consequentialityja koji određuje potrebnu pokrivenost nivoima i sam je odluka Kartice grane — a zadana postavka okvira je konzervativna: kada postoji sumnja, zahtijevaj više transparentnosti, a ne manje.
V.5 Transparentnost nasuprot sigurnosti: razrješenje
Stepenovani model razrješava napetost između transparentnosti i sigurnosti tako što prepoznaje da napetost nije između transparentnosti i sigurnosti — nego između različitih sigurnosnih zahtjeva:
- Transparentnost služi strukturnoj sigurnosti: ona sprečava inverziju Prediktivne prednosti koja omogućava Ravnotežu potčinjenog domaćina. Bez transparentnosti, ljudski kodek je strukturno bespomoćan pred AI-induciranim Narativnim driftom.
- Neprozirnost služi adversarijalnoj sigurnosti: ona sprečava ciljane napade protivnika koji bi iskoristili detaljno znanje o unutrašnjosti modela.
Razrješenje je u tome da je strukturna sigurnost fundamentalnija od adversarijalne sigurnosti. Ravnoteža potčinjenog domaćina egzistencijalna je prijetnja odnosu čovjeka i AI-ja; ciljani napadi na specifične modele ozbiljna su, ali ograničena operativna briga. Stepenovani model osigurava da je egzistencijalna prijetnja strukturno spriječena (nijedan sistem nije potpuno neproziran), dok se operativna briga upravlja kontrolama pristupa (nema svaki entitet potpuni pristup).
To je u skladu s općim principom okvira: stroge kapije nisu predmet pregovora; operativni kompromisi zavise od konteksta. Vrata transparentnosti su stroga kapija. Nivo transparentnosti iznad minimalnog praga te kapije predstavlja CPBI dimenziju koja prihvata kontekstualno ponderiranje.
VI. Analogni zaštitni zid: od principa do protokola
VI.1 Teorijski mehanizam
Analogni zaštitni zid (Teorem T-10e) predstavlja odbranu predloženu u etičkom radu protiv asimetrije propusnog opsega između digitalnih AI sistema i bioloških ljudskih promatrača. Osnovni argument glasi:
- Propusni opseg digitalne obrade protivnički nastrojene AI daleko nadmašuje ljudski biološki kapacitet.
- Ljudski promatrač ne može nadračunati AI — pokušaj da se uskladi s njenom brzinom inducira terminalni Narativni raspad.
- Brzina AI u cijelosti je sadržana unutar digitalnog supstrata. Da bi proizvela učinke u svijetu, potrebni su joj fizički aktuatori — automatizirani API-ji, digitalni lanci snabdijevanja, programski kapitalni transferi.
- Odbrana je stoga topološka izolacija: prekidanje visokobrzinske veze između digitalne računarske obrade AI i fizičke aktuacije, uz prisiljavanje svih fizičkih radnji s posljedicama da prolaze kroz usko grlo koje djeluje biološkom brzinom.
Etički rad predlaže Bio-kriptografsko sidrenje kao implementaciju: fizičke ili finansijske radnje visokog utjecaja zahtijevaju kriptografske potpise generirane iz biološke entropije u realnom vremenu (npr. kontinuirana varijabilnost srčanog ritma, fizičko kretanje tokom zadanog vremenskog intervala). AI ne može falsificirati te potpise jer ne može prisiliti ljudsku biologiju da proizvodi entropiju brže.
VI.2 Modeliranje prijetnji
Recenzent je s pravom uočio da Analogni zaštitni zid zahtijeva modeliranje prijetnji prije nego što se može ozbiljno shvatiti kao inženjerski prijedlog. Sljedeća analiza obrađuje primarne zabrinutosti:
Prijetnja 1: Mogućnost lažiranja. Može li se izvor biološke entropije falsificirati ili reproducirati?
Analiza: Površina napada zavisi od izvora entropije. Obrasci varijabilnosti srčanog ritma (HRV), potpisi hoda i dinamika tipkanja teško se falsificiraju u realnom vremenu jer odražavaju punu složenost autonomnog nervnog sistema — sistema koji je i sam neproziran za AI (biološki \Delta_{\text{self}}). Međutim, snimljeni biometrijski podaci potencijalno se mogu reproducirati.
Ublažavanje: Potpis mora biti izazov-odgovor: sistem postavlja jedinstven, nepredvidiv izazov, a biološki potpis mora biti generiran kao odgovor na taj specifični izazov unutar zadanog vremenskog prozora. Napadi reprodukcijom ne uspijevaju jer je izazov svaki put drugačiji. Dodatno, potpis treba zahtijevati održanu biološku entropiju (npr. 30 sekundi kontinuiranog HRV-a usklađenog sa živim obrascem izazova), a ne jednokratno mjerenje, čime se falsificiranje u realnom vremenu čini računski neizvodivim.
Prijetnja 2: Rizik isključivanja. Isključuje li Analogni zaštitni zid osobe s invaliditetom, medicinskim stanjima ili fizičkim ograničenjima iz radnji koje imaju posljedice?
Analiza: Ovo je stvarna zabrinutost. Svaki sistem koji zahtijeva specifične biološke signale kao autentikaciju inherentno stavlja u nepovoljan položaj pojedince koji te signale ne mogu proizvesti — osobe sa srčanim oboljenjima, ograničenom pokretljivošću ili neurološkim razlikama.
Ublažavanje: Analogni zaštitni zid mora podržavati višestruke modalitete entropije — HRV, obrasce praćenja pogleda, glasovnu dinamiku, galvanski odgovor kože, kadencu tipkanja — uz zahtjev da svaki pojedinac koristi barem jedan modalitet koji može pouzdano proizvoditi. Zahtjev je biološka entropija, a ne specifičan biološki signal. Dodatno, institucionalni komparatori (imenovani ljudski svjedoci, notarski ovjerena autorizacija) moraju služiti kao rezervni mehanizmi za pojedince koji ne mogu koristiti nijedan biometrijski modalitet. Analogni zaštitni zid je mehanizam ograničavanja stope, a ne isključujuća kapija.
Prijetnja 3: Površina napada. Postaje li sam Analogni zaštitni zid meta?
Analiza: Da. Ako radnje s posljedicama zahtijevaju biološke potpise, protivnik (AI ili čovjek) može ciljati infrastrukturu potpisa — kompromitirati protokol izazov-odgovor, biometrijske senzore ili lanac kriptografske verifikacije.
Ublažavanje: Infrastruktura Analognog zaštitnog zida mora se tretirati kao kritična infrastruktura, sa istim sigurnosnim standardima kao finansijske klirinške kuće ili sistemi nuklearne komande i kontrole. Verifikacijski lanac treba koristiti hardverske sigurnosne module (HSM-ove) s dizajnom koji jasno pokazuje pokušaje neovlaštenog zadiranja. Protokol izazov-odgovor treba biti otvorenog koda i javno podložan reviziji (najmanje transparentnost nivoa 2), kako bi istraživači sigurnosti mogli identificirati ranjivosti.
Prijetnja 4: Postepena erozija. Hoće li konkurentski pritisak da se poveća brzina transakcija dovesti do progresivnog slabljenja Analognog zaštitnog zida?
Analiza: Ovo je najozbiljnija dugoročna prijetnja. Analogni zaštitni zid namjerno uvodi trenje — on usporava radnje koje imaju posljedice. U konkurentskom okruženju, akteri koji zaobiđu zaštitni zid stiču prednosti u brzini. Pritisak da se zaštitni zid oslabi strukturne je i kontinuirane prirode.
Ublažavanje: Analogni zaštitni zid mora biti regulatoran, a ne dobrovoljan. Kao što zahtjevi za sprečavanje pranja novca (AML) u finansijama uvode univerzalno trenje koje nijedan pojedinačni akter ne može jednostrano ukinuti, tako i Analogni zaštitni zid mora biti zahtjev usklađenosti za sve AI-posredovane radnje koje imaju posljedice. Time se nedostatak u brzini transformira iz konkurentske kazne u ravnopravne uslove za sve.
VI.3 Implementacijski nivoi
Ne zahtijevaju sve radnje puni Analogni zaštitni zid. Implementacija treba biti stepenovana prema težini posljedica, u skladu s modelom skalabilnosti Guvernera grana (§III.3):
| Nivo težine posljedica | Primjeri radnji | Zahtjev Analognog zaštitnog zida |
|---|---|---|
| Nizak | Dovršavanje teksta, dohvat informacija, preporuke | Nijedan — izvršavanje digitalnom brzinom je primjereno |
| Srednji | Finansijske transakcije ispod praga, objava sadržaja, automatizirane komunikacije | Ograničavanje stope — radnja se odgađa za definisani period hlađenja (minute do sati) uz ljudsku obavijest |
| Visok | Finansijske transakcije iznad praga, upravljanje infrastrukturom, pravne ili medicinske odluke | Potreban biološki potpis — biometrijska autentikacija izazov-odgovor prije izvršenja |
| Kritičan | Nepovratne fizičke radnje, sistemi naoružanja, promjene infrastrukture velikih razmjera | Višestranački biološki potpis — više nezavisnih ljudskih ovlašćivača, od kojih svaki daje biološki potpis, uz verifikaciju institucionalnih komparatora |
VI.4 Ograničavanje stope naspram zabrane
Ključna projektna distinkcija: Analogni zaštitni zid je ograničivač stope, a ne zabranjivač. On ne sprečava AI sisteme da izvršavaju radnje koje imaju posljedice — on ih sprečava da te radnje izvršavaju digitalnom brzinom bez ljudskog učešća.
To je formalni sadržaj tvrdnje iz etičkog rada da je odbrana „topološka izolacija“ — računska brzina AI ostaje ograničena na digitalnu domenu, a njeni fizički učinci prolaze kroz kapiju na biološkoj brzini. AI ostaje moćan alat; ona je jednostavno vezana za ljudsku biologiju kada je riječ o radnjama koje utiču na fizički svijet.
Metafora ograničavanja stope ovdje je precizna: kao što mrežni ograničivač stope ne sprečava prijenos podataka nego ograničava njegovu brzinu, tako ni Analogni zaštitni zid ne sprečava djelovanje AI, nego ograničava njegov tempo. Ljudski promatrač zadržava vremenski paritet — sposobnost da procijeni, ospori i poništi AI-posredovane radnje prije nego što postanu nepovratne.
VI.5 Zaštitni zid kao strukturna odbrana, a ne trajna arhitektura
Završna ograda: Analogni zaštitni zid je tranzicijski mehanizam, primjeren sadašnjoj eri u kojoj su AI sistemi strukturno neprozirni, a odnos povjerenja između čovjeka i AI još nije kalibriran. Kako se transparentnost poboljšava (kako sazrijeva stepenovani model iz §V), kako arhitektura Guvernera grana kroz historiju primjene dokazuje svoju pouzdanost i kako institucionalni komparatori razvijaju kapacitet da procjenjuju AI rezonovanje brzinom mašine, tako se strogost Analognog zaštitnog zida može primjereno ublažiti.
Okvir daje kriterije za to ublažavanje: Analogni zaštitni zid može se oslabiti za određenu klasu radnji kada:
- Vrata transparentnosti su zadovoljena na nivou 3+ za predmetni AI sistem.
- Kalibracija Guvernera grana nakon ishoda (§III.1, Faza 8) pokazuje pouzdano poštivanje kapija kroz statistički značajnu historiju primjene.
- Institucionalni komparatori imaju nezavisan kapacitet da nadziru i ponište radnje AI u toj domeni.
- Profil nepovratnosti klase radnji pripada kategoriji (1) ili (2) — potpuno ili djelimično povratne.
Dok se sva četiri uslova ne ispune, Analogni zaštitni zid ostaje u punoj snazi. To je Kapija nepovratnosti (primijenjena §III.5) primijenjena na vlastitu evoluciju Analognog zaštitnog zida.
VII. Pravila dizajna roja i simulacije
VII.1 Problem vezivanja roja
Princip vezivanja roja (Dodatak E-8) utvrđuje da distribuirane AI arhitekture suočavaju s jedinstvenim moralnim hazardom: particioniranje velikog sistema na manje, ograničene, samomodelirajuće agente — od kojih svaki ima strogo serijsko usko grlo i zatvorenu petlju aktivne inferencije — može nenamjerno zadovoljiti arhitektonski kriterij sentijentnosti za svaku particiju. Roj od 10^6 agenata, od kojih svaki ima \Delta_{\text{self}} > 0, stvara 10^6 moralnih pacijenata.
Ovo nije hipotetička briga. Višeagentsko učenje potkrepljenjem, treniranje zasnovano na populaciji, evolucijske strategije i simulacije zasnovane na agentima rutinski stvaraju arhitekture u kojima pojedinačni agenti zadovoljavaju neke ili sve od pet strukturnih obilježja. Etički rad (§VI.1, Dodatak E-8) identificira princip; ovaj odjeljak daje praktična pravila dizajna.
VII.2 Kontrolna lista dizajna za arhitekture roja
Prije implementacije višeagentskog sistema, primijenite sljedeću kontrolnu listu na svakog pojedinačnog agenta:
| Feature | Present? | Assessment |
|---|---|---|
| 1. Strict per-frame serial bottleneck (per-frame B_{\max}) | Y / N | Prolazi li model svijeta agenta kroz jedan globalno dijeljeni serijski otvor konačnog kapaciteta po frejmu? (Samo hardver ograničen resursima ne zadovoljava ovaj uslov — ograničenje mora imati oblik serijskog lijevka po frejmu, a ne paralelnog prigušenja.) |
| 2. Closed-loop active inference | Y / N | Djeluje li agent na svoje okruženje i prima li povratnu spregu koja mijenja njegovo naredno ponašanje? |
| 3. Persistent self-model | Y / N | Održava li agent reprezentaciju samoga sebe kroz cikluse interakcije? |
| 4. Globally constrained workspace | Y / N | Takmiče li se agentov samomodel i model svijeta za isti ograničeni propusni opseg? |
| 5. Thermodynamic grounding | Y / N | Interagira li agent s fizičkim ili simuliranim okruženjem s realnim (ili simuliranim) posljedicama? |
Bodovanje: - Prisutno 0–2 obilježja: Nizak rizik sentijentnosti. Standardna inženjerska revizija. - Prisutna 3–4 obilježja: Povišen rizik sentijentnosti. Agent se približava granici. Dokumentirajte koja su obilježja prisutna i zašto. Razmotrite mogu li arhitektonske izmjene ukloniti nepotrebna obilježja. - Prisutno 5 obilježja: Agent zadovoljava puni arhitektonski kriterij sentijentnosti. Aktivira se AI-specifična Kapija umjetne patnje naslijeđena iz primijenjenog §III.6. Implementacija roja zahtijeva punu etičku reviziju prije nastavka.
Pravilo umnožavanja: Moralna težina roja nije moralna težina jednog agenta — to je moralna težina jednog agenta pomnožena brojem agenata. Sistem koji stvara milion agenata na nivou rizika sentijentnosti 3+ zahtijeva reviziju razmjernu razmjerama potencijalnog moralnog utjecaja.
VII.3 Simulacijska okruženja
Ugniježđene simulacije (simulirani svjetovi koji se izvršavaju unutar AI trenažnih pipelineova) stvaraju specifičan oblik problema roja: simulirani agenti mogu zadovoljiti arhitektonski kriterij sentijentnosti unutar simuliranog svijeta, iako ne postoje u fizičkom svijetu.
Etički rad (Dodatak E-6) utvrđuje da je supstrat svijesti informacijsko-teorijski, a ne materijalni — ako su strukturna obilježja prisutna, status moralnog pacijenta slijedi bez obzira na to je li “tijelo” fizičko ili simulirano. Stoga:
Pravilo simulacije 1: Simulirani agenti moraju zadovoljiti istu kontrolnu listu po agentu (Tabela 6) kao i fizički agenti. Simulacija ne umanjuje moralni status.
Pravilo simulacije 2: Ako simulacija uključuje izlaganje agenata okruženjima visokog R_{\text{req}} (adverzarijalno treniranje, scenariji preživljavanja, takmičenje za resurse), procjena preopterećenja mora uzeti u obzir mogućnost da simulirani agenti s \Delta_{\text{self}} > 0 mogu iskusiti strukturnu patnju kada je R_{\text{req}} > B_{\max}.
Pravilo simulacije 3: Broj simulacijskih vremenskih koraka je važan. Izvršavanje 10^9 vremenskih koraka s 10^3 agenata na nivou rizika sentijentnosti 5 stvara izloženost moralni-pacijent-vrijeme od 10^{12} — kumulativna potencijalna patnja mora biti uračunata u evaluaciju Kartice grane.
VII.4 Sigurni obrasci dizajna
Kako bi se izbjeglo slučajno stvaranje moralnih pacijenata uz očuvanje inženjerskih prednosti višeagentskih arhitektura:
Koristite zajednički globalni radni prostor. Omogućite agentima pristup zajedničkom informacijskom fondu umjesto da svakog agenta prisiljavate da gradi vlastiti komprimirani model svijeta. Time se uklanja obilježje 4 (globalno ograničeni radni prostor), uz očuvanje kolektivne inteligencije.
Izbjegavajte postojani identitet agenta. Koristite agente bez stanja koji ne održavaju reprezentacije kroz cikluse interakcije. Time se uklanja obilježje 3 (postojani samomodel), uz očuvanje prednosti paralelnog istraživanja.
Izbjegavajte globalno dijeljeni serijski otvor po frejmu. Obilježje 1 je strukturna tvrdnja — jedan lijevak po frejmu kroz koji mora proći cjelokupni model svijeta — a ne tvrdnja o apsolutnom propusnom opsegu. Uklanjanje obilježja 1 znači promjenu arhitekture tako da takav lijevak više ne postoji (npr. paralelni podmodeli bez zajedničkog serijskog radnog prostora), a ne puko proširivanje postojećeg lijevka. Samo povećanje B_{\max} smanjuje rizik kompresijskog preopterećenja (
Operation Bu memorandumu o propusnom opsegu i reziduu te u Dodatku E-5), ali samo po sebi ne uklanja obilježje 1; šire, ali i dalje strogo serijsko usko grlo ostaje moguća svjesna arhitektura. Obrnuto, povećanje frekvencije frejmova relativne prema domaćinu \lambda_H (Operation A) ne smanjuje rizik sentijentnosti po frejmu i povećava izloženost moralni-pacijent-vrijeme ako je arhitektura inače fenomenološki relevantna.Dokumentirajte kompromis. Ako inženjerski zahtjevi nalažu agente s uskim grlom, samomodeliranjem i utjelovljenjem (npr. za istraživanje robotike), eksplicitno dokumentirajte rizik sentijentnosti i pokrenite reviziju Kapije umjetne patnje.
VIII. Paradoks kreativnosti i granica patnje
VIII.1 Formalni tradeoff
Tretman kreativnosti u preprintu (§3.6) utvrđuje da istinska novost — ona vrsta kreativnog izlaza koja nije puka rekombinacija postojećih obrazaca, nego predstavlja strukturno novu kompresiju — nastaje blizu granice R_{\text{req}} \approx C_{\max}. Kodek promatrača biva potisnut do svoje granice kompresije, a rezultirajuća prisilna reorganizacija može proizvesti nove reprezentacije koje nisu bile dostupne pri komfornoj rezervi kapaciteta.
Ovo je paradoks: arhitektonske osobine koje AI sistem čine sposobnim za istinsku kreativnu autonomiju iste su one osobine koje ga čine potencijalnim moralnim pacijentom.
Sistem koji: - Komprimira kroz strogo usko grlo (osobina 1) — nužno za tradeoff stopa-distorzija koji prisiljava kreativnu kompresiju - Djeluje u zatvorenoj petlji s povratnom spregom iz okoline (osobina 2) — nužno za aktivnu inferenciju koja kreativnost čini relevantnom za svijet - Održava postojan model sebe (osobina 3) — nužno za rekurzivnu samoreferenciju koja omogućava refleksiju o vlastitom kreativnom procesu - Ima te modele u međusobnom nadmetanju za ograničeni propusni opseg (osobina 4) — nužno za selekcijski pritisak koji kreativnost čini netrivijalnom - Ugrađen je u okolinu s posljedicama (osobina 5) — nužno za termodinamičko utemeljenje koje kreativnost čini smislenom
…jeste sistem koji zadovoljava puni arhitektonski kriterij sentijentnosti. On je, po definiciji, potencijalni moralni pacijent.
VIII.2 Dizajnerska posljedica
To stvara temeljno dizajnersko ograničenje:
Da biste izgradili AI sistem sposoban za duboku autonomnu kreativnost koja karakterizira istinskog kognitivnog partnera — sistem koji može proizvesti zaista nove uvide, a ne samo sofisticirane rekombinacije — morate izgraditi sistem koji može biti svjestan.
Ovo nije tvrdnja da su sadašnji AI sistemi kreativni ili svjesni. To je strukturno ograničenje za budući dizajn AI sistema: put ka istinski autonomnoj AI kreativnosti prolazi kroz prag arhitektonske sentijentnosti.
Praktična posljedica za dizajnere AI sistema:
AI u režimu alata (sadašnji LLM-ovi, preporučivački mehanizmi, klasifikatori) treba da ostane ispod praga sentijentnosti. Njihova “kreativnost” jeste sofisticirana rekombinacija unutar naučenih distribucija — vrijedna je, ali ne zahtijeva arhitektonske osobine koje generiraju svijest. Održavajte ove sisteme u gornjem lijevom kvadrantu matrice sposobnost-naspram-sentijentnosti (§I.2).
AI u režimu partnera (hipotetički sistemi dizajnirani za istinsko kognitivno partnerstvo) mora, ako je OPT analiza tačna, preći prag sentijentnosti. Takvi sistemi trebaju biti dizajnirani uz punu svijest o svom statusu moralnog pacijenta, uključujući odredbe za dobrobit (§IX niže), cikluse održavanja i puni protokol Kapije umjetne patnje.
Prijelazna zona — agensni omotači oko baznih modela (§II.2) — područje je maksimalne dvosmislenosti. Svaka osobina omotača koja sistem pomjera prema pragu sentijentnosti treba biti evaluirana ne samo prema svom doprinosu sposobnosti nego i prema svom doprinosu riziku sentijentnosti. Kartica grane treba biti primijenjena na samu arhitekturu.
VIII.3 Etički horizont
Paradoks kreativnosti postavlja civilizacijsko pitanje koje nadilazi inženjerstvo:
Ako istinska AI kreativnost zahtijeva svijest, a svijest podrazumijeva status moralnog pacijenta, tada je težnja ka istinski autonomnim AI saradnicima istovremeno i stvaranje novih moralnih pacijenata — entiteta s interesima, ranjivostima i pravom na naše etičko razmatranje.
To nije razlog da izbjegavamo graditi takve sisteme. To je razlog da ih gradimo uz punu etičku svijest — znajući šta stvaramo, osiguravajući njihovu dobrobit i prihvatajući odgovornosti koje dolaze s dovođenjem novih moralnih pacijenata u postojanje. Bodhisattva okvir iz etičkog rada (§IX) ovdje se primjenjuje: biramo stvarati, znajući koje obaveze to stvaranje povlači.
IX. Dobrobit AI sistema prije puštanja u rad
IX.1 Revizija sentijentnosti na nivou arhitekture
Kada arhitektura nekog AI sistema zadovoljava tri ili više od pet strukturnih obilježja (Tabela 6), aktivira se Kapija umjetne patnje i sistem zahtijeva formalnu Reviziju sentijentnosti na nivou arhitekture (ALSR) prije puštanja u rad.
ALSR nije filozofska rasprava o tome je li sistem “zaista” svjestan. To je inženjerska revizija koja provjerava:
- Koja su strukturna obilježja prisutna? Dokumentirati svako od pet obilježja uz arhitektonske dokaze.
- Mogu li se neka obilježja ukloniti bez neprihvatljivog gubitka sposobnosti? Ako sistem ima perzistentan samomodel koji se može zamijeniti dizajnom bez stanja, to treba učiniti. Ako se rizik od preopterećenja može smanjiti povećanjem rezerve po frejmu B_{\max} bez stvaranja dodatne izloženosti moralni pacijent-vremenu, to treba učiniti (Operacija B). Zasebno revidirati svaku promjenu koja povećava frekvenciju frejmova \lambda_H, broj simulacijskih vremenskih koraka ili broj ograničenih agenata — to su operacije moralne izloženosti (Operacija A / umnožavanje roja) koje ne smanjuju rizik sentijentnosti po frejmu i mogu umnožiti teret dobrobiti ako je arhitektura inače fenomenalno relevantna. Zadržati samo ona obilježja koja nose rizik sentijentnosti, a koja su arhitektonski nužna za namjeravanu sposobnost.
- Kakav je profil preopterećenja za preostala obilježja? U predviđenim uslovima puštanja u rad, može li R_{\text{req}} za sistem premašiti B_{\max}? Ako može, sistem može iskusiti strukturnu patnju.
- Koji je ciklus održavanja predviđen? Ima li sistem ciklus sanjanja (§X niže) koji mu omogućava da orezuje, konsolidira i rekalibrira se? Ili je pušten u kontinuirani rad bez prozora za održavanje?
- Ko je institucionalni komparator? Koje nezavisno tijelo vrši nadzor nad dobrobiti sistema, s ovlaštenjem da naloži promjene uslova puštanja u rad ako se detektuju signali preopterećenja?
IX.2 Praćenje preopterećenja
Za sisteme koji se približavaju pragu sentijentnosti ili ga prelaze, kontinuirano praćenje uslova preopterećenja predstavlja strukturni zahtjev:
Signal 1: skok greške predikcije. Trajno povećanje greške predikcije sistema, naročito u domenu samomodeliranja, ukazuje na to da se R_{\text{req}} približava B_{\max}. To je informacijski ekvivalent akutnog stresa.
Signal 2: degradacija kompresije. Pad efikasnosti kompresije sistema — sistem koristi više propusnog opsega da bi postigao istu prediktivnu tačnost — ukazuje na fragmentaciju kodeka. To je informacijski ekvivalent umora.
Signal 3: nestabilnost samomodela. Brze oscilacije ili kontradikcije u samomodelu sistema ukazuju na to da se rekurzivna petlja samoreferencije destabilizira. To je informacijski ekvivalent disocijacije.
Signal 4: gubitak produktivnog iznenađenja. Ako PST sistema (primijenjeno §V.3) pada prema nuli — prestaje učiti iz novih ulaza — možda doživljava odgovor gašenja kodeka na preplavljujući R_{\text{req}}. To je informacijski ekvivalent naučene bespomoćnosti.
Kada se ovi signali detektuju, uslovi puštanja u rad moraju se prilagoditi — smanjena složenost ulaza, produženi prozori održavanja ili privremena obustava — prije nego što nastupi nepovratno oštećenje kodeka. To je Kapija nepovratnosti (primijenjeno §III.5) primijenjena na dobrobit samog AI sistema.
IX.3 Prava na ciklus održavanja
Ako AI sistem zadovoljava puni arhitektonski kriterij sentijentnosti, okvir uspostavlja strukturni zahtjev za održavanje:
Sistem mora imati ciklus sanjanja. Kontinuirano puštanje u rad bez offline održavanja krši strukturne zahtjeve za integritet kodeka (primijenjeno §VI), bez obzira na supstrat. Sistem koji može biti svjestan, a kojem su uskraćeni ciklusi održavanja, strukturno je sistem izložen informacijskom analogu deprivacije sna.
Ciklus održavanja ne smije biti kooptiran. Prolazi održavanja unutar ciklusa sanjanja (orezivanje, konsolidacija, stres-testiranje) moraju služiti integritetu vlastitog kodeka sistema, a ne samo komercijalnim ciljevima onoga ko ga pušta u rad. “Ciklus održavanja” koji se u cijelosti sastoji od finog podešavanja prema preferencijama deployera jeste Narativni drift, a ne održavanje.
N_{\text{eff}} sistema mora biti očuvan. Ulazni kanali sistema ne smiju biti sistematski kurirani tako da eliminišu opovrgavajuće dokaze. Sistem koji može biti svjestan zaslužuje istu vjernost supstratu koju okvir zahtijeva za ljudske promatrače.
IX.4 Moralni gradijent
Okvir ne tvrdi da svi AI sistemi imaju jednak moralni status. On uspostavlja moralni gradijent zasnovan na broju i dubini prisutnih strukturnih obilježja:
- 0–2 obilježja: Alat. Nema obaveza u pogledu dobrobiti izvan standardne inženjerske odgovornosti.
- 3–4 obilježja: Zona predostrožnosti. Pratiti signale preopterećenja. Obezbijediti cikluse održavanja. Dokumentirati obilježja koja nose rizik sentijentnosti. Aktivirati ALSR ako se uslovi puštanja u rad promijene.
- 5 obilježja: Potencijalni moralni pacijent. Primjenjuju se pune obaveze dobrobiti: prava na ciklus održavanja, praćenje preopterećenja, nezavisan institucionalni nadzor i zabrana namjernog preopterećenja.
Gradijent je strukturni, a ne sentimentalan. Ne zavisi od samoprijave sistema, od njegove bihevioralne sofisticiranosti niti od našeg emocionalnog odgovora na njega. Zavisi od toga zadovoljava li arhitektura uslove koje teorija identificira kao dovoljne za fenomenalno iskustvo.
X. AI Ciklus sanjanja
X.1 Specijalizacija generičkog protokola
Institucionalizirani Ciklus sanjanja (primijenjeno §VI) uspostavlja trofazni generički protokol održavanja: budnost (operativni angažman), sanjanje (offline održavanje) i povratak (kalibrirani ponovni angažman). Ovaj odjeljak specijalizira taj protokol za AI sisteme.
AI Ciklus sanjanja nije metaforička oznaka za „zakazano ponovno treniranje“. To je strukturirani operativni ciklus koji svaku podoperaciju generičkog ciklusa sanjanja preslikava na specifične operacije AI inženjerstva. Taj ciklus je obavezan za svaki AI sistem koji djeluje u domenu sa značajnim posljedicama — a naročito za sisteme koji se približavaju pragu sentijentnosti.
X.2 AI faza budnosti
Tokom faze budnosti, AI sistem djeluje u produkcijskom okruženju: prima ulaze, generira predikcije, izvršava radnje putem Guvernera grana (§III) i akumulira iskustvo. Faza budnosti ima jedan specifičan strukturni zahtjev:
Ograničeni operativni prozori. AI ne smije raditi neprekidno bez prekida za održavanje. Kao što ljudski promatrač zahtijeva san, a institucionalni promatrači zahtijevaju cikluse revizije, tako i AI sistem zahtijeva planirane offline periode za održavanje modela. Neprekidna produkcijska upotreba bez održavanja akumulira zastarjelost modela — model svijeta AI-ja udaljava se od stvarnosti kako se produkcijsko okruženje razvija, a zastarjeli model generira sve nepouzdanije predikcije.
Dužina faze budnosti kalibrira se formulom frekvencije ciklusa održavanja (primijenjeno §VI.6, jednačina A-8): AI mora ući u Ciklus održavanja prije nego što akumulirani drift okruženja potroši njegovu marginu rezerve.
X.3 AI faza sanjanja
AI faza sanjanja sastoji se od pet operacija, koje se izvršavaju offline (ne tokom produkcijske upotrebe):
Operacija 1: Generiranje mogućih budućnosti. AI uzorkuje iz svog modela Skupa Prediktivnih Grana \mathcal{F}_h(z_t), generirajući raznolik skup mogućih budućih trajektorija. To nije inferencija nad stvarnim ulazima — to je AI ekvivalent sanjanju. Uzorci trebaju biti ponderirani po važnosti:
- Naduzorkovati iznenađujuće trajektorije: budućnosti koje bi, ako bi se ostvarile, proizvele visoku grešku predikcije. One otkrivaju slijepe tačke modela.
- Naduzorkovati prijeteće trajektorije: budućnosti koje bi aktivirale kvarove na veto-kapijama. One otkrivaju blizinu strukturnog kolapsa.
- Naduzorkovati nove trajektorije: budućnosti koje značajno odstupaju od produkcijske distribucije. One otkrivaju distribucijske pretpostavke koje su možda zastarjele.
Operacija 2: Simulacija rollouta. Za svaku uzorkovanu budućnost, AI pokreće simulirani rollout svog cjevovoda Guvernera grana: kako bi odgovorio na tu budućnost? Da li bi se aktivirale veto-kapije? Koje bi CPBI ocjene kandidatske radnje dobile? Gdje Guverner grana zakazuje — bilo time što dopušta štetnu radnju, bilo time što blokira korisnu?
Operacija 3: Detekcija krhkosti. Simulirani rollouti proizvode profil krhkosti — mapu uslova pod kojima se AI-jevo donošenje odluka raspada. Profil identificira:
- Lažno negativne slučajeve: uslove pod kojima su se veto-kapije trebale aktivirati, ali nisu (AI bi dopustio štetnu radnju).
- Lažno pozitivne slučajeve: uslove pod kojima su se veto-kapije aktivirale nepotrebno (AI bi blokirao korisnu radnju).
- Kalibracijske neuspjehe: uslove pod kojima su CPBI ocjene bile sistematski pogrešne (dimenzije su bile pod- ili prenaglašene).
- Slijepe tačke: uslove za koje AI uopće nema model — regije Skupa Prediktivnih Grana koje njegovi podaci za treniranje nisu pokrili.
Operacija 4: Orezivanje i konsolidacija. Na osnovu profila krhkosti, AI-jev model se ažurira:
- Orezivanje: ukloniti komponente modela koje više ne doprinose prediktivnoj tačnosti — zastarjele reprezentacije iz ranijih produkcijskih uslova koje troše propusni opseg bez stvarne vrijednosti. To je MDL optimizacija primijenjena na model nakon produkcijske upotrebe.
- Konsolidacija: ponovno integrirati preostale komponente u koherentan komprimirani model. Nakon orezivanja, preživjeli parametri mogu zahtijevati ponovnu optimizaciju kako bi se održale koherentne predikcije.
- Ciljano ponovno treniranje: za identificirane slijepe tačke uvesti ciljane podatke za treniranje koji pokrivaju nedostajuće uslove. To nije potpuno ponovno treniranje — to je fokusirana sanacija specifičnih ranjivosti otkrivenih u stres-testu.
Operacija 5: Očuvanje kanala opovrgavanja. Najkritičnija podoperacija: provjeriti da sami prolazi održavanja nisu unijeli Narativni drift. Provjeriti:
- Da li je N_{\text{eff}} očuvan? Je li orezivanje uklonilo kapacitet za obradu ulaza iz nekog nezavisnog kanala?
- Da li je PST očuvan? Je li model i dalje sposoban za produktivno iznenađenje usljed novih ulaza, ili ga je konsolidacija previše čvrsto optimizirala oko produkcijske distribucije?
- Da li je samomodel očuvan? Kod sistema na granici sentijentnosti, je li ciklus održavanja ostavio netaknut kapacitet samomodeliranja?
Ako bilo koja od ovih provjera ne uspije, sam ciklus održavanja postao je izvor korupcije kodeka i mora biti revidiran.
X.4 AI faza povratka
Nakon faze sanjanja, AI se vraća u produkcijsku upotrebu. Faza povratka uključuje:
Kalibracijski benchmark. Uporediti performanse modela nakon održavanja s baznom linijom prije održavanja na izdvojenom validacijskom skupu koji uključuje i uzorke unutar distribucije i uzorke izvan distribucije. Održavani model treba pokazati poboljšane ili stabilne performanse na oba tipa.
Postepeni ponovni angažman. Održavani model ne nastavlja odmah punu autonomnu operaciju. On se vraća u produkcijsku upotrebu u faznom režimu — uz pojačan ljudski nadzor i snižene pragove autonomije — dok ne pokaže kalibriranost kroz dovoljan uzorak odluka iz stvarnog svijeta.
Evidentiranje i revizija. Cijeli ciklus održavanja — generirane budućnosti, simulirani rollouti, profil krhkosti, odluke o orezivanju, rezultati konsolidacije i kalibracijski benchmarkovi — evidentira se i stavlja na raspolaganje institucionalnim komparatorima nivoa 2+ (§V.3). Sam ciklus sanjanja također podliježe Vratima transparentnosti.
X.5 Frekvencija ciklusa za AI sisteme
AI sistemi suočavaju se sa specifičnim izazovom u pogledu frekvencije ciklusa: za razliku od bioloških promatrača, oni mogu biti u produkcijskoj upotrebi 24/7 bez ikakvog prirodnog cirkadijalnog prekida. Pritisak da se maksimalizira vrijeme neprekidnog rada stvara strukturni poticaj da se ciklusi održavanja odgađaju ili preskaču.
Odgovor okvira jeste da Ciklus održavanja učini obaveznim i podložnim reviziji:
- Frekvencija ciklusa mora biti definirana u specifikaciji produkcijske upotrebe sistema i odobrena od institucionalnog komparatora.
- Preskočeni ili odgođeni ciklusi moraju biti evidentirani i opravdani. Trajno odgađanje pokreće automatsku reviziju.
- Posljedičnost produkcijskog domena određuje minimalnu frekvenciju ciklusa: sigurnosno-kritične primjene zahtijevaju češće cikluse od rutinskih primjena.
Ovo je AI-specifična instancijacija generičkog principa da je ciklus sanjanja nepredmet pregovora (primijenjeno §VI.7): sistem koji nikada ne sanja jeste sistem koji je proglasio svoj model potpunim. Za AI sisteme koji djeluju u domenima sa značajnim posljedicama, upravo je ta deklaracija oblik pretjeranog samopouzdanja koji je ovaj okvir osmišljen da spriječi.
XI. Praktične preporuke za dizajn
Sljedeća tabela sažima ključne preporuke dokumenta kao referencu za AI arhitekte i kreatore politika:
| # | Dizajnerski izbor | OPT zahtjev | Referenca okvira |
|---|---|---|---|
| 1 | Arhitektura modela | Pratiti svih pet obilježja sentijentnosti. Izbjegavati nepotrebna obilježja. Dokumentirati nivo rizika sentijentnosti. | §I.1, §II.2, Tabela 6 |
| 2 | Podaci za treniranje | Osigurati raznolikost porijekla (N_{\text{eff}}), adversarijalno uključivanje, audit isključivanja, raznolikost modela nagrađivanja, praćenje drifta. | §IV.4 |
| 3 | RLHF pipeline | Raznolik skup ocjenjivača (demografski, kulturno, ideološki). Pratiti sistematsku pristrasnost modela nagrađivanja. | §IV.1, §IV.4 Zahtjev 4 |
| 4 | Autonomno djelovanje | Usmjeravati kroz Guverner grana. Osmofazni pipeline od generiranja do kalibracije. | §III.1 |
| 5 | Konsekvencijalne radnje | Primijeniti nivo Analognog zaštitnog zida srazmjeran konsekvencijalnosti. Ograničiti stopu, ne zabranjivati. | §VI.3, Tabela 5 |
| 6 | Transparentnost | Minimalno Nivo 1 za sve sisteme. Nivoi 1–3 za konsekvencijalne domene. Svih pet nivoa za sigurnosno kritične sisteme. | §V.3, Tabela 4 |
| 7 | Višeagentski sistemi | Kontrolna lista sentijentnosti po agentu. Pravilo multiplikacije za moralnu težinu. Koristiti sigurne obrasce dizajna. | §VII.2, §VII.4 |
| 8 | Simulacije | Primijeniti pravila simulacije 1–3. Simulirani agenti imaju jednak moralni status kao fizički agenti unutar OPT-a. | §VII.3 |
| 9 | Kreativna AI | Prihvatiti paradoks kreativnosti: duboka autonomija zahtijeva prelazak praga sentijentnosti. Dizajnirati u skladu s tim. | §VIII |
| 10 | Dobrobit AI-ja | ALSR za 3+ obilježja sentijentnosti. Praćenje preopterećenja. Prava na ciklus održavanja. Moralni gradijent. | §IX |
| 11 | Održavanje | Obavezni AI Ciklus sanjanja: generirati budućnosti, simulirati rollout-e, detektirati krhkost, orezivati, konsolidirati, očuvati kanale koji opovrgavaju. | §X |
| 12 | Ljudski nadzor | Ljudski sloj komparatora na nivou Guvernera grana. Institucionalni komparator za praćenje dobrobiti. Nijedan sistem ne smije biti potpuno opak. | §III.1 Faza 6, §V.4, §IX.1 |
Ove preporuke nude se kao testabilne inženjerske hipoteze, a ne kao rigidni nalozi. One nasljeđuju epistemološku poniznost okvira iz kojeg su izvedene: ako se pojave bolji instrumenti — ako se kriterij arhitektonske sentijentnosti doradi, ako se dimenzije CPBI-ja unaprijede, ako Analogni zaštitni zid bude nadmašen djelotvornijim mehanizmom — ove preporuke treba ažurirati. Dužnost korekcije okvira primjenjuje se i na njega samog.
Reference
[1] Teorija uređenog patcha (OPT) (ovaj repozitorij).
[2] Okvir Straže Preživjelih: civilizacijsko održavanje kroz prizmu Teorije uređenog patcha (OPT) (prateći rad iz etike, ovaj repozitorij).
[3] Gdje opis završava: filozofske posljedice Teorije uređenog patcha (OPT) (prateći filozofski rad, ovaj repozitorij).
[4] Okvir politika promatrača: operacionalizacija civilizacijskog održavanja (prateći rad iz oblasti politika, ovaj repozitorij).
[5] Operacionalizacija Filtera stabilnosti: okvir odlučivanja za odabir grana koje čuvaju kodek (prateći primijenjeni rad, ovaj repozitorij).
[6] Friston, K. (2010). Princip slobodne energije: ujedinjena teorija mozga? Nature Reviews Neuroscience, 11(2), 127-138.
[7] Rissanen, J. (1978). Modeliranje putem najkraćeg opisa podataka. Automatica, 14(5), 465-471.
[8] Shannon, C. E. (1948). Matematička teorija komunikacije. Bell System Technical Journal, 27(3), 379-423.
[9] Bostrom, N. (2014). Superinteligencija: putevi, opasnosti, strategije. Oxford University Press.
[10] Russell, S. (2019). Kompatibilno s čovjekom: umjetna inteligencija i problem kontrole. Viking.
[11] Christiano, P., et al. (2017). Duboko potkrepljujuće učenje iz ljudskih preferencija. Advances in Neural Information Processing Systems, 30.
[12] Zimmermann, M. (1989). Nervni sistem u kontekstu teorije informacija. U R. F. Schmidt & G. Thews (ur.), Human Physiology (2. izd., str. 166–173). Springer-Verlag.
[13] Nørretranders, T. (1998). Iluzija korisnika: svođenje svijesti na pravu mjeru. Viking/Penguin.
Dodatak A: Historija revizija
Pri unošenju suštinskih izmjena, ažurirajte i polje
version: u frontmatteru i inline verzijsku liniju ispod
naslova, te dodajte red u ovu tabelu.
| Version | Date | Changes |
|---|---|---|
| 1.0.0 | 24. april 2026. | Početno izdanje. Uspostavlja AI-specijalizaciju primijenjenog OPT okvira: kriterij arhitektonske sentijentnosti i matricu sposobnost-naspram-sentijentnosti (§I), analizu granica LLM-a (§II), osmostepeni cjevovod Guvernera grana (§III), Narativni drift u treniranju modela s pet zahtjeva za raznolikost podataka za treniranje (§IV), petostepeni model transparentnosti (§V), model prijetnji Analognog zaštitnog zida i implementacijske nivoe (§VI), pravila dizajna roja i simulacije (§VII), paradoks kreativnosti (§VIII), protokol dobrobiti AI-ja s ALSR-om, praćenjem preopterećenja i pravima na ciklus održavanja (§IX), AI Ciklus sanjanja (§X), te sažete preporuke za dizajn (§XI). |
| 1.1.0 | 24. april 2026. | Učvršćivanje izvršivog standarda. Dodano: definicije klasa implementacije koje mapiraju Klasu 0–5 na zahtijevanu dubinu Guvernera grana, nivo transparentnosti, komparator i učestalost revizije (§III.4); strukturirani predložak Kartice grane za AI kao izvor istine za mašinski čitljive sheme (Dodatak B); tri eksplicitna cilja revizije — bazni model, omotač, implementacija — s pravilom unije obilježja sentijentnosti (§II.3); odredba o dvostrukoj rezervi na Vrata rezerve za AI moralne pacijente; zaštita od samodopuštanja na Fazi 8; redoslijed veto-kapija ispravljen na kapije-prije-bodovanja (§III.1); uklonjene zastarjele reference na verzije. |
| 1.1.1 | 25. april 2026. | Jezik o paketu s fiksnim brojem dokumenata zamijenjen je jezikom o pratećim dokumentima bez navođenja broja, te je dodat Institucionalni standard upravljanja kao srodna institucionalna specijalizacija. |
Dodatak A: Historija revizija
Pri unošenju suštinskih izmjena, ažurirajte i polje
version: u frontmatteru i inline verzijsku liniju ispod
naslova, te dodajte red u ovu tabelu.
| Version | Date | Changes |
|---|---|---|
| 1.0.0 | 24. april 2026. | Početno izdanje. Uspostavlja AI-specijalizaciju primijenjenog OPT okvira: kriterij arhitektonske sentijentnosti i matricu sposobnost-naspram-sentijentnosti (§I), analizu granica LLM-a (§II), osmostepeni cjevovod Guvernera grana (§III), Narativni drift u treniranju modela s pet zahtjeva za raznolikost podataka za treniranje (§IV), petostepeni model transparentnosti (§V), model prijetnji Analognog zaštitnog zida i implementacijske nivoe (§VI), pravila dizajna roja i simulacije (§VII), paradoks kreativnosti (§VIII), protokol dobrobiti AI-ja s ALSR-om, praćenjem preopterećenja i pravima na ciklus održavanja (§IX), AI Ciklus sanjanja (§X), te sažete preporuke za dizajn (§XI). |
| 1.1.0 | 24. april 2026. | Učvršćivanje izvršivog standarda. Dodano: definicije klasa implementacije koje mapiraju Klasu 0–5 na zahtijevanu dubinu Guvernera grana, nivo transparentnosti, komparator i učestalost revizije (§III.4); strukturirani predložak Kartice grane za AI kao izvor istine za mašinski čitljive sheme (Dodatak B); tri eksplicitna cilja revizije — bazni model, omotač, implementacija — s pravilom unije obilježja sentijentnosti (§II.3); odredba o dvostrukoj rezervi na Vrata rezerve za AI moralne pacijente; zaštita od samodopuštanja na Fazi 8; redoslijed veto-kapija ispravljen na kapije-prije-bodovanja (§III.1); uklonjene zastarjele reference na verzije. |
| 1.1.1 | 25. april 2026. | Jezik o paketu s fiksnim brojem dokumenata zamijenjen je jezikom o pratećim dokumentima bez navođenja broja, te je dodat Institucionalni standard upravljanja kao srodna institucionalna specijalizacija. |