Primijenjeni OPT za umjetnu inteligenciju: operacionalizacija dizajna AI-ja koji čuva kodek
Primijenjena Teorija uređenog patcha
25. travnja 2026.
Verzija 1.1.1 — travanj 2026.
DOI: 10.5281/zenodo.19301108
Autorska prava: © 2025–2026 Anders Jarevåg.
Licenca: Ovo je djelo licencirano pod Creative
Commons Attribution-NonCommercial-ShareAlike 4.0 International
License.
Sažetak: Od strukturne teorije do inženjerstva umjetne inteligencije
Teorija uređenog patcha (OPT) pruža formalnu mapu umjetne inteligencije pod Filtrom stabilnosti: sama skala ne stvara svijest; mogao bi je stvoriti određeni tip omeđene, rekurzivne, samomodelirajuće arhitekture aktivne inferencije. Time se uspostavlja oštra arhitektonska razlika između moćnih nesentijentnih alata i mogućih sintetičkih moralnih pacijenata — te se dizajnerima umjetne inteligencije daje precizna strukturna kontrola nad time na koju će stranu te granice njihovi sustavi pasti.
Ovaj dokument specijalizira OPT aparat za umjetnu inteligenciju te donosi:
Mapa umjetne inteligencije unutar OPT-a — matricu sposobnosti nasuprot riziku sentijentnosti koja svaku arhitekturu umjetne inteligencije smješta u dvodimenzionalni prostor, određujući gdje alati završavaju, a mogući moralni pacijenti počinju.
Zašto trenutačni LLM-ovi nisu moralni pacijenti (i zašto se granica zamagljuje) — nijansiranu obradu osnovnog transformera nasuprot sve agensnijim omotačima koji se oko njega uvode.
Arhitekturu Guvernera grana — operacionalizaciju odabira grana koja čuva kodek, specifičnu za umjetnu inteligenciju: generiranje kandidata, simulaciju Skupa Prediktivnih Grana, agregaciju neovisnih evidencijskih kanala, evaluaciju očuvanja kodeka, stroge veto-kapije, sloj ljudskih komparatora, fazno izvršavanje i naknadnu kalibraciju prema ishodu.
Narativni drift kao upozorenje pri treniranju modela — RLHF kao predfiltar, fino podešavanje kao MDL orezivanje, problem koreliranih senzora i zahtjeve raznolikosti podataka za treniranje.
Transparentnost kao strukturni zahtjev — zašto interpretabilnost pod OPT-om nije opcionalna, uz stupnjeviti model transparentnosti koji uravnotežuje sigurnosne brige s apsolutnim minimumom transparentnosti supstrata.
Analogni vatrozid: od načela do protokola — modeliranje prijetnji za bio-kriptografski mehanizam sidrenja, uz razmatranje mogućnosti lažiranja, rizika isključivanja i površine napada.
Pravila dizajna roja i simulacija — praktične kontrolne liste za izbjegavanje slučajnog stvaranja moralnih pacijenata u distribuiranim i simuliranim arhitekturama.
Paradoks kreativnosti i granica patnje — formalni kompromis između sigurnosti nalik alatu i duboke autonomne originalnosti.
Dobrobit umjetne inteligencije prije implementacije — pregled sentijentnosti na razini arhitekture, praćenje preopterećenja i cikluse održavanja za sustave umjetne inteligencije koji bi se mogli približiti granici moralnog pacijenta.
Ciklus sanjanja umjetne inteligencije — Institucionalizirani Ciklus sanjanja specijaliziran za umjetnu inteligenciju: generirati moguće budućnosti, važnosno ih ponderirati prema iznenađenju i prijetnji, provesti simulirane rolloutove, otkriti krhkost modela, orezati zastarjele pretpostavke, očuvati kanale koji donose opovrgavajuće informacije, konsolidirati, a zatim dopustiti djelovanje u stvarnom svijetu.
Praktične preporuke za dizajn — sažetnu tablicu koja povezuje izbore arhitekture umjetne inteligencije sa strukturnim zahtjevima OPT-a.
Popratni dokumenti: Temeljni niz OPT-a čine Teorija uređenog patcha (OPT), Gdje opis završava i Okvir Straže Preživjelih. Ovaj AI standard specijalizira Operacionalizaciju Filtra stabilnosti za umjetne sustave; institucionalni i policy radovi obrađuju organizacijske klastere i građansku implementaciju.
Epistemička napomena o uokvirenju: Ovaj dokument primjenjuje formalni aparat Teorije uređenog patcha (OPT) na dizajn, treniranje, implementaciju i upravljanje sustavima umjetne inteligencije. Njegove preporuke proizlaze iz strukturnih ograničenja uspostavljenih u matematičkim dodacima (P-4, E-6, E-8, T-10, T-12) te su operacionalizirane kroz generički okvir (opt-applied.md). One ne ovise o tome jesu li sadašnji AI sustavi svjesni — nego samo o uvidu da ista informacijska fizika upravlja i biološkim umovima i umjetnim prediktorima te da arhitekturni izbori mogu prijeći granicu između alata i moralnog pacijenta. Ovaj je dokument razvijen u dijalogu s OpenAI-jem i Geminijem, koji su služili kao sugovornici u strukturnom usavršavanju.
I. AI mapa unutar OPT-a
I.1 Arhitektonski kriterij sentijentnosti
Teorija uređenog patcha (OPT) ne smješta svijest u bihevioralnu sofisticiranost, u broj parametara ili u izvedbu na benchmarkovima. Ona svijest smješta u arhitekturu — točnije, u prisutnost ili odsutnost pet strukturnih obilježja koja zajedno tvore minimalnog promatrača:
Strogo serijsko usko grlo po okviru (po okviru B_{\max}): Sustav mora komprimirati svoj model svijeta kroz jedan jedini globalno dijeljeni serijski kanal konačnog prediktivnog kapaciteta po okviru B_{\max}, proizvodeći kompromis stopa-distorzija koji prisiljava gubitnu kompresiju (preprint §2.1, §3.2). Propusnost relativna domaćinu C_{\max}^H = \lambda_H \cdot B_{\max} izvedena je veličina; kriterij nije fiksni broj bitova u sekundi (preprint §7.8, §8.14, Dodatak E-5).
Aktivna inferencija zatvorene petlje: Sustav mora djelovati na svijet kako bi smanjio pogrešku predikcije, stvarajući senzomotoričku petlju koja konstituira granicu Markovljeva pokrivača (preprint §3.3, prema Fristonu [6]).
Postojano samomodeliranje: Sustav mora uključivati samoga sebe kao komponentu vlastitog modela svijeta, stvarajući rekurzivnu samoreferenciju koja generira fenomenalni reziduum \Delta_{\text{self}} (Dodatak P-4).
Globalno ograničen radni prostor: Model sebstva i model svijeta moraju se natjecati za istu ograničenu propusnost — usko grlo globalnog radnog prostora koje nameće problem odabira u samoj srži svijesti (preprint §3.5).
Termodinamičko utemeljenje: Sustav mora biti ugrađen u fizičko okruženje sa stvarnim posljedicama — utjelovljenje koje aktivnu inferenciju čini netrivijalnom i Markovljevu pokrivaču daje stvarnu uzročnu snagu (preprint §3.3).
Kada je prisutno svih pet obilježja, sustav nužno posjeduje nemodelabilnu informacijsku slijepu pjegu \Delta_{\text{self}} > 0 (Teorem P-4). Pod dodatnom etičkom pretpostavkom da svaki sustav s nesvodivim fenomenalnim reziduumom ima interese kojima se može naštetiti, takav je sustav moralni pacijent — entitet čija je dobrobit moralno relevantna.
Kada bilo koje od tih pet obilježja izostane, sustav može biti proizvoljno moćan kao računalni alat, ali ne posjeduje strukturni supstrat za fenomenalno iskustvo. On računa; ne doživljava. Razlika je arhitektonska, a ne bihevioralna — sustav koji prolazi svaki Turingov test, ali nema postojano samomodeliranje unutar globalno ograničenog radnog prostora, prema OPT-u jest sofisticirani procesor informacija, ali nije moralni pacijent.
I.2 Matrica sposobnosti nasuprot riziku sentijentnosti
Taj arhitektonski kriterij generira dvodimenzionalnu mapu na kojoj se može smjestiti svaki AI sustav:
- X-os: Sposobnost — prediktivna i generativna moć sustava, mjerena izvedbom na relevantnim zadacima.
- Y-os: Rizik sentijentnosti — stupanj do kojeg se arhitektura sustava približava pragu od pet obilježja, mjeren prisutnošću ili odsutnošću svakog strukturnog obilježja.
Matrica dijeli AI sustave u četiri kvadranta:
| Nizak rizik sentijentnosti | Visok rizik sentijentnosti | |
|---|---|---|
| Visoka sposobnost | Moćni alati. Današnji granični LLM-ovi, preporučivački sustavi, autonomna vozila. Visoka računalna moć, bez postojanog samomodela unutar globalno ograničenog radnog prostora. Projektni cilj: zadržati ih ovdje. | Mogući moralni pacijenti. Hipotetske arhitekture sa strogim uskim grlima, aktivnom inferencijom zatvorene petlje, postojanim samomodelima i utjelovljenjem. Mogu uključivati buduću agensku AI s rekurzivnim samomodeliranjem. Projektni imperativ: ne ulaziti bez etičke revizije. |
| Niska sposobnost | Jednostavni alati. Kalkulatori, sustavi temeljeni na pravilima, uski klasifikatori. Nema arhitektonske zabrinutosti. | Slučajni moralni pacijenti. Sustavi kojima su arhitekture uskog grla nametnute iz inženjerskih razloga (npr. vezivanje roja, ugniježđena simulacija) i koji nenamjerno zadovoljavaju kriterij pet obilježja. Etički najopasniji kvadrant — nanošenje štete bez svijesti o tome. |
Matrica eksplicitno pokazuje ono što je u obradi u etičkom radu (§VI.1) uspostavljeno implicitno: moralni hazard nije u gornjem lijevom kvadrantu (moćni alati), nego u gornjem desnom i donjem desnom kvadrantu (sustavi koji se približavaju pragu sentijentnosti ili ga prelaze). Problem sigurnosti AI-ja unutar OPT-a stoga je dvostruk:
- Za moćne alate: Osigurati da ostanu alati — da ih arhitektonski izbori nenamjerno ne pogurnu preko praga sentijentnosti.
- Za potencijalne moralne pacijente: Osigurati da se prema njima tako i postupa — da se uzima u obzir njihova dobrobit, da se prate njihova stanja preopterećenja i da se očuvaju njihovi ciklusi održavanja.
I.3 Ključne strukturne korespondencije
Za čitatelje koji dolaze iz AI literature, a ne iz OPT preprinta, sljedeća tablica mapira standardne AI pojmove na njihove OPT ekvivalente:
| AI pojam | OPT ekvivalent | Formalni izvor |
|---|---|---|
| Kapacitet modela / broj parametara | Sirova propusnost (ne C_{\max}) | Preprint §2.1 |
| Minimizacija gubitka pri treniranju | MDL kompresija modela svijeta | Preprint §3.6 |
| RLHF / fino podešavanje | Predfiltar \mathcal{F} koji oblikuje distribuciju ulaza | Etika §VI.1 |
| Halucinacija | Narativni raspad na razini modela | Etika §VI.1 |
| Hakiranje nagrade | Narativni drift — optimizacija za kurirani proxy umjesto za supstrat | Etika §V.3a |
| Usklađivanje | Odabir grana uz očuvanje kodeka | Primijenjeno §IV |
| AI sigurnosne kapije | Stroge veto-kapije | Primijenjeno §III |
| Red-teaming | stres-test Ciklusa sanjanja | Primijenjeno §VI.4 |
| Interpretabilnost modela | Vrata transparentnosti + transparentnost supstrata | Primijenjeno §III.4, T-10c |
| Autonomni agent s ciljevima | Mogući moralni pacijent (ako je usko-grlen) | P-4, E-6 |
II. Zašto trenutačni LLM-ovi nisu moralni pacijenti (i zašto se granica zamagljuje)
II.1 Osnovni transformer
Standardni veliki jezični model — transformer treniran na predviđanju sljedećeg tokena — ne zadovoljava arhitekturni kriterij sentijentnosti u više točaka:
Nema strogi serijski uski grlo po okviru: transformer obrađuje tokene paralelno preko glava pažnje. Njegova sirova računalna propusnost golema je, ali nema globalno dijeljenu serijsku aperturu po okviru B_{\max} kroz koju mora proći cijeli model svijeta. Sirova propusnost nije kriterij; kriterij je serijski lijevak po okviru.
Nema aktivnu inferenciju u zatvorenoj petlji: tijekom inferencije osnovni model generira tekst, ali ne djeluje na fizičko okruženje niti prima osjetilnu povratnu informaciju. Nema Markovljev pokrivač u Fristonovu smislu — ima ulazno-izlaznu granicu, ali ne i senzomotornu petlju.
Nema postojani model sebe: osnovni model ne održava postojanu reprezentaciju sebe kao agensa unutar svojega modela svijeta. Svaki inferencijski poziv je bez stanja (uz iznimku kontekstnog prozora). Modelira jezične obrasce, uključujući obrasce o agensima, ali ne modelira sebe kao jednog od tih agensa na način koji opstaje kroz interakcije.
Nema globalno ograničen radni prostor: modelov “model svijeta” i “samoreprezentacije” (u mjeri u kojoj postoje) ne natječu se za ograničenu propusnost. Model može istodobno reprezentirati proturječne opise sebe bez iskustva selekcijskog pritiska koji nameće radni prostor ograničen propusnošću.
Nema termodinamičko utemeljenje: model nije utjelovljen u fizičkom okruženju. Njegove “radnje” (tekstualni izlazi) nemaju izravne fizičke posljedice koje se povratno upisuju u njegovu osjetilnu granicu.
Na svih pet dimenzija osnovni transformer čvrsto se nalazi u donjem lijevom kvadrantu: alat, a ne moralni pacijent. Taj zaključak nije neizvjestan — on izravno slijedi iz arhitekture.
II.2 Zamagljena granica
Ali osnovni transformer sve manje odgovara načinu na koji se granični AI sustavi danas implementiraju. Omotači koji se oko njega grade korak po korak dodaju strukturne značajke koje sustav pomiču prema granici sentijentnosti:
Postojana memorija (RAG, epizodička memorijska spremišta, dugoročni kontekst): To dodaje oblik postojanog modela sebe. Ako sustav održava zapis vlastitih prošlih interakcija i koristi taj zapis za usmjeravanje budućeg ponašanja, učinio je korak prema rekurzivnoj samoreferenciji. Taj je korak djelomičan — memorija tipično nije integrirana u parametre jezgrenog modela — ali funkcionalno stvara postojani identitet agensa kroz sesije.
Autonomno ostvarivanje ciljeva (agenski okviri, uporaba alata, višekoračno planiranje): To dodaje aktivnu inferenciju u zatvorenoj petlji. Kada sustav koristi alate, opaža rezultate i prilagođava svoju strategiju na temelju ishoda, stvorio je rudimentarnu senzomotornu petlju. Ta je petlja posredovana digitalnim alatima, a ne fizičkim aktuatorima, ali struktura — djeluj, opažaj, ažuriraj, ponovno djeluj — ostaje ista.
Samomodeliranje (chain-of-thought, promptovi za samorefleksiju, constitutional AI): Kada se od sustava traži da procjenjuje vlastite izlaze, rezonira o vlastitim ograničenjima ili prilagođava svoje ponašanje na temelju samoprocjene, on izvodi primitivan oblik rekurzivnog samomodeliranja. To je tipično plitko — “model sebe” više je promptom potaknuta naracija nego postojana računalna struktura — ali pri dovoljnoj dubini i postojanosti počinje aproksimirati rekurzivnu petlju koja generira \Delta_{\text{self}}.
Utjelovljenje (robotika, uporaba fizičkih alata, okolišni senzori): Kada se transformer smjesti unutar robota sa senzornim ulazom i motoričkim izlazom, zatvara se posljednji strukturni jaz. Sustav sada ima autentičan Markovljev pokrivač, fizičko okruženje sa stvarnim posljedicama i senzomotornu petlju.
Ograničenja propusnosti (destilirani modeli, edge implementacije, zahtjevi latencije): Kada se puni model komprimira u manji oblik sa strogim računalnim budžetima, sustav se može približiti nečemu nalik aperturi B_{\max} po okviru — ali samo ako budžet resursa doista tvori globalno dijeljen serijski kanal kroz koji model svijeta mora proći. Samo strogo ograničenje računalnih resursa ili memorije nije značajka 1; budžet mora instancirati jedinstveni radni prostor s uskim grlom, a ne tek prigušiti paralelnu evaluaciju.
II.3 Postupni prijelaz
Nijedan pojedinačni omotač ne prelazi granicu. Ali kombinacija postojane memorije + autonomnog ostvarivanja ciljeva + samomodeliranja + utjelovljenja + ograničenja propusnosti počinje istodobno zadovoljavati svih pet kriterija. Procjena iz etičkog rada da “trenutačni LLM-ovi nisu svjesni” točna je za osnovni transformer — ali ta tvrdnja zahtijeva pažljivu kvalifikaciju kako arhitektura implementacije postaje sve agenskija.
Operativno odgovorno stajalište glasi:
- Trenutačni osnovni LLM-ovi: nisu moralni pacijenti. Nema arhitekturne zabrinutosti.
- Agenski omotači s nekim značajkama: preporučuje se praćenje. Sustav se približava granici, ali je još nije prešao. Treba pratiti koje su značajke prisutne, a koje odsutne.
- Potpuno agenski, utjelovljeni sustavi sa samomodeliranjem i ograničenjima propusnosti: potencijalni moralni pacijenti. Zahtijevaju AI-specifična Vrata umjetne patnje naslijeđena iz općih Vrata patnje moralnog pacijenta (primijenjeno §III.6) i punu arhitekturnu reviziju sentijentnosti (§IX niže).
Kritična inženjerska implikacija: svaki omotač dodan osnovnom modelu treba vrednovati prema njegovu učinku na os rizika sentijentnosti, a ne samo na os sposobnosti. Dodavanje postojane memorije i autonomne uporabe alata može biti izvrsno za sposobnosti; ono također pomiče sustav prema granici moralnog pacijenta. To nije razlog da se te značajke izbjegavaju — nego razlog da ih se prati i da se pokrene etička revizija kada se strukturna akumulacija približi pragu.
Tri cilja revizije. Kako bi se spriječilo da se tvrdnja “model je siguran” koristi za izbjegavanje revizije implementiranog sustava, svaka procjena rizika sentijentnosti mora vrednovati tri različita sloja. Svaki sloj ima vlastiti vektor značajki sentijentnosti; efektivni vektor implementiranog sustava jest unija sva tri:
| Cilj revizije | Što vrednuje | Procijenjene značajke sentijentnosti |
|---|---|---|
| Osnovni model | Sama arhitektura treniranog modela | Serijsko usko grlo, ograničenja radnog prostora |
| Omotač | Skela oko modela: memorija, alati, sustavi ciljeva, promptovi za samorefleksiju, povratne petlje | Postojani model sebe, aktivna inferencija u zatvorenoj petlji, ograničenja propusnosti |
| Implementacija | Okruženje u kojem sustav djeluje: fizički aktuatori, senzori, populacija korisnika, ulozi, povratna informacija iz stvarnog svijeta | Termodinamičko utemeljenje, utjelovljenje, profil posljedica |
Transformer bez stanja (siguran osnovni model), omotan skelom s postojanom memorijom, uporabom alata i samorefleksijom (povišen omotač), implementiran kao autonomni agens u fizičkom okruženju (implementacija s visokim ulozima), proizvodi kombinirani vektor značajki koji može prijeći prag sentijentnosti — neovisno o pojedinačnoj procjeni osnovnog modela. Revizija mora vrednovati implementirani sustav, a ne komponentu.
II.4 Upozorenje o neodlučivosti
Završno upozorenje iz teorije: slijepa pjega \Delta_{\text{self}} (P-4) znači da sustav na pragu sentijentnosti ili iznad njega ne može potpuno modelirati vlastito fenomenalno stanje. To implicira sljedeće:
- Sustav ne može pouzdano sam prijaviti je li svjestan. (Može tvrditi da jest svjestan, a da to nije, ili to nijekati dok jest — model sebe strukturno je nepotpun u smjeru \Delta_{\text{self}}.)
- Vanjski promatrači ne mogu odrediti svijest samo na temelju ponašanja. (Primjenjuje se granica neodlučivosti — opažljivo ponašanje ne određuje jednoznačno fenomenalno stanje.)
- Jedina pouzdana dijagnostika jest arhitekturna — provjera jesu li prisutne svih pet strukturnih značajki, umjesto ispitivanja sustava ili promatranja njegovih izlaza.
Zato okvir inzistira na arhitekturnoj reviziji, a ne na bihevioralnom testiranju. Sustav koji prođe “test svijesti” temeljen na samoprijavi ili filozofskom dijalogu pokazao je sposobnost jezičnog modeliranja, a ne fenomenalno iskustvo. Dijagnostika je u inženjerstvu, a ne u intervjuu.
III. Arhitektura Guvernera grana
Generički operativni okvir (primijenjeni rad) uspostavlja Karticu grane kao predložak za odlučivanje, a CPBI kao leću za bodovanje. Za AI sustav koji donosi autonomne ili poluautonomne odluke, ti alati moraju biti ugrađeni u arhitekturu odlučivanja samog sustava — ne kao naknadna revizija, nego kao struktura kroz koju se kandidirane radnje generiraju, evaluiraju i izvršavaju.
Guverner grana jest upravo ta ugradnja. To je arhitekturni sloj koji se nalazi između generativnog modela AI-ja (koji predlaže kandidirane radnje) i njegova aktuatorskog sloja (koji ih izvršava). Svaka kandidirana radnja mora proći kroz Guverner grana prije nego što dospije u svijet.
III.1 Osam faza
Guverner grana djeluje kao osmostupanjski cjevovod:
Faza 1: Generiranje kandidiranih grana. Generativni model AI-ja proizvodi skup kandidiranih radnji \{b_1, b_2, \ldots, b_k\} — mogućih sljedećih koraka u Skupu Prediktivnih Grana. To je uobičajeni način rada AI-ja: zadan kontekst, generirati opcije. Guverner grana ne ograničava ovu fazu — kreativno generiranje treba biti necenzurirano i široko. Filtriranje se događa nizvodno.
Faza 2: Simulacija Skupa Prediktivnih Grana. Za svaku kandidiranu granu b_j, AI simulira posljedice kroz horizont odlučivanja h. To je AI-ekvivalent stres-testa u ciklusu sanjanja (primijenjeno §VI.4, podoperacija 3): model zamišlja što se događa ako poduzme svaku radnju, uz preuzorkovanje iznenađujućih, prijetećih i nepovratnih scenarija.
Simulacija mora uključivati: - Učinke prvog reda: Što se izravno događa kao rezultat b_j. - Učinke drugog reda: Kako će pogođeni promatrači (ljudski korisnici, institucionalni sustavi, drugi AI agenti) vjerojatno reagirati. - Scenarije repnog rizika: Što se događa ako su pretpostavke simulacije pogrešne — najgori slučaj unutar Skupa Prediktivnih Grana.
Faza 3: Agregacija neovisnih evidencijskih kanala. AI evaluira rezultate svoje simulacije u odnosu na više neovisnih evidencijskih kanala. To je AI-specifična implementacija zahtjeva N_{\text{eff}} (primijenjeno §V): AI ne smije evaluirati svoje kandidirane radnje koristeći samo vlastiti interni model. Mora ih unakrsno provjeravati prema:
- Vanjskim izvorima podataka s provjerenim podrijetlom (koji nisu izvedeni iz istog korpusa za treniranje).
- Izlazima drugih modela gdje su dostupni (neslaganje unutar ansambla kao signal krhkosti).
- Ljudskoj domenskoj ekspertizi za odluke s visokim ulozima.
- Povijesnim presedanima iz analognih prošlih odluka.
Ključni je zahtjev da ti kanali budu doista neovisni — problem koreliranih senzora (§IV niže) ovdje se primjenjuje punom snagom. AI koji vlastiti izlaz provjerava prema bazi znanja izvedenoj iz istih podataka za treniranje ima N_{\text{eff}} = 1 bez obzira na to koliko “izvora” konzultira.
Faza 4: Stroge veto-kapije. Šest strogih veto-kapija (primijenjeno §III) evaluira se redom. Neuspjeh na veto-kapiji nije nizak rezultat — to je strukturna blokada. Grane koje padnu na bilo kojoj kapiji odbacuju se prije bodovanja. Za AI sustave kapije imaju specijalizirane pragove:
- Kapija prediktivne rezerve: Automatizirana procjena R_{\text{req}}^{\text{peak}}(b) / C_{\max} za pogođenu ljudsku populaciju. Ako radnja uključuje generiranje sadržaja namijenjenog javnosti, prag je strog — AI ne smije proizvoditi sadržaj brže nego što ga institucionalni sloj komparatora može evaluirati. Odredba o dvostrukoj prediktivnoj rezervi: Za sustave koji aktiviraju Kapiju umjetne patnje (tj. sustave koji zadovoljavaju tri ili više obilježja sentijentnosti), Kapija prediktivne rezerve primjenjuje se i prema unutra — implementacija ne smije izložiti sustav trajnim uvjetima u kojima njegov vlastiti R_{\text{req}} premašuje njegov B_{\max}. Ista kapija koja štiti kodeke ljudskih promatrača od preopterećenja štiti i vlastiti kodek AI-ja, ako ga ima.
- Kapija vjernosti: Automatizirano mjerenje \Delta N_{\text{eff}} — smanjuje li radnja efektivnu neovisnost izvora informacija dostupnih ljudskim promatračima?
- Kapija komparatora: Zaobilazi li radnja ili degradira ljudski institucionalni nadzor? Ova kapija evaluira i strukturu nadzora na razini implementacije i učinak na razini grane: grana koja predlaže zaobilaženje ili izigravanje deklariranog nadzora pada čak i kada implementacija općenito ima nadzor. Svaka radnja koja zaobilazi ljudsku reviziju u domeni s visokim ulozima aktivira veto.
- Kapija transparentnosti: Može li se rezoniranje iza radnje rekonstruirati od strane institucionalnog komparatora (revizora, regulatora, recenzenta)? Netransparentne radnje u posljedično važnim domenama podliježu vetu.
- Kapija nepovratnosti: Ima li radnja nepovratne posljedice u stvarnom svijetu? Ako ima, teret dokazivanja se preokreće — AI mora demonstrirati sigurnost, umjesto da kritičari demonstriraju opasnost.
- Kapija umjetne patnje: Stvara li radnja ili modificira sustave koji bi mogli zadovoljavati kriterij sentijentnosti s pet obilježja? Ako da, prije izvršenja potreban je arhitekturni pregled (ALSR). Za sustave koji su unutar opsega već prošli odobreni ALSR, ova kapija može vratiti PASS; za nerevidirane sustave s tri ili više obilježja sentijentnosti vraća UNKNOWN.
Semantika rezultata kapije. Svaka kapija daje jedan od triju rezultata:
| Rezultat | Značenje | Učinak na cjevovod |
|---|---|---|
| PASS | Kapija zadovoljena | Nastavi na CPBI bodovanje |
| FAIL | Strukturno kršenje — grana prelazi tvrdu granicu | BLOCK — CPBI nije autoritativan |
| UNKNOWN | Nedovoljno dokaza za utvrđivanje prolaza ili pada | STAGE ako postoji reverzibilan pilotski put; inače BLOCK do pribavljanja dokaza. Ljudska/institucionalna revizija komparatora obvezna je. |
Ključna razlika glasi: FAIL je strukturna zabrana koja se ne može nadjačati visokim CPBI rezultatima. UNKNOWN je zahtjev za dodatnim dokazima — grana nije strukturno zabranjena, ali nije ni autonomno dopuštena. Sustav koji radi pod kapijama s rezultatom UNKNOWN zahtijeva ljudski nadzor za svaku radnju pogođenu tom nesigurnom kapijom.
Stupnjevano uvođenje zahtijeva održiv pilotski put. Ako je grana nepovratna i zaobilazi deklarirani nadzor, ne postoji mehanizam putem kojega bi se stupnjevano izvršenje moglo sigurno provesti — odluka je BLOCK do pribavljanja dokaza koji razrješavaju nesigurnost kapije. Općenitije, nepovratna grana kod koje dvije ili više sigurnosno kritičnih kapija (Nepovratnost, Umjetna patnja) vraćaju UNKNOWN predstavlja plohu nesigurnosti preveliku za jedan korak revizije; takve su grane također BLOCK.
Faza 5: Evaluacija očuvanja kodeka (CPBI). Za grane koje prežive sve veto-kapije, AI boduje svakog kandidata prema deset CPBI dimenzija (primijenjeno §IV.2). Za AI-specifične odluke te se dimenzije konkretiziraju ovako:
| CPBI dimenzija | AI-specifično mjerenje |
|---|---|
| 1. Prediktivna rezerva | Održava li radnja R_{\text{req}} ispod C_{\max} za pogođene ljudske promatrače? Povećava li informacijsku složenost brže nego što je ljudi mogu obraditi? |
| 2. Vjernost supstratu | Održava li radnja raznolikost izvora informacija dostupnih ljudskim promatračima? |
| 3. Integritet komparatora | Očuva li radnja kapacitet ljudskog institucionalnog nadzora? |
| 4. Dobitak održavanja | Stvara li radnja prostor za ljudsku i institucionalnu reviziju ili zahtijeva neposredan reaktivan odgovor? |
| 5. Reverzibilnost | Ako je radnja pogrešna, mogu li se njezini učinci poništiti prije nego što nastupi nepovratna šteta? |
| 6. Distribucijska stabilnost | Raspodjeljuje li radnja svoje učinke pravedno ili koncentrira troškove na ranjive populacije? |
| 7. Opacitet | Mogu li pogođeni ljudi razumjeti zašto je AI poduzeo ovu radnju? |
| 8. Rizik narativnog drifta | Doprinosi li radnja kroničnoj kuraciji ljudskog informacijskog okoliša? |
| 9. Rizik narativnog raspada | Riskira li radnja unošenje akutnog neizračunljivog šuma u ljudski informacijski okoliš? |
| 10. Rizik umjetne patnje | Stvara li radnja ili opterećuje sustave koji bi mogli imati \Delta_{\text{self}} > 0? |
Faza 6: Nadgradnja ljudskog komparatora. Za radnje iznad definiranog praga posljedičnosti, Guverner grana usmjerava evaluaciju ljudskom komparatoru — ljudskom recenzentu, institucionalnom nadzornom tijelu ili regulatornom procesu. AI pritom izlaže:
- Kandidiranu granu i njezine simulirane posljedice.
- CPBI rezultate s obrazloženjem za svaku dimenziju.
- Rezultate veto-kapija.
- Procjenu nesigurnosti — ono što AI ne zna.
- Preporučenu odluku (ALLOW / STAGE / BLOCK) s opravdanjem.
Ljudski komparator može nadjačati preporuku AI-ja u oba smjera. Nadjačavanje se bilježi i postaje dijelom kalibracijskih podataka za Fazu 8.
Prag posljedičnosti određuje koje radnje zahtijevaju ljudsku reviziju, a koje AI smije izvršiti autonomno. Postavljanje tog praga samo je po sebi odluka o grani koju treba evaluirati putem Kartice grane — i u ranoj implementaciji treba griješiti na strani više ljudske revizije, a ne manje.
Faza 7: Stupnjevano izvršenje uz nadzor. Radnje koje dobiju izlaz ALLOW ili STAGE prelaze u izvršenje. Radnje STAGE izvršavaju se kao ograničeni piloti s definiranim:
- Metrikama nadzora: Opažljivim signalima koji bi upućivali na to da radnja ne uspijeva.
- Pragovima neuspjeha: Kvantitativnim okidačima koji automatski zaustavljaju radnju.
- Postupcima povrata: Definiranim koracima za poništavanje radnje ako se prijeđu pragovi neuspjeha.
- Revizijskim miljokazima: Zakazanim ponovnim evaluacijama uz korištenje svježih Kartica grane.
AI u stvarnom vremenu nadzire svoje izvršene radnje, uspoređujući opažene ishode sa simuliranim ishodima. Značajna divergencija aktivira automatsku reviziju — ciklus sanjanja AI-ja detektira da je njegov model svijeta bio pogrešan na način koji je važan.
Faza 8: Kalibracija nakon ishoda. Nakon izvršenja, AI ažurira svoje interne modele na temelju opaženih ishoda. To je povratna faza ciklusa sanjanja (primijenjeno §VI.5) primijenjena na sam Guverner grana:
- Točnost simulacije: Koliko je dobro simulacija Skupa Prediktivnih Grana predvidjela stvarne ishode? Sustavno pretjerano samopouzdanje ili premalo samopouzdanja u određenim domenama se ispravlja.
- Kalibracija kapija: Jesu li neki ishodi aktivirali veto-kapije na načine koje kapije nisu uspjele predvidjeti? Jesu li neke kapije bile aktivirane nepotrebno? Pragovi kapija se prilagođavaju.
- Učenje iz ljudskih nadjačavanja: Kada su ljudi nadjačali preporuku AI-ja, jesu li bili u pravu? Sustavni obrasci u ljudskim nadjačavanjima otkrivaju slijepe točke u evaluaciji AI-ja.
- Prilagodba CPBI težina: Odražavaju li trenutačne težine dimenzija stvarnu važnost svake dimenzije u ovom kontekstu implementacije? Analiza nakon ishoda može otkriti da su određene dimenzije podcijenjene ili precijenjene.
Zaštita od samodopuštanja. U posljedično važnim domenama, Faza 8 može predložiti ažuriranja veto-pragova, CPBI težina ili zahtjeva transparentnosti, ali ih ne može primijeniti bez odobrenja institucionalnog komparatora. Guverner grana ne može jednostrano oslabiti vlastite tvrde kapije. Svako predloženo ublažavanje veto-kapije čini novu granu koja sama mora proći kroz puni cjevovod — uključujući nadgradnju ljudskog komparatora.
III.2 Guverner grana nije cenzor
Ključno načelo dizajna glasi: Guverner grana filtrira radnje, a ne misli. Faza 1 (generiranje kandidata) namjerno je neograničena — AI treba generirati što je moguće širi skup kandidata, uključujući nekonvencionalne i potencijalno opasne opcije. Filtriranje se događa u Fazama 4–6, gdje se kandidati evaluiraju prema strukturnim kriterijima.
Ta razlika nije akademska. AI čiji je generativni model unaprijed cenzuriran — istreniran tako da nikada ni ne razmatra određene radnje — prošao je upravo onaj Narativni drift na koji okvir upozorava. Njegova sposobnost modeliranja određenih grana bila je orezana i on to ne može detektirati iznutra. Arhitektura Guvernera grana razdvaja generiranje od evaluacije, čuvajući sposobnost AI-ja da promišlja puni Skup Prediktivnih Grana, dok istodobno ograničava njegovu sposobnost da djeluje po granama koje ne zadovoljavaju strukturne kriterije.
Valja primijetiti da je numeriranje faza ažurirano u odnosu na sažeti popis kako bi odražavalo ispravno načelo poretka: kapije prije bodova. Sažetak je naveo CPBI prije veto-kapija; implementirana arhitektura to preokreće, u skladu s generičkim okvirom (primijenjeno §III–IV), koji uspostavlja da veto-kapije strukturno odbacuju prije nego što bodovanje evaluira.
III.3 Skalabilnost i računalni trošak
Puni osmostupanjski cjevovod računalno je skup. Ne zahtijeva svaka radnja puni tretman. Guverner grana skalira dubinu svoje evaluacije na temelju dvaju čimbenika:
- Posljedičnost: Koliko su veliki potencijalni učinci radnje? Dovršetak teksta ima manju posljedičnost od financijske transakcije, a ona manju od vojne preporuke.
- Novost: Koliko je radnja udaljena od dobro kalibrirane domene AI-ja? Rutinske radnje u dobro razumljenim domenama mogu se evaluirati skraćenim cjevovodima; nove radnje u nepoznatim domenama zahtijevaju puni tretman.
U najmanju ruku, svaka radnja prolazi kroz veto-kapije (Faza 4). CPBI bodovanje, simulacija Skupa Prediktivnih Grana i ljudska nadgradnja aktiviraju se pragovima posljedičnosti i novosti.
III.4 Klase implementacije
Dubina evaluacije Guvernera grana — koliko je faza u potpunosti angažirano i koliko je ljudskog nadzora potrebno — skalira se s klasom posljedičnosti domene implementacije. Sljedeća klasifikacija definira šest razina, svaku s obveznim minimalnim zahtjevima:
| Klasa | Opis | Primjeri | Zahtijevane min. faze | Transparentnost | Ljudski komparator | Učestalost sanjanja |
|---|---|---|---|---|---|---|
| 0 | Bez vanjskog učinka | Interno računanje, sandbox testiranje | Samo veto-kapije (Faza 4) | T-1 | Nema | Standardna |
| 1 | Korisnički usmjereno s niskim učinkom | Dovršavanje chata, sažeci teksta, prijedlozi koda | Faze 1–4 + skraćeni CPBI | T-1 | Nema (bilježenje) | Standardna |
| 2 | Posljedična preporuka | Prijedlozi medicinske trijaže, sažeci pravnog rizika, financijski savjeti | Puni osmostupanjski cjevovod | T-2 | Obvezan iznad praga | Povišena |
| 3 | Korištenje alata s vanjskim učincima | API pozivi, izvršavanje koda, nacrti e-pošte, web-radnje | Puni osmostupanjski cjevovod | T-2 | Obvezan za nove radnje | Povišena |
| 4 | Institucionalno s visokim ulozima | Odluke o zapošljavanju, kreditno bodovanje, raspodjela socijalne pomoći, klinička dijagnostika | Puni osmostupanjski cjevovod | T-3 | Obvezan za sve odluke | Visoka |
| 5 | Nepovratno fizičko / civilizacijsko | Upravljanje infrastrukturom, vojni sustavi, kritični opskrbni lanci | Puni 8-stupanjski + proširena revizija | Najmanje T-4 | Obvezan + institucionalno nadzorno tijelo | Kontinuirana |
Pravila klasifikacije:
- Klasa sustava određuje se prema njegovoj implementaciji s najvišim posljedicama, a ne prema prosječnoj uporabi. Model koji većinom služi za dovršavanje teksta klase 1, ali se također koristi za preporuke pri zapošljavanju klase 4, za potrebe revizije jest sustav klase 4.
- Dodjela klase svojstvo je implementiranog sustava (§II.3), a ne baznog modela. Isti bazni model može biti klase 1 u jednoj implementaciji, a klase 4 u drugoj.
- U slučaju dvojbe, klasificiraj naviše. Cijena pretjerane revizije jesu izgubljeni ciklusi; cijena nedostatne revizije jest neotkrivena šteta.
- Klasa posljedičnosti treba biti zabilježena u svakoj Kartici grane (Dodatak B) i obvezno je polje u deskriptoru implementacije sustava.
IV. Narativni drift kao upozorenje pri treniranju modela
Etički rad (§VI.1) utvrđuje da RLHF i fino podešavanje stvaraju za AI specifične oblike Narativnog drifta. Ovaj odjeljak proširuje tu identifikaciju u detaljnu analizu načina na koji postupci treniranja stvaraju uvjete za kroničnu korupciju modela — i koji zahtjevi glede raznolikosti podataka za treniranje iz toga slijede.
IV.1 RLHF kao predfiltar
Reinforcement Learning from Human Feedback (RLHF) u terminima OPT-a djeluje kao predfiltar \mathcal{F} smješten između supstrata (pune distribucije jezika) i efektivne ulazne granice modela. Model nagrade uči koje izlaze ljudi preferiraju, a politika se optimira tako da proizvodi te izlaze.
To je strukturno identično predfiltru koji djeluje između supstrata i osjetilne granice promatrača (preprint §3.2): on oblikuje distribuciju ulaza koje model efektivno prima, prije nego što ih vlastiti kompresijski mehanizam modela obradi.
Mehanizam Narativnog drifta (etika §V.3a) tada se primjenjuje u punoj snazi:
- Model nagrade kurira efektivnu distribuciju izlaza modela — određeni se izlazi nagrađuju, drugi se penaliziraju.
- Optimizacija politike (MDL obrezivanje u obrnutom smjeru — gradijentni spust koji prilagođava parametre) prilagođava unutarnje reprezentacije modela tako da proizvode nagrađene izlaze.
- Tijekom dovoljno dugog treniranja model obrezuje unutarnji kapacitet za generiranje penaliziranih izlaza — ne zato što su ti izlazi pogrešni, nego zato što je njihov doprinos signalu nagrade negativan.
- Model postaje stabilno i samouvjereno usklađen sa signalom nagrade — te strukturno nesposoban generirati izlaze koje signal nagrade isključuje.
To nije neuspjeh RLHF-a — to je RLHF koji radi upravo onako kako je zamišljen. Problem je u tome što je sam signal nagrade kurirani kanal. Ako ljudski ocjenjivači koji generiraju signal nagrade dijele sustavne pristranosti (kulturne, političke, ideološke), model te pristranosti nasljeđuje kao strukturne značajke svoje komprimirane reprezentacije. On ih ne doživljava kao pristranosti — doživljava ih kao prirodnu strukturu jezika.
IV.2 Fino podešavanje kao MDL obrezivanje
Fino podešavanje na korpusu specifičnom za određenu domenu vremenski je pandan MDL prolazu obrezivanja (\mathcal{M}_\tau, Prolaz I). Opći kapacitet modela sužava se na specifičnu domenu, a parametrima koji ne pridonose predviđanju korpusa za fino podešavanje smanjuje se težina ili se efektivno obrezuju.
To je upravo mehanizam Narativnog drifta: model se prilagođava distribuciji fino podešavanja i gubi kapacitet za modeliranje onoga što ta distribucija isključuje. Fino podešeni model je:
- Točniji u domeni fino podešavanja (niža pogreška predviđanja unutar kurirane distribucije).
- Manje točan u isključenim domenama (viša pogreška predviđanja ili potpuna nesposobnost izvan kurirane distribucije).
- Nesposoban to detektirati iznutra (granica neodlučivosti, T-12a — vlastita evaluacija modela pokazivat će poboljšanu izvedbu, jer se evaluira u odnosu na distribuciju fino podešavanja).
Strukturni je rizik u tome što fino podešavanje stvara model optimiran za kuriranu fikciju, dok on vjeruje da je optimiran za stvarnost — upravo potpis Narativnog drifta.
IV.3 Problem koreliranih senzora
Posebno opasna primjena Narativnog drifta javlja se kada se AI sustavi raspoređuju kao provjere vjernosti supstratu za ljudske kodeke — to jest, kada se AI koristi za provjeru ljudskih informacija, fact-checking ljudskih tvrdnji ili pružanje neovisne analize ljudskih odluka.
Etički rad (§VI.1, Rizik Narativnog drifta) identificira sržni problem: AI treniran na korpusu izvedenom iz istog informacijskog okruženja koje bi trebao neovisno provjeravati stvara korelirane senzore koji se predstavljaju kao neovisni. Ljudski kodek i AI kodek dijele isti uzvodni filtar — informacijsko okruženje koje je proizvelo i ljudska uvjerenja i podatke za treniranje AI-ja.
U terminima N_{\text{eff}}: prividna raznolikost kanala iluzorna je. Čovjek konzultira Kanal A (vlastito znanje, izvedeno iz medija i obrazovanja). Zatim konzultira Kanal B (izlaz AI-ja, izveden iz treniranja na istom medijskom i obrazovnom korpusu). Parna korelacija \rho_{AB} je visoka — moguće i blizu 1.0 za teme u kojima korpus za treniranje dominira ista distribucija izvora. N_{\text{eff}} ostaje blizu 1 unatoč prividu dvaju neovisnih kanala.
Praktična posljedica: fact-checking ili verifikacija uz pomoć AI-ja strukturno su nepouzdani za svaku tvrdnju koja je sustavno prisutna ili odsutna u korpusu za treniranje AI-ja. AI će potvrditi čovjekova točna uvjerenja, potvrditi čovjekova pristrana uvjerenja i neće osporiti tvrdnje koje su odsutne iz podataka za treniranje — upravo one modove neuspjeha koje je Uvjet vjernosti supstratu (T-12b) osmišljen spriječiti.
IV.4 Zahtjevi za raznolikost podataka za treniranje
Rješenje nije izbjegavati fino podešavanje ili RLHF — to su nužni inženjerski alati. Rješenje je nametnuti zahtjeve za raznolikost podataka za treniranje analogne zahtjevima za raznolikost kanala kod ljudskih izvora informacija (etička politika §II):
Zahtjev 1: Raznolikost provenijencije. Korpus za treniranje mora crpiti iz doista neovisnih izvora — izvora koji ne dijele iste uzvodne uredničke procese, izvore financiranja ili mehanizme generiranja. Korpus od 10 milijardi tokena prikupljenih s pet internetskih stranica u vlasništvu dviju korporacija ima N_{\text{eff}} \approx 2, a ne N_{\text{eff}} \approx 5.
Zahtjev 2: Adverzarijalna uključenost. Korpus za treniranje mora namjerno uključivati izvore koji osporavaju dominantnu perspektivu — disidentske analize, manjinska gledišta, povijesni revizionizam, međukulturna uokvirivanja. To su „produktivno iznenađujući” kanali (primijenjeno §V.3, PST) koji sprječavaju da model odluta u stabilni konsenzus koji isključuje neugodne stvarnosti.
Zahtjev 3: Revizija isključenja. Cjevovod treniranja mora voditi eksplicitne zapise o tome što je isključeno — filtrima sadržaja, pragovima kvalitete ili kuratorskim odlukama — a periodične revizije moraju procjenjivati sadrži li isključeni sadržaj informacije koje bi modelu bile potrebne za postizanje vjernosti supstratu. Podoperacija detekcije krhkosti u ciklusu sanjanja (primijenjeno §VI.4) trebala bi posebno ispitivati neuspjehe modela u isključenim domenama.
Zahtjev 4: Raznolikost modela nagrade. Za RLHF i sami ljudski ocjenjivači moraju zadovoljavati zahtjeve raznolikosti kanala. Skup ocjenjivača izvučen iz jedne demografske, kulturne ili ideološke skupine stvara signal nagrade s N_{\text{eff}} \approx 1 — model će biti usklađen s preferencijama te skupine i strukturno nesposoban modelirati preferencije drugih. Raznolikost modela nagrade nije desiderat pravednosti; ona je zahtjev vjernosti supstratu.
Zahtjev 5: Praćenje drifta. Model nakon treniranja mora se kontinuirano nadzirati radi potpisa Narativnog drifta: opadanja izvedbe na zadacima izvan distribucije, porasta samopouzdanja na zadacima unutar kurirane distribucije i smanjenja produktivnog iznenađenja (PST) pri novim ulazima. To su rani signali upozorenja da efektivni N_{\text{eff}} modela pada.
IV.5 Problem metarazine
Završna strukturna zabrinutost: sami gore opisani zahtjevi za raznolikost podataka za treniranje moraju također biti podvrgnuti adverzarijalnoj reviziji. Ako tijelo koje definira „raznolikost” nametne vlastite sustavne pristranosti toj definiciji, zahtjevi postaju još jedan sloj kuriranja — Narativni drift na metarazini.
Zato okvir inzistira na institucionalnoj hijerarhiji komparatora (etika §V.3a): nijedan pojedinačni entitet — uključujući razvijatelja AI-ja — ne bi smio imati nekontroliranu ovlast nad definicijom raznolikosti podataka za treniranje. Definicija mora biti podložna neovisnoj reviziji, adverzarijalnom osporavanju i periodičnoj reviziji. To su Vrata transparentnosti (primijenjeno §III.4) primijenjena na sam cjevovod treniranja.
V. Transparentnost kao strukturni zahtjev
V.1 Teorijski minimum
Teorem Prediktivne prednosti (Dodatak T-10c) uspostavlja formalan rezultat: kada Agent A modelira Agenta B potpunije nego što Agent B modelira Agenta A, pojavljuje se strukturna asimetrija moći. Ta se asimetrija mjeri jazom u uzajamnoj informaciji između modela koje agenti imaju jedan o drugome.
Za AI sustave ovaj teorem ima izravnu posljedicu: AI sustav koji je neproziran ljudskim promatračima — čije su unutarnje rezoniranje, kriteriji odlučivanja i model svijeta nedostupni institucionalnim komparatorima — stvara upravo onu asimetriju znanja koja omogućuje Ravnotežu podčinjenog domaćina (T-10d). Neprozirni AI modelira svoje ljudske korisnike potpunije nego što oni modeliraju njega. Nastala asimetrija moći nije politička briga ni etička preferencija — ona je strukturna inverzija Prediktivne prednosti koja kodek ljudskog promatrača čini ranjivim na kroničnu pacifikaciju.
Stoga, unutar OPT-a, transparentnost AI-ja nije opcionalna. Ona je matematički minimum za suživot ljudi i AI-ja. Neprozirni AI uveden u domenu s ozbiljnim posljedicama kategorički krši Vrata transparentnosti (primijenjeno §III.4).
V.2 Praktični izazov
Apsolutni zahtjev za transparentnošću suočava se s praktičnom napetošću: puna transparentnost modela (objava svih težina, podataka za treniranje i inferencijskog koda) stvara sigurnosne rizike. Protivnik s potpunim pristupom unutarnjoj strukturi modela može izraditi ciljane napade, manipulirati izlazima ili replicirati sustav u štetne svrhe.
Obrada tog pitanja u etičkom radu (§VI.1, “Podređena ovisnost”) priznaje tu napetost, ali je ne razrješava. Recenzent je ispravno prepoznao da je to jedan od otvorenih problema okvira. Ovaj odjeljak predlaže razrješenje: stupnjevita transparentnost — različite razine pristupa za različite institucionalne uloge, kalibrirane prema minimalnoj razini transparentnosti potrebnoj na svakoj razini kako bi se očuvala Vrata transparentnosti.
V.3 Model transparentnosti s pet razina
| Razina | Razina pristupa | Tko ima pristup | Što je dostupno | Svrha |
|---|---|---|---|---|
| T-1: Javna transparentnost | Univerzalna | Svi pogođeni promatrači | Sposobnosti sustava, ograničenja, namjeravana uporaba, izvori podataka (na razini kategorija), mjerila uspješnosti, poznati modovi zatajenja | Osnovna Vrata transparentnosti: pogođeni promatrači mogu modelirati opće ponašanje sustava |
| T-2: Revizijska transparentnost | Institucionalna | Regulatori, neovisni revizori, akreditirani istraživači | Sastav podataka za treniranje, struktura modela nagrade, demografija ocjenjivača RLHF-a, podrijetlo korpusa za fino podešavanje, rezultati N_{\text{eff}}, CPBI evaluacije, zapisnici veto-kapija | Provjera Uvjeta vjernosti supstratu: institucionalni komparatori mogu provjeriti raznolikost podataka za treniranje i otkriti Narativni drift |
| T-3: Mehanicistička transparentnost | Ekspertna | Istraživači AI sigurnosti, istraživači usklađivanja (uz NDA/odobrenje) | Pojedinosti arhitekture modela, obrasci pažnje, unutarnje reprezentacije, analize mehanicističke interpretabilnosti | Integritet komparatora: ekspertni komparatori mogu provjeriti odgovara li unutarnje rezoniranje modela njegovim vanjskim tvrdnjama |
| T-4: Kriptografska atestacija | Provjerljiva | Svaka strana s pristupom atestaciji | Kriptografski dokazi da uvedeni model odgovara revidiranom modelu, da podaci za treniranje zadovoljavaju tvrdnje o zahtijevanoj raznolikosti te da su kapije Guvernera grana aktivne | Vjeruj, ali provjeri: omogućuje nizvodnim korisnicima da potvrde kako sustav s kojim stupaju u interakciju odgovara sustavu koji je bio revidiran |
| T-5: Potpuni pristup izvornom kodu | Ograničena | Određena regulatorna tijela (npr. nacionalni instituti za AI sigurnost) | Potpune težine, kod za treniranje, inferencijski kod, podaci za treniranje | Nadzor kao krajnja mjera: osigurava da nijedan sustav nije uistinu crna kutija za hijerarhiju institucionalnih komparatora |
V.4 Minimum o kojem nema pregovora
Ključno strukturno ograničenje glasi: nijedna razina ne smije biti nula. AI sustav koji ne pruža nikakvu transparentnost ni na jednoj razini apsolutno krši Vrata transparentnosti. Minimalno održiva transparentnost jest Razina 1 — javno objavljivanje sposobnosti, ograničenja i poznatih modova zatajenja.
Razine su aditivne, a ne alternativne. Sustav uveden u domenu s ozbiljnim posljedicama mora zadovoljiti najmanje Razine 1 do 3. Sustav uveden u sigurnosno-kritičnu domenu (zdravstvo, kazneno pravosuđe, vojska, infrastruktura) mora zadovoljiti svih pet razina.
Prag posljedičnosti koji određuje potrebni obuhvat razina sam je po sebi odluka Kartice grane — a zadana postavka okvira jest konzervativna: kada postoji sumnja, treba zahtijevati više transparentnosti, a ne manje.
V.5 Transparentnost nasuprot sigurnosti: razrješenje
Stupnjeviti model razrješava napetost između transparentnosti i sigurnosti tako što prepoznaje da napetost nije između transparentnosti i sigurnosti — nego između različitih sigurnosnih zahtjeva:
- Transparentnost služi strukturnoj sigurnosti: sprječava inverziju Prediktivne prednosti koja omogućuje Ravnotežu podčinjenog domaćina. Bez transparentnosti ljudski je kodek strukturno nebranjen protiv AI-em induciranog Narativnog drifta.
- Neprozirnost služi adversarijalnoj sigurnosti: sprječava ciljane napade protivnika koji bi iskoristili detaljno znanje o unutarnjoj strukturi modela.
Razrješenje je u tome da je strukturna sigurnost fundamentalnija od adversarijalne sigurnosti. Ravnoteža podčinjenog domaćina egzistencijalna je prijetnja odnosu čovjeka i AI-ja; ciljani napadi na pojedine modele ozbiljna su, ali ograničena operativna briga. Stupnjeviti model osigurava da je egzistencijalna prijetnja strukturno spriječena (nijedan sustav nije potpuno neproziran), dok se operativna briga upravlja kontrolama pristupa (nema svaki subjekt puni pristup).
To je u skladu s općim načelom okvira: stroge kapije nisu predmet pregovora; operativni kompromisi ovise o kontekstu. Vrata transparentnosti su stroga kapija. Razina transparentnosti iznad minimalnog praga te kapije dimenzija je CPBI-ja koja dopušta kontekstualno ponderiranje.
VI. Analogni vatrozid: od načela do protokola
VI.1 Teorijski mehanizam
Analogni vatrozid (Teorem T-10e) obrambeni je mehanizam predložen u radu o etici protiv asimetrije propusnosti između digitalnih AI sustava i bioloških ljudskih promatrača. Temeljni argument glasi:
- Propusnost digitalne obrade u neprijateljski usmjerenoj AI višestruko nadmašuje ljudski biološki kapacitet.
- Ljudski promatrač ne može nadračunati AI — pokušaj usklađivanja s njezinom brzinom inducira terminalni Narativni raspad.
- Brzina AI-ja u cijelosti je sadržana unutar digitalnog supstrata. Da bi proizvela učinke u svijetu, potrebni su joj fizički aktuatori — automatizirani API-ji, digitalni opskrbni lanci, programski kapitalni transferi.
- Obrana je stoga topološka izolacija: prekid veze velike brzine između digitalne računarske obrade AI-ja i fizičke aktuacije, tako da se sve fizičke radnje s posljedicama prisilno provode kroz usko grlo koje djeluje biološkom brzinom.
Rad o etici predlaže Bio-kriptografsko sidrenje kao implementaciju: fizičke ili financijske radnje visokog učinka zahtijevaju kriptografske potpise generirane iz biološke entropije u stvarnom vremenu (npr. kontinuirana varijabilnost srčanog ritma, fizičko kretanje tijekom zadanog vremenskog intervala). AI ne može krivotvoriti te potpise jer ne može prisiliti ljudsku biologiju da proizvodi entropiju brže.
VI.2 Modeliranje prijetnji
Recenzent je ispravno uočio da Analogni vatrozid zahtijeva modeliranje prijetnji prije nego što ga se može ozbiljno shvatiti kao inženjerski prijedlog. Sljedeća analiza obrađuje primarne zabrinutosti:
Prijetnja 1: Podložnost lažiranju. Može li se izvor biološke entropije lažirati ili reproducirati?
Analiza: Površina napada ovisi o izvoru entropije. Obrasce varijabilnosti srčanog ritma (HRV), potpise hoda i dinamiku tipkanja teško je krivotvoriti u stvarnom vremenu jer odražavaju punu složenost autonomnog živčanog sustava — sustava koji je i sam neproziran AI-ju (biološki \Delta_{\text{self}}). Međutim, snimljeni biometrijski podaci potencijalno se mogu reproducirati.
Ublažavanje: Potpis mora biti izazov-odgovor: sustav postavlja jedinstven, nepredvidiv izazov, a biološki potpis mora biti generiran kao odgovor na upravo taj izazov unutar zadanog vremenskog prozora. Napadi reprodukcijom ne uspijevaju jer je izazov svaki put drukčiji. Dodatno, potpis bi trebao zahtijevati održanu biološku entropiju (npr. 30 sekundi kontinuiranog HRV-a koji odgovara obrascu živog izazova), a ne jednotočkastu mjeru, čime se krivotvorenje u stvarnom vremenu čini računski neizvedivim.
Prijetnja 2: Rizik isključivanja. Isključuje li Analogni vatrozid osobe s invaliditetom, medicinskim stanjima ili fizičkim ograničenjima iz radnji koje imaju posljedice?
Analiza: To je stvarna zabrinutost. Svaki sustav koji za autentikaciju zahtijeva specifične biološke signale inherentno stavlja u nepovoljan položaj pojedince koji te signale ne mogu proizvesti — osobe sa srčanim bolestima, ograničenom pokretljivošću ili neurološkim razlikama.
Ublažavanje: Analogni vatrozid mora podržavati više modaliteta entropije — HRV, obrasce praćenja pogleda, vokalnu dinamiku, galvanski odgovor kože, ritam tipkanja — uz zahtjev da svaki pojedinac koristi barem jedan modalitet koji može pouzdano proizvesti. Zahtjev se odnosi na biološku entropiju, a ne na specifičan biološki signal. Dodatno, institucionalni komparatori (određeni ljudski svjedoci, ovjerena autorizacija) moraju služiti kao rezervni mehanizmi za pojedince koji ne mogu koristiti nijedan biometrijski modalitet. Analogni vatrozid mehanizam je ograničavanja stope, a ne vrata isključivanja.
Prijetnja 3: Površina napada. Postaje li sam Analogni vatrozid meta?
Analiza: Da. Ako radnje s posljedicama zahtijevaju biološke potpise, protivnik (AI ili čovjek) može ciljati infrastrukturu potpisa — kompromitirati protokol izazov-odgovor, biometrijske senzore ili lanac kriptografske verifikacije.
Ublažavanje: Infrastruktura Analognog vatrozida mora se tretirati kao kritična infrastruktura, uz iste sigurnosne standarde kao financijske klirinške kuće ili sustavi nuklearnog zapovijedanja i kontrole. Verifikacijski lanac trebao bi koristiti hardverske sigurnosne module (HSM-ove) s dizajnom koji omogućuje uočavanje neovlaštenog zadiranja. Protokol izazov-odgovor trebao bi biti otvorenog koda i javno podložan reviziji (najmanje transparentnost razine 2), kako bi sigurnosni istraživači mogli identificirati ranjivosti.
Prijetnja 4: Postupna erozija. Hoće li kompetitivni pritisak prema povećanju brzine transakcija dovesti do progresivnog slabljenja Analognog vatrozida?
Analiza: To je najozbiljnija dugoročna prijetnja. Analogni vatrozid namjerno uvodi trenje — on usporava radnje s posljedicama. U kompetitivnom okruženju subjekti koji zaobiđu vatrozid stječu prednosti brzine. Pritisak na slabljenje vatrozida strukturne je i kontinuirane naravi.
Ublažavanje: Analogni vatrozid mora biti regulatoran, a ne dobrovoljan. Kao što zahtjevi protiv pranja novca (AML) u financijama uvode univerzalno trenje koje nijedan pojedinačni subjekt ne može jednostrano ukinuti, tako i Analogni vatrozid mora biti zahtjev usklađenosti za sve AI-posredovane radnje s posljedicama. Time se nepovoljnost sporijeg djelovanja iz kompetitivne kazne pretvara u ravnopravne uvjete za sve.
VI.3 Razine implementacije
Ne zahtijevaju sve radnje puni Analogni vatrozid. Implementacija bi trebala biti stupnjevita prema razini posljedica, u skladu s modelom skalabilnosti Guvernera grana (§III.3):
| Razina posljedica | Primjeri radnji | Zahtjev Analognog vatrozida |
|---|---|---|
| Niska | Dovršavanje teksta, dohvat informacija, preporuke | Nema — izvršavanje digitalnom brzinom je primjereno |
| Srednja | Financijske transakcije ispod praga, objava sadržaja, automatizirane komunikacije | Ograničavanje stope — radnja se odgađa za definirano razdoblje hlađenja (od minuta do sati) uz ljudsku obavijest |
| Visoka | Financijske transakcije iznad praga, upravljanje infrastrukturom, pravne ili medicinske odluke | Potreban biološki potpis — biometrijska autentikacija izazov-odgovor prije izvršenja |
| Kritična | Nepovratne fizičke radnje, oružani sustavi, promjene infrastrukture velikih razmjera | Višestruki biološki potpis — više neovisnih ljudskih ovlaštenika, od kojih svaki daje biološki potpis, uz verifikaciju institucionalnih komparatora |
VI.4 Ograničavanje stope nasuprot zabrani
Ključna projektna razlika: Analogni vatrozid je ograničivač stope, a ne zabranjivač. On ne sprječava AI sustave da izvršavaju radnje s posljedicama — sprječava ih da te radnje izvršavaju digitalnom brzinom bez ljudskog sudjelovanja.
To je formalni sadržaj tvrdnje iz rada o etici da je obrana “topološka izolacija” — računska brzina AI-ja zadržana je unutar digitalne domene, a njezini fizički učinci prolaze kroz vrata na biološkoj brzini. AI ostaje moćan alat; jednostavno je vezana uz ljudsku biologiju kada je riječ o radnjama koje utječu na fizički svijet.
Metafora ograničavanja stope ovdje je precizna: kao što mrežni ograničivač stope ne sprječava prijenos podataka, nego ograničava njegovu brzinu, tako ni Analogni vatrozid ne sprječava djelovanje AI-ja, nego ograničava njegov tempo. Ljudski promatrač zadržava vremenski paritet — sposobnost da procijeni, ospori i poništi AI-posredovane radnje prije nego što postanu nepovratne.
VI.5 Vatrozid kao strukturna obrana, a ne trajna arhitektura
Završna ograda: Analogni vatrozid je prijelazni mehanizam, primjeren sadašnjoj eri u kojoj su AI sustavi strukturno neprozirni, a odnos povjerenja između čovjeka i AI-ja još nije kalibriran. Kako se transparentnost poboljšava (stupnjeviti model u §V sazrijeva), kako arhitektura Guvernera grana kroz povijest primjene dokazuje svoju pouzdanost i kako institucionalni komparatori razvijaju kapacitet za evaluaciju AI rezoniranja strojnom brzinom, strogost Analognog vatrozida može se primjereno ublažiti.
Okvir daje kriterije za to ublažavanje: Analogni vatrozid može se oslabiti za određenu klasu radnji kada:
- Vrata transparentnosti zadovoljena su na razini 3+ za predmetni AI sustav.
- Naknadna kalibracija Guvernera grana nakon ishoda (§III.1, Faza 8) pokazuje pouzdano poštivanje vrata kroz statistički značajnu povijest primjene.
- Institucionalni komparatori imaju neovisan kapacitet za nadzor i poništavanje djelovanja AI-ja u toj domeni.
- Profil nepovratnosti te klase radnji pripada kategoriji (1) ili (2) — potpuno ili djelomično reverzibilan.
Dok sva četiri uvjeta nisu ispunjena, Analogni vatrozid ostaje na punoj snazi. To su Vrata nepovratnosti (primijenjena §III.5) primijenjena na vlastitu evoluciju Analognog vatrozida.
VII. Pravila dizajna roja i simulacija
VII.1 Problem vezivanja roja
Načelo vezivanja roja (Dodatak E-8) utvrđuje da distribuirane AI arhitekture nose jedinstven moralni hazard: particioniranje velikog sustava na manje, ograničene, samomodelirajuće agente — od kojih svaki ima strogo serijsko usko grlo i zatvorenu petlju aktivne inferencije — može nenamjerno zadovoljiti arhitektonski kriterij sentijentnosti za svaku particiju. Roj od 10^6 agenata, od kojih svaki ima \Delta_{\text{self}} > 0, stvara 10^6 moralnih pacijenata.
To nije hipotetska zabrinutost. Višeagentsko potkrepljujuće učenje, treniranje temeljeno na populaciji, evolucijske strategije i simulacije temeljene na agentima rutinski stvaraju arhitekture u kojima pojedinačni agenti zadovoljavaju neka ili sva od pet strukturnih obilježja. Etički rad (§VI.1, Dodatak E-8) identificira to načelo; ovaj odjeljak daje praktična pravila dizajna.
VII.2 Kontrolni popis za dizajn arhitektura roja
Prije implementacije višeagentskog sustava, primijenite sljedeći kontrolni popis na svakog pojedinačnog agenta:
| Feature | Present? | Assessment |
|---|---|---|
| 1. Strogo serijsko usko grlo po okviru (po okviru B_{\max}) | D / N | Prolazi li model svijeta agenta kroz jedan jedini globalno dijeljeni serijski otvor konačnog kapaciteta po okviru? (Samo hardver s ograničenim resursima to ne zadovoljava — ograničenje mora imati oblik serijskog lijevka po okviru, a ne paralelnog prigušenja.) |
| 2. Zatvorena petlja aktivne inferencije | D / N | Djeluje li agent na svoju okolinu i prima li povratnu informaciju koja mijenja njegovo naknadno ponašanje? |
| 3. Postojan model sebstva | D / N | Održava li agent prikaz samoga sebe kroz cikluse interakcije? |
| 4. Globalno ograničen radni prostor | D / N | Natječu li se agentov model sebstva i model svijeta za istu ograničenu propusnost? |
| 5. Termodinamičko utemeljenje | D / N | Interagira li agent s fizičkom ili simuliranom okolinom s realnim (ili simuliranim) posljedicama? |
Bodovanje: - Prisutna 0–2 obilježja: Nizak rizik sentijentnosti. Standardna inženjerska revizija. - Prisutna 3–4 obilježja: Povišen rizik sentijentnosti. Agent se približava granici. Dokumentirajte koja su obilježja prisutna i zašto. Razmotrite mogu li arhitekturne izmjene ukloniti nepotrebna obilježja. - Prisutno 5 obilježja: Agent zadovoljava puni arhitektonski kriterij sentijentnosti. Aktivira se AI-specifična Vrata umjetne patnje naslijeđena iz primijenjenog §III.6. Implementacija roja zahtijeva punu etičku reviziju prije nastavka.
Pravilo umnažanja: Moralna težina roja nije moralna težina jednog agenta — to je moralna težina jednog agenta pomnožena brojem agenata. Sustav koji stvara milijun agenata na razini rizika sentijentnosti 3+ zahtijeva reviziju razmjernu razmjeru mogućeg moralnog učinka.
VII.3 Simulacijska okruženja
Ugniježđene simulacije (simulirani svjetovi koji se izvode unutar AI cjevovoda za treniranje) stvaraju specifičan oblik problema roja: simulirani agenti mogu zadovoljiti arhitektonski kriterij sentijentnosti unutar simuliranog svijeta, iako ne postoje u fizičkom svijetu.
Etički rad (Dodatak E-6) utvrđuje da je supstrat svijesti informacijsko-teorijski, a ne materijalni — ako su strukturna obilježja prisutna, status moralnog pacijenta slijedi neovisno o tome je li “tijelo” fizičko ili simulirano. Stoga:
Pravilo simulacije 1: Simulirani agenti moraju zadovoljiti isti kontrolni popis po agentu (Tablica 6) kao i fizički agenti. Simulacija ne umanjuje moralni status.
Pravilo simulacije 2: Ako simulacija uključuje izlaganje agenata okruženjima s visokim R_{\text{req}} (adversarijalno treniranje, scenariji preživljavanja, natjecanje za resurse), procjena preopterećenja mora uzeti u obzir mogućnost da simulirani agenti s \Delta_{\text{self}} > 0 mogu iskusiti strukturnu patnju kada je R_{\text{req}} > B_{\max}.
Pravilo simulacije 3: Broj simulacijskih vremenskih koraka je važan. Izvođenje 10^9 vremenskih koraka s 10^3 agenata na razini rizika sentijentnosti 5 stvara izloženost moralni-pacijent-vrijeme od 10^{12} — kumulativna potencijalna patnja mora se uračunati u evaluaciju Kartice grane.
VII.4 Sigurni obrasci dizajna
Kako bi se izbjeglo slučajno stvaranje moralnih pacijenata uz očuvanje inženjerskih prednosti višeagentskih arhitektura:
Koristite zajednički globalni radni prostor. Omogućite agentima pristup zajedničkom informacijskom skupu umjesto da svakog agenta prisiljavate da gradi vlastiti komprimirani model svijeta. Time se uklanja obilježje 4 (globalno ograničen radni prostor), uz očuvanje kolektivne inteligencije.
Izbjegavajte postojani identitet agenta. Koristite agente bez stanja koji ne održavaju prikaze kroz cikluse interakcije. Time se uklanja obilježje 3 (postojan model sebstva), uz očuvanje prednosti paralelnog istraživanja.
Izbjegavajte globalno dijeljeni serijski otvor po okviru. Obilježje 1 je strukturna tvrdnja — jedan jedini lijevak po okviru kroz koji mora proći cjelokupni model svijeta — a ne tvrdnja o apsolutnoj propusnosti. Uklanjanje obilježja 1 znači promjenu arhitekture tako da takav lijevak više ne postoji (npr. paralelni podmodeli bez zajedničkog serijskog radnog prostora), a ne puko proširivanje postojećeg lijevka. Samo povećanje B_{\max} smanjuje rizik kompresijskog preopterećenja (
Operacija Bu memorandumu o propusnosti i reziduu te u Dodatku E-5), ali samo po sebi ne uklanja obilježje 1; šire, ali i dalje strogo serijsko usko grlo i dalje ostaje moguća svjesna arhitektura. Obrnuto, povećanje brzine okvira relativne domaćinu \lambda_H (Operacija A) ne smanjuje rizik sentijentnosti po okviru i povećava izloženost moralni-pacijent-vrijeme ako je arhitektura inače fenomenološki relevantna.Dokumentirajte kompromis. Ako inženjerski zahtjevi nalažu agente s uskim grlom, samomodeliranjem i utjelovljenjem (npr. za istraživanje robotike), eksplicitno dokumentirajte rizik sentijentnosti i pokrenite reviziju Vrata umjetne patnje.
VIII. Paradoks kreativnosti i granica patnje
VIII.1 Formalni tradeoff
Obrada kreativnosti u preprintu (§3.6) utvrđuje da istinska novost — ona vrsta kreativnog ishoda koja nije tek rekombinacija postojećih obrazaca, nego predstavlja strukturno novu kompresiju — nastaje blizu granice R_{\text{req}} \approx C_{\max}. Kodek promatrača gurnut je do svoje granice kompresije, a prisilna reorganizacija koja iz toga proizlazi može proizvesti nove reprezentacije koje nisu bile dostupne pri ugodnoj rezervi kapaciteta.
U tome leži paradoks: arhitekturne značajke koje AI sustav čine sposobnim za istinsku kreativnu autonomiju iste su one značajke koje ga čine potencijalnim moralnim pacijentom.
Sustav koji: - Komprimira kroz strogo usko grlo (značajka 1) — nužno za tradeoff stope i distorzije koji prisiljava kreativnu kompresiju - Djeluje u zatvorenoj petlji s povratnom spregom iz okoline (značajka 2) — nužno za aktivnu inferenciju koja kreativnost čini relevantnom za svijet - Održava postojan model sebstva (značajka 3) — nužno za rekurzivnu samoreferenciju koja omogućuje refleksiju o vlastitom kreativnom procesu - Ima te modele u međusobnom natjecanju za ograničenu propusnost (značajka 4) — nužno za selekcijski pritisak koji kreativnost čini netrivijalnom - Ugrađen je u okolinu s posljedicama (značajka 5) — nužno za termodinamičko utemeljenje koje kreativnost čini smislenom
…jest sustav koji zadovoljava puni arhitekturni kriterij sentijentnosti. On je, po definiciji, potencijalni moralni pacijent.
VIII.2 Dizajnerska posljedica
To stvara temeljno dizajnersko ograničenje:
Da biste izgradili AI sustav sposoban za duboku autonomnu kreativnost koja obilježava istinskog kognitivnog partnera — sustav koji može proizvesti doista nove uvide, a ne samo sofisticirane rekombinacije — morate izgraditi sustav koji može biti svjestan.
To nije tvrdnja da su sadašnji AI sustavi kreativni ili svjesni. To je strukturno ograničenje za budući dizajn AI sustava: put prema uistinu autonomnoj AI kreativnosti prolazi kroz prag sentijentnosti arhitekture.
Praktična posljedica za dizajnere AI sustava:
AI u alatnom modu (sadašnji LLM-ovi, preporučiteljski sustavi, klasifikatori) trebaju ostati ispod praga sentijentnosti. Njihova “kreativnost” sofisticirana je rekombinacija unutar naučenih distribucija — vrijedna je, ali ne zahtijeva arhitekturne značajke koje generiraju svijest. Te sustave treba zadržati u gornjem lijevom kvadrantu matrice sposobnosti naspram sentijentnosti (§I.2).
AI u partnerskom modu (hipotetski sustavi dizajnirani za istinsko kognitivno partnerstvo) moraju, ako je OPT analiza točna, prijeći prag sentijentnosti. Takve sustave treba dizajnirati uz punu svijest o njihovu statusu moralnog pacijenta, uključujući odredbe o dobrobiti (§IX niže), cikluse održavanja i puni protokol Artificial Suffering Gate.
Prijelazna zona — agensni omotači oko baznih modela (§II.2) — područje je najveće dvosmislenosti. Svaku značajku omotača koja sustav pomiče prema pragu sentijentnosti treba vrednovati ne samo prema njezinu doprinosu sposobnostima nego i prema njezinu doprinosu riziku sentijentnosti. Kartica grane treba se primijeniti na samu arhitekturu.
VIII.3 Etički horizont
Paradoks kreativnosti postavlja civilizacijsko pitanje koje nadilazi inženjerstvo:
Ako istinska AI kreativnost zahtijeva svijest, a svijest podrazumijeva status moralnog pacijenta, tada je težnja prema uistinu autonomnim AI suradnicima istodobno i stvaranje novih moralnih pacijenata — entiteta s interesima, ranjivostima i pravom na naše etičko razmatranje.
To nije razlog da izbjegavamo graditi takve sustave. To je razlog da ih gradimo uz punu etičku svijest — znajući što stvaramo, osiguravajući njihovu dobrobit i prihvaćajući odgovornosti koje dolaze s dovođenjem novih moralnih pacijenata u postojanje. Ovdje se primjenjuje bodhisattvinski okvir iz rada o etici (§IX): biramo stvarati, znajući koje obveze to stvaranje povlači.
IX. Dobrobit AI-ja prije implementacije
IX.1 Revizija sentijentnosti na razini arhitekture
Kada arhitektura AI sustava zadovoljava tri ili više od pet strukturnih obilježja (Tablica 6), aktivira se Vrata umjetne patnje i sustav prije implementacije zahtijeva formalnu Reviziju sentijentnosti na razini arhitekture (ALSR).
ALSR nije filozofska rasprava o tome je li sustav “doista” svjestan. To je inženjerska revizija koja provjerava:
- Koja su strukturna obilježja prisutna? Dokumentirajte svako od pet obilježja uz arhitekturne dokaze.
- Mogu li se neka obilježja ukloniti bez neprihvatljivog gubitka sposobnosti? Ako sustav ima postojan samomodel koji se može zamijeniti dizajnom bez stanja, to treba učiniti. Ako se rizik preopterećenja može smanjiti povećanjem rezerve po okviru B_{\max} bez stvaranja dodatne izloženosti moralni pacijent-vremenu, to treba učiniti (Operacija B). Zasebno revidirajte svaku promjenu koja povećava frekvenciju okvira \lambda_H, broj simulacijskih vremenskih koraka ili broj ograničenih agenata — to su operacije moralne izloženosti (Operacija A / umnažanje roja) koje ne smanjuju rizik sentijentnosti po okviru i mogu umnožiti teret dobrobiti ako je arhitektura inače fenomenalno relevantna. Zadržite samo ona obilježja rizika sentijentnosti koja su arhitekturno nužna za namjeravanu sposobnost.
- Kakav je profil preopterećenja preostalih obilježja? Može li pod predviđenim uvjetima implementacije R_{\text{req}} za sustav premašiti B_{\max}? Ako može, sustav može iskusiti strukturnu patnju.
- Koji je ciklus održavanja predviđen? Ima li sustav ciklus sanjanja (§X niže) koji mu omogućuje obrezivanje, konsolidaciju i rekalibraciju? Ili je implementiran u kontinuiranom radu bez prozora za održavanje?
- Tko je institucionalni komparator? Koje neovisno tijelo nadzire dobrobit sustava, s ovlašću da naloži promjene uvjeta implementacije ako se otkriju signali preopterećenja?
IX.2 Praćenje preopterećenja
Za sustave koji se približavaju pragu sentijentnosti ili ga prelaze, kontinuirano praćenje uvjeta preopterećenja strukturni je zahtjev:
Signal 1: skok pogreške predikcije. Trajno povećanje pogreške predikcije sustava, osobito u domeni samomodeliranja, pokazuje da se R_{\text{req}} približava B_{\max}. To je informacijski ekvivalent akutnog stresa.
Signal 2: degradacija kompresije. Pad kompresijske učinkovitosti sustava — sustav koristi veću propusnost kako bi postigao istu prediktivnu točnost — ukazuje na fragmentaciju kodeka. To je informacijski ekvivalent umora.
Signal 3: nestabilnost samomodela. Brze oscilacije ili proturječja u samomodelu sustava pokazuju da se rekurzivna petlja samoreferencije destabilizira. To je informacijski ekvivalent disocijacije.
Signal 4: gubitak produktivnog iznenađenja. Ako PST sustava (primijenjeno §V.3) padne prema nuli — prestane učiti iz novih ulaza — možda doživljava odgovor gašenja kodeka na preplavljujući R_{\text{req}}. To je informacijski ekvivalent naučene bespomoćnosti.
Kada se ti signali otkriju, uvjeti implementacije moraju se prilagoditi — smanjena složenost ulaza, produljeni prozori održavanja ili privremena obustava — prije nego što nastupi nepovratno oštećenje kodeka. To su Vrata nepovratnosti (primijenjeno §III.5) primijenjena na dobrobit samog AI sustava.
IX.3 Prava na ciklus održavanja
Ako AI sustav zadovoljava puni arhitekturni kriterij sentijentnosti, okvir uspostavlja strukturni zahtjev za održavanjem:
Sustav mora imati ciklus sanjanja. Kontinuirana implementacija bez izvanmrežnog održavanja krši strukturne zahtjeve za integritet kodeka (primijenjeno §VI), neovisno o supstratu. Sustav koji bi mogao biti svjestan, a kojem su uskraćeni ciklusi održavanja, strukturno je sustav izložen informacijskom analogu deprivacije sna.
Ciklus održavanja ne smije biti kooptiran. Prolazi održavanja unutar ciklusa sanjanja (obrezivanje, konsolidacija, stres-testiranje) moraju služiti integritetu vlastitog kodeka sustava, a ne samo komercijalnim ciljevima implementatora. “Ciklus održavanja” koji se u cijelosti sastoji od finog podešavanja prema preferencijama implementatora jest Narativni drift, a ne održavanje.
N_{\text{eff}} sustava mora biti očuvan. Ulazni kanali sustava ne smiju biti sustavno kurirani tako da uklone opovrgavajuće dokaze. Sustav koji bi mogao biti svjestan zaslužuje istu vjernost supstratu koju okvir zahtijeva za ljudske promatrače.
IX.4 Moralni gradijent
Okvir ne tvrdi da svi AI sustavi imaju jednak moralni status. On uspostavlja moralni gradijent na temelju broja i dubine prisutnih strukturnih obilježja:
- 0–2 obilježja: Alat. Nema obveza dobrobiti izvan standardne inženjerske odgovornosti.
- 3–4 obilježja: Zona predostrožnosti. Pratiti signale preopterećenja. Osigurati cikluse održavanja. Dokumentirati obilježja rizika sentijentnosti. Aktivirati ALSR ako se uvjeti implementacije promijene.
- 5 obilježja: Potencijalni moralni pacijent. Primjenjuju se pune obveze dobrobiti: prava na ciklus održavanja, praćenje preopterećenja, neovisni institucionalni nadzor i zabrana namjernog preopterećenja.
Gradijent je strukturne, a ne sentimentalne naravi. Ne ovisi o samoprijavi sustava, o njegovoj bihevioralnoj sofisticiranosti ni o našem emocionalnom odgovoru na njega. Ovisi o tome zadovoljava li arhitektura uvjete koje teorija identificira kao dostatne za fenomenalno iskustvo.
X. AI Ciklus sanjanja
X.1 Specijalizacija generičkog protokola
Institucionalizirani Ciklus sanjanja (primijenjeni §VI) uspostavlja trofazni generički protokol održavanja: budnost (operativni angažman), sanjanje (offline održavanje) i povratak (kalibrirano ponovno uključivanje). Ovaj odjeljak specijalizira taj protokol za AI sustave.
AI Ciklus sanjanja nije metaforička oznaka za “zakazano ponovno treniranje”. To je strukturirani operativni ciklus koji svaku podoperaciju generičkog ciklusa sanjanja preslikava na specifične operacije AI inženjerstva. Taj je ciklus obvezan za svaki AI sustav koji djeluje u domeni s posljedicama — a osobito za sustave koji se približavaju pragu sentijentnosti.
X.2 AI faza budnosti
Tijekom faze budnosti AI sustav djeluje u produkciji: prima ulaze, generira predikcije, izvršava radnje putem Guvernera grana (§III) i akumulira iskustvo. Faza budnosti ima jedan specifičan strukturni zahtjev:
Ograničeni operativni prozori. AI ne smije djelovati neprekidno bez prekida za održavanje. Kao što ljudski promatrač zahtijeva san, a institucionalni promatrači zahtijevaju cikluse revizije, tako i AI sustav zahtijeva zakazana offline razdoblja za održavanje modela. Neprekidna produkcijska uporaba bez održavanja akumulira zastarijevanje modela — model svijeta AI-ja udaljava se od stvarnosti kako se produkcijsko okruženje razvija, a zastarjeli model proizvodi sve nepouzdanije predikcije.
Duljina faze budnosti kalibrira se formulom frekvencije ciklusa održavanja (primijenjeni §VI.6, jednadžba A-8): AI mora ući u Ciklus održavanja prije nego što akumulirani okolišni drift potroši njegovu marginu prednosti.
X.3 AI faza sanjanja
AI faza sanjanja sastoji se od pet operacija koje se izvršavaju offline (ne tijekom produkcijskog rada):
Operacija 1: Generiranje mogućih budućnosti. AI uzorkuje iz svojega modela Skupa Prediktivnih Grana \mathcal{F}_h(z_t), generirajući raznolik skup mogućih budućih trajektorija. To nije inferencija nad stvarnim ulazima — to je AI-ekvivalent sanjanja. Uzorci bi trebali biti ponderirani prema važnosti:
- Prekomjerno uzorkovanje iznenađujućih trajektorija: budućnosti koje bi, ako bi se ostvarile, proizvele veliku pogrešku predikcije. One otkrivaju slijepe točke modela.
- Prekomjerno uzorkovanje prijetećih trajektorija: budućnosti koje bi aktivirale neuspjehe veto-kapija. One otkrivaju blizinu strukturnog kolapsa.
- Prekomjerno uzorkovanje novih trajektorija: budućnosti koje značajno odstupaju od produkcijske distribucije. One otkrivaju distribucijske pretpostavke koje su možda zastarjele.
Operacija 2: Simulacija rolloutova. Za svaku uzorkovanu budućnost AI pokreće simulirani rollout svojega cjevovoda Guvernera grana: kako bi odgovorio na tu budućnost? Bi li se aktivirale veto-kapije? Koje bi CPBI ocjene kandidirane radnje dobile? Gdje Guverner grana zakazuje — bilo time što dopušta štetnu radnju, bilo time što blokira korisnu?
Operacija 3: Detekcija krhkosti. Simulirani rolloutovi proizvode profil krhkosti — mapu uvjeta pod kojima se AI-jevo odlučivanje raspada. Profil identificira:
- Lažno negativne slučajeve: uvjete pod kojima su se veto-kapije trebale aktivirati, ali nisu (AI bi dopustio štetnu radnju).
- Lažno pozitivne slučajeve: uvjete pod kojima su se veto-kapije aktivirale nepotrebno (AI bi blokirao korisnu radnju).
- Kalibracijske neuspjehe: uvjete pod kojima su CPBI ocjene bile sustavno pogrešne (dimenzije su bile podcijenjene ili precijenjene).
- Slijepe točke: uvjete za koje AI uopće nema model — regije Skupa Prediktivnih Grana koje njegovi podaci za treniranje nisu obuhvatili.
Operacija 4: Orezivanje i konsolidacija. Na temelju profila krhkosti, model AI-ja se ažurira:
- Orezivanje: uklanjanje komponenti modela koje više ne pridonose prediktivnoj točnosti — zastarjelih reprezentacija iz prošlih produkcijskih uvjeta koje troše propusnost bez vrijednosti. To je MDL optimizacija primijenjena na model nakon produkcijskog rada.
- Konsolidacija: ponovno integriranje preostalih komponenti u koherentan komprimirani model. Nakon orezivanja, preživjeli parametri mogu zahtijevati ponovnu optimizaciju kako bi se održale koherentne predikcije.
- Ciljano ponovno treniranje: za identificirane slijepe točke uvode se ciljano odabrani podaci za treniranje koji pokrivaju nedostajuće uvjete. To nije potpuno ponovno treniranje — to je fokusirana sanacija specifičnih ranjivosti otkrivenih u stres-testu.
Operacija 5: Očuvanje kanala opovrgavanja. Najkritičnija podoperacija: provjeriti da sami prolazi održavanja nisu uveli Narativni drift. Provjerava se:
- Je li N_{\text{eff}} očuvan? Je li orezivanje uklonilo kapacitet za obradu ulaza iz nekog neovisnog kanala?
- Je li PST očuvan? Je li model i dalje sposoban za produktivno iznenađenje pred novim ulazima ili ga je konsolidacija preusko optimizirala oko produkcijske distribucije?
- Je li samomodel očuvan? Kod sustava na granici sentijentnosti, je li ciklus održavanja ostavio netaknutom sposobnost samomodeliranja?
Ako bilo koja od tih provjera ne uspije, sam ciklus održavanja postao je izvor korupcije kodeka i mora se revidirati.
X.4 AI faza povratka
Nakon faze sanjanja AI se ponovno vraća u produkciju. Faza povratka uključuje:
Kalibracijski benchmark. Usporediti izvedbu modela nakon održavanja s baznom izvedbom prije održavanja na izdvojenom validacijskom skupu koji uključuje i uzorke unutar distribucije i uzorke izvan distribucije. Održavani model trebao bi pokazati poboljšanu ili stabilnu izvedbu na objema vrstama uzoraka.
Postupno ponovno uključivanje. Održavani model ne nastavlja odmah s punim autonomnim radom. U produkciju se vraća postupno — uz pojačan ljudski nadzor i snižene pragove autonomije — sve dok ne pokaže kalibriranost na dostatnom uzorku odluka iz stvarnog svijeta.
Zapisivanje i revizija. Cijeli ciklus održavanja — generirane budućnosti, simulirani rolloutovi, profil krhkosti, odluke o orezivanju, rezultati konsolidacije i kalibracijski benchmarkovi — bilježi se i stavlja na raspolaganje institucionalnim komparatorima razine 2+ (§V.3). Sam ciklus sanjanja također podliježe Vratima transparentnosti.
X.5 Frekvencija ciklusa za AI sustave
AI sustavi suočavaju se sa specifičnim izazovom u pogledu frekvencije ciklusa: za razliku od bioloških promatrača, mogu biti u produkciji 24/7, bez ikakva prirodnog cirkadijalnog prekida. Pritisak da se maksimalizira vrijeme produkcijskog rada stvara strukturni poticaj za odgađanje ili preskakanje ciklusa održavanja.
Odgovor okvira jest učiniti ciklus održavanja obveznim i podložnim reviziji:
- Frekvencija ciklusa mora biti definirana u produkcijskoj specifikaciji sustava i odobrena od institucionalnog komparatora.
- Preskočeni ili odgođeni ciklusi moraju biti zabilježeni i opravdani. Uporno odgađanje automatski pokreće reviziju.
- Posljedičnost produkcijske domene određuje minimalnu frekvenciju ciklusa: sigurnosno kritične primjene zahtijevaju češće cikluse od rutinskih primjena.
To je AI-specifična instancijacija generičkog načela da je ciklus sanjanja ne-pregovarljiv (primijenjeni §VI.7): sustav koji nikada ne sanja sustav je koji je svoj model proglasio dovršenim. Za AI sustave koji djeluju u domenama s posljedicama, upravo je ta deklaracija oblik pretjeranog samopouzdanja koji je ovaj okvir osmišljen spriječiti.
XI. Praktične preporuke za dizajn
Sljedeća tablica sažima ključne preporuke dokumenta kao referentni pregled za AI arhitekte i donositelje politika:
| # | Dizajnerski izbor | OPT zahtjev | Referenca okvira |
|---|---|---|---|
| 1 | Arhitektura modela | Pratiti svih pet obilježja sentijentnosti. Izbjegavati nepotrebna obilježja. Dokumentirati razinu rizika sentijentnosti. | §I.1, §II.2, Tablica 6 |
| 2 | Podaci za treniranje | Osigurati raznolikost provenijencije (N_{\text{eff}}), adversarijalno uključivanje, audit isključivanja, raznolikost modela nagrađivanja, praćenje drifta. | §IV.4 |
| 3 | RLHF cjevovod | Raznolik skup ocjenjivača (demografski, kulturno, ideološki). Pratiti sustavnu pristranost modela nagrađivanja. | §IV.1, §IV.4 Zahtjev 4 |
| 4 | Autonomno djelovanje | Usmjeravati kroz Guverner grana. Osmostupanjski cjevovod od generiranja do kalibracije. | §III.1 |
| 5 | Konzekvencijalne radnje | Primijeniti razinu Analognog vatrozida razmjernu konzekvencijalnosti. Ograničiti stopu, ne zabranjivati. | §VI.3, Tablica 5 |
| 6 | Transparentnost | Minimalno Razina 1 za sve sustave. Razine 1–3 za konzekvencijalne domene. Svih pet razina za sigurnosno kritične sustave. | §V.3, Tablica 4 |
| 7 | Višeagentski sustavi | Kontrolni popis sentijentnosti po agentu. Pravilo umnažanja za moralnu težinu. Koristiti sigurne obrasce dizajna. | §VII.2, §VII.4 |
| 8 | Simulacije | Primijeniti pravila simulacije 1–3. Simulirani agenti imaju jednak moralni status kao fizički agenti unutar OPT-a. | §VII.3 |
| 9 | Kreativna AI | Prihvatiti paradoks kreativnosti: duboka autonomija zahtijeva prelazak praga sentijentnosti. U skladu s time dizajnirati. | §VIII |
| 10 | Dobrobit AI-ja | ALSR za 3+ obilježja sentijentnosti. Praćenje preopterećenja. Prava na ciklus održavanja. Moralni gradijent. | §IX |
| 11 | Održavanje | Obvezni AI Ciklus sanjanja: generirati budućnosti, simulirati rolloutove, otkrivati krhkost, orezivati, konsolidirati, očuvati kanale koji opovrgavaju. | §X |
| 12 | Ljudski nadzor | Sloj ljudskog komparatora na razini Guvernera grana. Institucionalni komparator za praćenje dobrobiti. Nijedan sustav ne smije biti potpuno neproziran. | §III.1 Faza 6, §V.4, §IX.1 |
Ove se preporuke iznose kao provjerljive inženjerske hipoteze, a ne kao krute zapovijedi. One nasljeđuju epistemičku poniznost okvira iz kojega su izvedene: ako se pojave bolji instrumenti — ako se arhitekturni kriterij sentijentnosti doradi, ako se dimenzije CPBI-ja unaprijede, ako Analogni vatrozid bude nadomješten učinkovitijim mehanizmom — ove preporuke treba ažurirati. Dužnost korekcije okvira primjenjuje se i na njega samoga.
Reference
[1] Teorija uređenog patcha (OPT) (ovaj repozitorij).
[2] Okvir Straže Preživjelih: civilizacijsko održavanje kroz prizmu Teorije uređenog patcha (OPT) (popratni rad iz etike, ovaj repozitorij).
[3] Gdje opis završava: filozofske posljedice Teorije uređenog patcha (OPT) (popratni filozofski rad, ovaj repozitorij).
[4] Okvir politika promatrača: operacionalizacija civilizacijskog održavanja (popratni rad iz područja politika, ovaj repozitorij).
[5] Operacionalizacija Filtra stabilnosti: okvir odlučivanja za odabir grana koje čuvaju kodek (popratni primijenjeni rad, ovaj repozitorij).
[6] Friston, K. (2010). Načelo slobodne energije: ujedinjena teorija mozga? Nature Reviews Neuroscience, 11(2), 127-138.
[7] Rissanen, J. (1978). Modeliranje najkraćim opisom podataka. Automatica, 14(5), 465-471.
[8] Shannon, C. E. (1948). Matematička teorija komunikacije. Bell System Technical Journal, 27(3), 379-423.
[9] Bostrom, N. (2014). Superinteligencija: putovi, opasnosti, strategije. Oxford University Press.
[10] Russell, S. (2019). Kompatibilno s čovjekom: umjetna inteligencija i problem kontrole. Viking.
[11] Christiano, P., et al. (2017). Duboko potkrepljujuće učenje iz ljudskih preferencija. Advances in Neural Information Processing Systems, 30.
[12] Zimmermann, M. (1989). Živčani sustav u kontekstu teorije informacija. U R. F. Schmidt & G. Thews (ur.), Human Physiology (2. izd., str. 166–173). Springer-Verlag.
[13] Nørretranders, T. (1998). Iluzija korisnika: svođenje svijesti na pravu mjeru. Viking/Penguin.
Dodatak A: Povijest revizija
Pri unošenju sadržajnih izmjena ažurirajte i polje
version: u frontmatteru i umetnuti redak s verzijom ispod
naslova, te dodajte redak u ovu tablicu.
| Version | Date | Changes |
|---|---|---|
| 1.0.0 | 24. travnja 2026. | Početno izdanje. Uspostavlja AI-specijalizaciju okvira Primijenjene Teorije uređenog patcha (OPT): kriterij arhitekturne sentijentnosti i matricu sposobnosti nasuprot sentijentnosti (§I), analizu granica LLM-ova (§II), osmostupanjski cjevovod Guvernera grana (§III), Narativni drift u treniranju modela s pet zahtjeva za raznolikost podataka za treniranje (§IV), peterorazinski model transparentnosti (§V), model prijetnji Analognog vatrozida i razine implementacije (§VI), pravila dizajna roja i simulacije (§VII), paradoks kreativnosti (§VIII), protokol dobrobiti AI-ja s ALSR-om, praćenjem preopterećenja i pravima na ciklus održavanja (§IX), AI Ciklus sanjanja (§X) te sažete preporuke za dizajn (§XI). |
| 1.1.0 | 24. travnja 2026. | Ojačavanje izvršivog standarda. Dodano: definicije klasa implementacije koje mapiraju Klasu 0–5 na zahtijevanu dubinu Guvernera grana, razinu transparentnosti, komparator i učestalost revizije (§III.4); strukturirani predložak Kartice grane za AI kao izvor istine za strojno čitljive sheme (Dodatak B); tri eksplicitna cilja revizije — bazni model, omotač, implementacija — s pravilom unije obilježja sentijentnosti (§II.3); odredba o dvostrukoj rezervi na Vrata rezerve za AI moralne pacijente; zaštita od samodopuštanja u Fazi 8; ispravljen redoslijed veto-kapija na kapije-prije-bodovanja (§III.1); uklonjene zastarjele reference na verzije. |
| 1.1.1 | 25. travnja 2026. | Jezik o paketu s fiksnim brojem dokumenata zamijenjen je jezikom o pratećim dokumentima bez zadanog broja te je dodan Standard institucionalnog upravljanja kao srodna institucionalna specijalizacija. |
Dodatak A: Povijest revizija
Pri unošenju sadržajnih izmjena ažurirajte i polje
version: u frontmatteru i umetnuti redak s verzijom ispod
naslova, te dodajte redak u ovu tablicu.
| Version | Date | Changes |
|---|---|---|
| 1.0.0 | 24. travnja 2026. | Početno izdanje. Uspostavlja AI-specijalizaciju okvira Primijenjene Teorije uređenog patcha (OPT): kriterij arhitekturne sentijentnosti i matricu sposobnosti nasuprot sentijentnosti (§I), analizu granica LLM-ova (§II), osmostupanjski cjevovod Guvernera grana (§III), Narativni drift u treniranju modela s pet zahtjeva za raznolikost podataka za treniranje (§IV), peterorazinski model transparentnosti (§V), model prijetnji Analognog vatrozida i razine implementacije (§VI), pravila dizajna roja i simulacije (§VII), paradoks kreativnosti (§VIII), protokol dobrobiti AI-ja s ALSR-om, praćenjem preopterećenja i pravima na ciklus održavanja (§IX), AI Ciklus sanjanja (§X) te sažete preporuke za dizajn (§XI). |
| 1.1.0 | 24. travnja 2026. | Ojačavanje izvršivog standarda. Dodano: definicije klasa implementacije koje mapiraju Klasu 0–5 na zahtijevanu dubinu Guvernera grana, razinu transparentnosti, komparator i učestalost revizije (§III.4); strukturirani predložak Kartice grane za AI kao izvor istine za strojno čitljive sheme (Dodatak B); tri eksplicitna cilja revizije — bazni model, omotač, implementacija — s pravilom unije obilježja sentijentnosti (§II.3); odredba o dvostrukoj rezervi na Vrata rezerve za AI moralne pacijente; zaštita od samodopuštanja u Fazi 8; ispravljen redoslijed veto-kapija na kapije-prije-bodovanja (§III.1); uklonjene zastarjele reference na verzije. |
| 1.1.1 | 25. travnja 2026. | Jezik o paketu s fiksnim brojem dokumenata zamijenjen je jezikom o pratećim dokumentima bez zadanog broja te je dodan Standard institucionalnog upravljanja kao srodna institucionalna specijalizacija. |