OPT Red Team — Standing Objection Log
v1.0 — April 30, 2026
Czerwony Zespół OPT
Cel. Higiena uczciwego arbitra dla Teorii uporządkowanego patcha (OPT). Ten dokument gromadzi najsilniejsze zarzuty wobec tego ujęcia — obecne, przewidywane i podnoszone wcześniej — wraz z uczciwą oceną, a nie obroną. Jest publikowany jako materiał towarzyszący formalnym artykułom, lecz celowo nie jest zoptymalizowany pod cytowalność ani retorykę: jego zadaniem jest uwidaczniać słabości, a nie wygrywać spory.
Zasada użycia. Aktualizuj ten plik przez dodawanie zarzutów; nie skracaj go. Test Sokala na to, czy zarzut został potraktowany poważnie, jest następujący: ktoś wrogo nastawiony do tego ujęcia powinien przeczytać dany wpis i powiedzieć „tak, o to właśnie mi chodzi.” Jeśli powiedziałby „złagodziliście to,” wpis wymaga przeredagowania.
Odsyłacze. Zobowiązania falsyfikacyjne znajdują się
w opt-theory.md §6.8 (F1–F5). Teorie, z którymi OPT jest
rzeczywiście niezgodna, znajdują się w opt-theory.md §7.12.
Ten plik idzie dalej niż oba tamte: dokumentuje konkretne argumenty oraz
uczciwą ocenę tego, jak OPT obecnie sobie wobec nich radzi.
R1. Zarzut uniwersalności (pułapka teorii strun)
Teza. Solomonoffowskie \xi jest tak permisywne, że każdą obliczalną strukturę można osadzić jako posterior. „OPT jest strukturalnie zgodna z X” jest zatem bliskie pustosłowiu: ramy teoretyczne nie potrafią niczego wykluczyć, a jedynie wszystko pomieścić. Każda udana „korespondencja strukturalna” w §7 / §IV stanowi dowód permisywności, a nie wglądu. Wzorzec ten przypomina teorię strun: wewnętrznie bogatą strukturę matematyczną, która mieści wszystko i niczego nie przewiduje.
Uczciwa ocena. To najgłębszy zarzut, jaki obecnie znajduje się na stole, a linie obrony OPT mają charakter strukturalny, nie empiryczny. Opublikowana odpowiedź (§7.12, punkt 6) nazywa ten problem, ale go nie rozprasza. Jedyną rzeczą, która przekształca OPT ze światopoglądu w program badawczy, są zobowiązania prerejestracyjne z §6.8 — a te nie zostały jeszcze przetestowane. Dopóki F1–F5 nie dostarczą przynajmniej jednego ilościowego potwierdzenia wartości liczbowej określonej przed pomiarem, zarzut uniwersalności pozostaje nieobalony.
Co zmieniłoby ocenę. Udana prerejestrowana predykcja z wartością liczbową węższą niż zakres a priori wynikający z teorii konkurencyjnych. Do tego czasu rozdziały o korespondencji strukturalnej pozostają dekoracją.
R2. Stronniczość selekcyjna w analizie porównawczej
Teza. §7 (opt-theory) oraz §IV (opt-philosophy) przywołują ramy teoretyczne, które pasują, i nie podejmują poważnie tych, które nie pasują. Husserl, Merleau-Ponty, Gell-Mann, Van Raamsdonk, Wheeler — wszyscy są uwzględnieni. Ścisli eliminatywiści (Frankish), silni redukcyjni fizykaliści, antyfunkcjonaliści oraz kognitywiści uważający, że wąskie gardło jest zjawiskiem przygodnym, są w dużej mierze nieobecni albo sprowadzeni do jednoakapitowych replik. Każda kolejna rama teoretyczna dodana do §7 wzmacnia wrażenie konwergencji; sama ta asymetria stanowi świadectwo stronniczości.
Uczciwa ocena. W znacznej mierze trafne. §7.12 dodano częściowo po to, by odpowiedzieć na ten zarzut, ale nadal jest to jedna podsekcja wobec jedenastu podsekcji poświęconych konwergencji. Tabela w §IV opt-philosophy podobnie przechyla się ku zgodności. Schemat pracy, który doprowadził do powstania §7.5–§7.11 w 2026-04, wyglądał następująco: zidentyfikować luki → wypełnić je → powtórzyć — bez równoważnej liczby wpisów typu „a oto dlaczego ta pokrewna teoria się z OPT nie zgadza”.
Co zmieniłoby ocenę. Rozbudowa §7.12 tak, by obejmował co najmniej tyle samo stanowisk i z taką samą głębią jak podsekcje dotyczące konwergencji. Drugi przegląd §7.1–§7.11, wskazujący, gdzie teoria uznana za zbieżną konkretnie nie zgadza się z OPT, a nie tylko gdzie się z nim pokrywa.
R3. \Delta_{\text{self}} jako karta wyjścia z więzienia
Teza. Reziduum fenomenalne jest z założenia strukturalnie niefalsyfikowalne, co jest właściwe jako lokalizator trudnego problemu, ale zarazem stwarza zagrożenie metodologiczne: każdy dowód niezgodny z teorią można wchłonąć do formuły „to należy do \Delta_{\text{self}}”. Najsilniejsze twierdzenie formalne tego ujęcia jest zarazem jego najsłabszym twierdzeniem empirycznym — to właśnie ta część, która pozostaje osłonięta przed testem.
Uczciwa ocena. §6.8 próbuje wyraźnie odgrodzić ten problem: \Delta_{\text{self}} zostaje wyłączone z falsyfikowalnego rdzenia, a „wchłanianie falsyfikacji F1–F5 do \Delta_{\text{self}}” zostaje nazwane dyskwalifikującym przeformułowaniem post hoc. To, czy ta zapora utrzyma się w praktyce, pozostaje kwestią otwartą — zależy od zdyscyplinowanego stosowania przez przyszłych autorów i recenzentów, a nie od samego aparatu formalnego. Zagrożenie zostaje ograniczone, lecz nie wyeliminowane.
Co zmieniłoby ocenę. Udokumentowany przypadek, w którym ramy teoretyczne przyjmują falsyfikację w sposób jednoznaczny, bez odwoływania się do \Delta_{\text{self}} ani do prymatu substratu jako drogi odwrotu. Dopóki taki przypadek nie istnieje, ta zapora ma charakter prowizoryczny.
R4. Antropocentryczna inżynieria odwrotna C_{\max}
Teza. Wartość liczbowa C_{\max} \approx \mathcal{O}(10) bitów/s została uzyskana przez cofanie się od ludzkiej przepustowości introspekcyjnej (szacunek „iluzji użytkownika” Nørretrandersa, dane dotyczące attentional blink, nasycenie Norwicha-Wonga), a nie przez wyprowadzenie z pierwszych zasad. „Informacyjna konieczność” tej konkretnej liczby budzi podejrzenia: każda teoria ufundowana na kompromisie szybkość-zniekształcenie mogłaby wskazać inną przepustowość i sprawić, by działała. Ta liczba jest dopasowaniem, a nie predykcją.
Uczciwa ocena. W większości trafne. Aneks T-1 wyprowadza pewien zakres, ale jest on na tyle szeroki, że raczej obejmuje empirycznie obserwowaną wartość, niż ją przewiduje. F1 przyjmuje \mathcal{O}(10) z oknem dwóch rzędów wielkości, co jest hojne. Rzeczywista prerejestracja wymagałaby konkretnej liczby, węższej niż zakres danych ludzkich, wyprowadzonej bez użycia danych ludzkich.
Co zmieniłoby ocenę. Ponowne wyprowadzenie C_{\max} z ograniczeń na poziomie substratu (ważenie Solomonoffa + Landauer + wymiarowość otuliny Markowa), dające konkretną liczbę — najlepiej taką, która różni się od ludzkiego szacunku introspekcyjnego o mały, lecz określony czynnik — a następnie empiryczna weryfikacja tej niewielkiej rozbieżności.
R5. Filtr stabilności jest tautologią
Teza. „Obserwatorzy istnieją wtedy i tylko wtedy, gdy ich szybkość predykcyjna mieści się w granicach ich przepustowości” jest definicją, a nie odkryciem. Każdy pozorny obserwator, który istnieje, w sposób trywialny spełnia Filtr; każdy domniemany obserwator, który nie istnieje, w sposób trywialny go nie spełnia. Filtr nie może niczego ani dopuścić, ani wykluczyć — jest kolistym przeformułowaniem tego, które konfiguracje mają kształt obserwatora.
Uczciwa ocena. Częściowo trafne. Filtr stabilności, w postaci sformułowanej w §3, ma charakter definicyjny — charakteryzuje zgodność z obserwatorem, zamiast przewidywać ją na podstawie niezależnych przesłanek. Obrona tego ujęcia w ramach teorii polega na tym, że Filtr generuje odrębne przewidywania (§6.1–§6.7), które nie wynikałyby z odczytania tautologicznego: hierarchię przepustowości, Stan Zerowy Wysokiego \Phi, oczekiwanie dylatacji czasowej. Gdyby Filtr był rzeczywiście tautologiczny, twierdzenia te nie miałyby treści empirycznej.
Co zmieniłoby ocenę. Wykazanie, że przewidywania z §6 rzeczywiście zależą od Filtru, zamiast być motywowane niezależnie. Obecnie jest to jedynie stwierdzane; nie przeprowadzono formalnej weryfikacji, że na przykład Stan Zerowy Wysokiego \Phi wynika jednoznacznie z Filtru stabilności, a nie z jakiegoś słabszego, niezależnego zobowiązania teoretycznego.
R6. Korespondencje strukturalne w §IV / §7 są post hoc
Teza. Gdy OPT zestawia się z Hume’em, Husserlem, Frankfurtem, Merleau-Pontym, Metzingerem itd., mapowanie to konstruowane jest po fakcie, już po poznaniu wniosków, do których doszła każda z tych tradycji. To inżynieria wsteczna, a nie predykcja. Ramy teoretyczne, których nie dałoby się zbudować bez uwzględnienia tych tradycji, nie mogą twierdzić, że wyprowadzają ich rezultaty — mogą jedynie twierdzić, że odzyskują je w innym słowniku.
Uczciwa ocena. To trafne w ścisłym sensie. OPT budowano ze znajomością docelowych punktów odniesienia, a rozdziały §IV / §7 mają charakter wyjaśniający, nie predykcyjny. Obrona frameworku — że oferuje głębszą rację strukturalną, dlaczego zbieżne tradycje dostrzegły to, co dostrzegły — jest wiarygodna, ale nieweryfikowalna, ponieważ nie istnieje kontrolowany eksperyment, w którym OPT przewiduje wnioski danej tradycji, zanim sama tradycja do nich dojdzie. Ta zbieżność jest z definicji post hoc.
Co zmieniłoby tę ocenę. Nowe twierdzenie filozoficzne lub empiryczne wyprowadzone wyłącznie z informacyjno-teoretycznego aparatu OPT, do którego nie doszła żadna istniejąca tradycja, a które późniejsza praca w obrębie tych tradycji niezależnie by potwierdziła. Byłby to retrospektywny dowód mocy wyjaśniającej.
R7. Wąskie gardło przepustowości jako kontyngencja ewolucyjna
Teza. GWT, standardowe stanowisko w naukach kognitywnych, traktuje wąskie gardło dostępu do świadomości jako cechę wyewoluowaną w korze naczelnych, a nie jako strukturalną konieczność informacyjną. Nie ma przekonującego argumentu, że to wąskie gardło musiało przyjąć właśnie taką postać; dostatecznie odmienna ścieżka ewolucyjna mogłaby doprowadzić do fenomenalności w architekturze równoległej. „Konieczność informacyjna” w OPT to przeformułowanie faktu przygodnego tak, jakby był faktem strukturalnym.
Uczciwa ocena. To najmocniejsza, bardziej skonkretyzowana wersja R1. Odpowiedź OPT (§7.10) głosi, że wąskie gardło jest konieczne, ponieważ niekompresowalne strumienie równoległe naruszają warunek przepustowości — ale to zakłada Filtr stabilności, czyli właśnie to, o co toczy się spór (R5). Dialektyka zapętla się. Uczciwe stanowisko jest takie, że teza o konieczności jest obecnie postulowana, a nie dowiedziona; F1 w §6.8 stanowi zobowiązanie empiryczne, które — jeśli zostanie potwierdzone — dostarczyłoby brakującego argumentu.
Co zmieniłoby ocenę. Albo (a) pomiar F1, który dawałby wyniki ściśle skupione wokół \mathcal{O}(10) w skrajnie odmiennych architekturach poznawczych (ludzie, walenie, krukowate, a docelowo także SI), co sugerowałoby pochodzenie strukturalne, a nie przygodne; albo (b) czyste teoretyczne wykazanie, że żaden system zgodny z Filtrem stabilności nie może obyć się bez tego wąskiego gardła.
R8. Rozszerzenie dotyczące „świadomości AI” jest w praktyce niefalsyfikowalne
Teza. §7.8 / §6.7 zobowiązuje się do twierdzenia, że LLM-y i aproksymacje ograniczone przez AIXI nie są świadome, ponieważ brakuje im wąskiego gardła C_{\max}. F3 (dylatacja czasowa pod wpływem wąskiego gardła) jest co do zasady testowalne, lecz w praktyce nikt nie zbuduje celowo zdławionego syntetycznego agenta działającego z prędkością zegara 10^4 \times i nie będzie go pytał o subiektywny upływ czasu. Predykcja sprawia wrażenie stanowczo zadeklarowanej, ale operacyjnie pozostaje bezwładna.
Uczciwa ocena. W dużej mierze trafne według stanu na 2026-04. F3 wymaga konkretnego protokołu eksperymentalnego oraz co najmniej jednej finansowanej lub publicznie zadeklarowanej próby jego przeprowadzenia. Bez tego predykcje dotyczące AI w §7.8 sprowadzają się do: „byłyby testowalne, gdyby ktoś spróbował” — a to jest słabsze zobowiązanie niż F2 (High-\Phi Null, gdzie rozstrzygające testy między IIT a OPT są faktycznie konstruowane).
Co zmieniłoby ocenę. Konkretne instytucjonalne zobowiązanie do przeprowadzenia F3 (np. grupa badawcza, datowany kamień milowy, protokół eksperymentalny uzgodniony przed rozpoczęciem konstrukcji). Bez tego F3 pozostaje jedynie wstępną prerejestracją.
R9. Twierdzenie o priorytecie substratu jest wewnętrznie niefalsyfikowalne
Teza. §3.12 argumentuje, że substrat jest „bardziej fundamentalny” niż render, odwołując się do argumentu z nieodwracalności termodynamicznej, lecz każdy test tego priorytetu musiałby zostać przeprowadzony wewnątrz renderu. Twierdzenie to jest wewnętrznie niespójne: jeśli priorytet substratu nie pociąga za sobą żadnej operacyjnej różnicy wewnątrz renderu, to nie ma treści; jeśli natomiast pociąga za sobą operacyjną różnicę, to sama ta różnica jest częścią renderu, a nie świadectwem dotyczącym substratu.
Uczciwa ocena. Zostało to uznane w §3.12 i §6.8 (wyłączone z F1–F5). Obrona tego stanowiska polega na tym, że priorytet substratu przedstawia się jako zobowiązanie ontologiczne, a nie jako falsyfikowalne twierdzenie empiryczne. To, czy zobowiązania ontologiczne niepodlegające testowi empirycznemu powinny być dopuszczane w ramach naukowego ujęcia, stanowi odrębne pytanie metodologiczne. Ścisli empiryści (R5 / wpis §7.12, pkt 5) odrzucą tę kategorię; OPT ją zachowuje, ale wyraźnie oznacza.
Co zmieniłoby ocenę. Jest to trwała rozbieżność stanowisk, a nie pytanie empiryczne. Uczciwym posunięciem jest utrzymanie priorytetu substratu w izolacji od F1–F5 i zaakceptowanie, że ścisłych empirystów to nie przekona.
R10. Same „strukturalne kryteria wyłączenia” są strukturalnie łatwe do obejścia
Teza. Okno dwóch rzędów wielkości w F1, wymóg F2 „uzgodnionego protokołu przed konstrukcją”, a także F3 „dla k \in [10, 10^4]” pozostawiają dość luzu interpretacyjnego, by rozumowanie motywowane mogło znajdować sposoby uznawania niemal-falsyfikacji za niefalsyfikacje. Kryteria wyłączenia wyglądają na rygorystyczne, lecz w praktyce można je obchodzić przez zawężanie definicji, kwestionowanie pomiarów lub powoływanie się na zakłócające czynniki eksperymentalne.
Uczciwa ocena. To meta-zarzut: prerejestracja jest wiążąca tylko w takim stopniu, w jakim zdyscyplinowani są ludzie ją interpretujący. OPT nie może samoegzekwować swoich zobowiązań do falsyfikowalności. Środkiem łagodzącym z §6.8 jest wymóg, by każde osłabienie zostało oznaczone w Historii wersji jako ponowna rejestracja, co unieważnia wcześniejsze testy — lecz przyszły autor może po prostu tak postąpić i zaakceptować ten koszt. Zaufanie do kryteriów wyłączenia zależy od kontroli ze strony osób trzecich, a nie wyłącznie od samego formalnego zobowiązania.
Co zmieniłoby ocenę. Zewnętrzna, adwersarialna recenzja ekspercka nastawiona na sprawdzanie, czy sformułowania F1–F5 zawierają podatną na manipulację nieostrość, oraz na ich doprecyzowanie. Prerejestracja u strony trzeciej (OSF, AsPredicted), a nie wyłącznie w Historii wersji.
R11. CMB niesie kwantowe sygnatury, których kodek nie musiał wymyślać
Teza. Kosmiczne mikrofalowe promieniowanie tła
wykazuje specyficzne sygnatury mechaniki kwantowej — niemal
skalo-niezmiennicze widmo mocy, niemal gaussowskie fluktuacje,
ograniczenia stosunku modów tensorowych do skalarnych oraz własności
statystyczne zgodne z przewidywaniami inflacyjnej kwantowej teorii pola
z dokładnością satelity Planck. Konwencjonalnie interpretuje się je jako
ślady fluktuacji próżni kwantowej działających w skalach kosmologicznych
około 13,8 mld lat przed pojawieniem się jakiegokolwiek obserwatora.
Jeśli QM jest „artefaktem rozdzielczości” kodeka obserwatora
ograniczonego przepustowością (opt-theory.md §7.1 punkty
1–2), to dlaczego głęboka kosmologiczna przeszłość — obserwowana
zbiorczo, bez pomiaru drobnoziarnistego — niesie sygnatury kwantowe, a
nie sygnatury klasycznego szumu termicznego? To konkretny kosmologiczny
przypadek R1 i wyraźny punkt nacisku na odczytanie
QM-jako-cechy-kodeka.
Uczciwa ocena. OPT może wchłonąć obserwacje CMB tylko pod warunkiem przyjęcia odczytania mocnego, a nie luźnego. Odczytanie luźne — „QM to księgowość po stronie obserwatora podczas pomiaru” — zderza się z danymi kosmologicznymi. Odczytanie mocne — kompresja kodeka ma globalnie strukturę Hilbertowską, stosowaną jednolicie w przód i wstecz w renderowanym czasie, przy czym najbardziej kompresowalna przeszłość jest wybierana przez parsymonię Solomonoffa — jest wewnętrznie spójne: inflacyjno-kwantowa przeszłość stanowi wyjaśnienie o minimalnej długości opisu dla obserwowanego wzorca CMB, a kodek jest zatem zmuszony przez parsymonię, by ją renderować. Odpowiedź tę wspierają §8.5 (atemporalny substrat), §7.1 punkt 4 (uogólniony wybór opóźniony) oraz łańcuch QECC w Aneksie P-2. Ceną jest związanie OPT z twierdzeniem silniejszym i bardziej falsyfikowalnym niż odczytanie luźne: struktura Hilbertowska kodeka działa na całej renderowanej osi czasu, a każdy obserwator ograniczony przepustowością, dysponujący spójną kosmologiczną przeszłością, będzie dostrzegał w niej sygnatury kwantowe. Akapit zobowiązania w §7.1 (dodany w v3.4.0) czyni to stanowisko publicznym.
Co zmieniłoby ocenę. Własności historii kosmologicznej, których minimalna długość opisu przekracza to, co wytwarza domyślny model inflacyjno-kwantowy — to znaczy własności, których kodek nie wymyśliłby pod presją parsymonii, a które mimo to występują w danych. Konkretni kandydaci: trwałe niegaussowskości o wysokiej złożoności algorytmicznej, opierające się każdemu krótkiemu modelowi inflacyjnemu; anizotropie CMB, które wytrzymują krytyczną analizę bez jakiegokolwiek kompresowalnego wyjaśnienia inflacyjnego; sygnatury pierwotnych fal grawitacyjnych o swoistym pochodzeniu ze zdarzeń kwantowych, których inferencyjny kodek Hilbertowski działający wstecz w czasie nie potrafi odtworzyć. Każda taka obserwacja, potwierdzona przez strony trzecie i odporna na alternatywne skompresowane wyjaśnienia, stanowiłaby nadmiar długości opisu przeciwko mechanizmowi najbardziej-kompresowalnej-przeszłości i falsyfikowałaby odczytanie mocne. Operacyjnie kwalifikowałoby się to jako rodzaj „niezależnej demonstracji” wymienionej w kryteriach Project Shutdown z §6.8, mimo że nie jest to bezpośrednio jeden z punktów F1–F5.
R12. Zobowiązanie do mocnej interpretacji wygląda jak motywowana, post hoc immunizacja
Teza. Akapit §7.1 dotyczący zobowiązania do geometrii kodeka (dodany w v3.4.0, 30 kwietnia 2026) został dodany bezpośrednio w odpowiedzi na wyzwanie CMB-QM podniesione podczas tej samej sesji. Wzmacnia on interpretację QM w OPT: od luźnego ujęcia jako „rachunkowości po stronie obserwatora w chwili pomiaru” do mocnego ujęcia jako „struktury Hilbertowskiej w całej renderowanej osi czasu”, co w wygodny sposób przekształca obserwacje CMB-QM z falsyfikatora w predykcję. Wskazany falsyfikator — „nadmiar długości opisu w historii kosmologicznej” — jest zdefiniowany technicznie, lecz w praktyce trudny do wykazania. Strukturalnie właśnie tak zachowują się programy badawcze pod presją: zaostrzają ramę pojęciową, by wchłonąć wyzwanie, ogłaszają, że było ono od początku implicite zawarte, i wskazują falsyfikator na tyle abstrakcyjny, że żadna obserwacja w bliskiej perspektywie czasowej nie mogłaby go spełnić. R1 oskarża OPT o dostosowywanie się do wszystkiego; R12 oskarża OPT o uczenie się dostosowywania w czasie rzeczywistym. Wówczas R11 staje się dowodem na rzecz R12, a nie niezależnym potwierdzeniem OPT.
Uczciwa ocena. Częściowo trafne i częściowo dające się obronić.
Poprawne formalnie. Zobowiązanie zostało dodane w odpowiedzi na konkretne wyzwanie. Choć §8.5 (atemporalny substrat), §7.1 punkt 4 (uogólniony delayed choice) oraz Aneks P-2 (łańcuch QECC) już wcześniej wspierały mocną interpretację, publiczne zobowiązanie do tej interpretacji jako kanonicznej interpretacji OPT było nowością w v3.4.0. Z zewnątrz wygląda to jak przesuwanie bramki; od wewnątrz — jak doprecyzowanie. Żaden test zewnętrzny nie odróżnia jednego od drugiego.
Częściowo da się obronić. Mocna interpretacja jest kosztem, a nie darmowym zyskiem — zamyka drogę odwrotu do luźnej interpretacji, która w przeciwnym razie pozostawałaby dostępna wobec przyszłych wyzwań tego samego rodzaju. OPT w wersji v3.4.0 jest bardziej falsyfikowalna niż OPT w wersji v3.3.0, a nie mniej. Wskazany falsyfikator (nadmiar długości opisu / minimalna długość opisu) ma dającą się określić treść matematyczną, nawet jeśli jego operacjonalizacja jest trudna, więc nie oznacza po prostu „czegokolwiek, co uznamy za nieważne”.
Stanowisko uczciwe. Zobowiązanie z v3.4.0 nie liczy się jako dowód na rzecz OPT. Jest to doprecyzowanie, które przesuwa ciężar spoczywający na ramach teoretycznych. Obserwacje CMB, które skłoniły do przyjęcia tego zobowiązania, nie mogą być przywoływane jako potwierdzenie, ponieważ same były bodźcem do jego sformułowania. Na empiryczny status OPT w ramach mocnej interpretacji wpływają wyłącznie niezależne przyszłe testy predykcji v3.4.0 — obserwacje lub analizy powstałe po 30 kwietnia 2026 roku, przygotowane przez podmioty, które nie uczestniczyły w formułowaniu tej ramy.
Co zmieniłoby tę ocenę. Albo (a) obserwacja kosmologiczna dokonana po 30 kwietnia 2026 roku, którą zobowiązanie v3.4.0 wyraźnie przewiduje, a którą konkurencyjne ramy przewidują mniej jednoznacznie — byłby to dowód, że zobowiązanie stanowiło rzeczywiste uprzedzające ograniczenie, a nie post hoc wchłonięcie wyzwania; albo (b) komentarz zewnętrzny identyfikujący niewypowiedziane implikacje mocnej interpretacji, których nie przewidziano w chwili przyjęcia zobowiązania — osłabiałoby to obronę typu „to zawsze było implicite zawarte” i wzmacniało odczytanie post hoc; albo (c) doprecyzowanie przez stronę trzecią sformułowania falsyfikatora do postaci konkretnej klasy mierzalnych obserwabli, co uczyniłoby „nadmiar długości opisu” operacyjnie odrębnym, a nie jedynie abstrakcyjnym.
R13. Wartość 10 bitów/s stanowiąca podstawę F1 sama w sobie jest kwestionowana
Teza. F1 (§6.8) opiera się na „ludzkiej subiektywnej przepustowości predykcyjnej C_{\max} \approx \mathcal{O}(10) bitów/s”, wyprowadzonej z pracy Zheng & Meister 2024 [23] oraz czterech dekad zbieżnych badań psychofizycznych. Jednak wartość 10 bitów/s została zakwestionowana w literaturze z 2025 roku — na przykład w pracy „The brain works at more than 10 bits per second” (PMC12320479) — gdzie argumentuje się, że kanały świadomego dostępu są szersze niż kanoniczne oszacowanie, jeśli zmieni się metodologię pomiaru. Jeśli wartość kanoniczna jest błędna o niewielki współczynnik, centralne zobowiązanie empiryczne OPT wymaga rekalibracji; jeśli jest błędna o rzędy wielkości, problemem staje się samo okno F1.
Uczciwa ocena. Okno F1 zostało celowo ustawione szeroko (2 rzędy wielkości w każdą stronę) właśnie dlatego, że bazowa wartość empiryczna jest sporna i wrażliwa na metodologię. Sam fakt, że punkt odniesienia 10 bitów/s jest kwestionowany, nie obala F1 — wartości od \sim 10^{-1} do \sim 10^3 bitów/s nadal mieściłyby się w oknie F1, a \sim 100 bitów/s nie liczyłoby się nawet jako bliskie sfalsyfikowanie. Oznacza to jednak, że F1 nie może być przedstawiane tak, jakby opierało się na ustalonym pomiarze. Strukturalnym wymogiem, od którego OPT faktycznie zależy, jest istnienie niskoprzepustowego, szeregowego wąskiego gardła, a nie jego dokładna wartość liczbowa — i rozróżnienie z §7.8 między kryterium strukturalnym a stałą biologiczną (dodane w v3.4.0) czyni to explicite. F1 pozostaje użytecznym, uprzednio zarejestrowanym zobowiązaniem dla ludzkich obserwatorów, ale jego empiryczny punkt odniesienia ma charakter prowizoryczny, a nie ustalony.
Co zmieniłoby ocenę. Albo (a) niezależna reprodukcja pomiaru przepustowości świadomego dostępu, zbieżna do wartości obarczonej znacznie mniejszymi przedziałami błędu niż w obecnej literaturze, co pozwoliłoby zawęzić F1 do ostrzejszego testu; albo (b) wiarygodny argument metodologiczny, że sam konstrukt wąskiego gardła nie utrzymuje się przy zmianie schematu pomiarowego — co stanowiłoby wyzwanie głębsze niż R13 i kierowałoby do R5 (Filtr stabilności jako tautologia). Stan pośredni pozostaje aktualny: należy zachować F1 w obecnym brzmieniu, z zastrzeżeniem, że jego empiryczny punkt odniesienia pozostaje nieustalony.
R14. Obserwacje historii kosmologicznej są w zasadzie testowalne, lecz w najbliższym horyzoncie czasowym żaden wynik nie będzie rozstrzygający
Teza. R11 wskazuje „nadmiar długości opisu w cechach historii kosmologicznej ponad inflacyjno-kwantowy wariant domyślny” jako falsyfikator zobowiązania §7.1 dotyczącego geometrii kodeka. Według stanu na 2026-04 obecne ograniczenia CMB wykluczają silną niegaussowskość, lecz nie są jeszcze na tyle rygorystyczne, by wykluczyć inflacyjno-kwantowy wariant domyślny; ograniczenia dotyczące pierwotnych fal grawitacyjnych nadal się zaostrzają, ale bez detekcji. Żadna obserwacja z 2026 roku nie zmieniła obrazu ani na korzyść, ani na niekorzyść mocnej interpretacji OPT.
Uczciwa ocena. Falsyfikator z R11 jest rzeczywiście operacyjny w zasadzie, ale obecnie nie jest jeszcze aktywny. To właściwy stan dla tego rodzaju zobowiązania strukturalnego: ramy teoretyczne wskazały, co by je obaliło, wspólnota eksperymentalna zmierza ku bardziej rygorystycznym testom, a żaden pozytywny wynik nie pojawił się dotąd w żadną stronę. Uczciwym posunięciem jest pozostawić R11 bez zmian i corocznie weryfikować ten wpis wraz z napływem nowych danych kosmologicznych.
Co zmieniłoby ocenę. Formalny wynik Simons Observatory / LiteBIRD / CMB-S4, który albo (a) wykryje cechy, których minimalna długość opisu w ramach inflacyjno-kwantowego wariantu domyślnego przewyższa długość opisu konkurencyjnych ujęć skompresowanych — falsyfikując mocną interpretację i uruchamiając rozważenie §6.8 Project Shutdown; albo (b) zaostrzy istniejące ograniczenia na tyle, by przekształcić falsyfikator z R11 ze stanu „w zasadzie” w stan „obecnie podtrzymany”, przy znacznie mniejszych błędach — wzmacniając mocną interpretację bez jej potwierdzania. Każdy z tych ruchów uzasadnia wyraźną, opatrzoną adnotacjami aktualizację R11.
Uwagi operacyjne
- Gdy pojawia się nowy zarzut, dodaj go jako kolejny wpis R z zachowaniem tej samej struktury: teza, uczciwa ocena, co zmieniłoby tę ocenę.
- Gdy zostanie spełniony warunek „co zmieniłoby tę ocenę” dla danego wpisu, nie usuwaj wpisu — opatrz go datą i wynikiem oraz zaktualizuj ocenę.
- Przeglądaj wpisy co kwartał. Jeśli w ramach teorii nagromadziła się istotna nowa treść, sprawdź, czy któryś z istniejących wpisów R nie został przez nią po cichu osłabiony (np. „OPT twierdzi teraz X, co pogarsza R3”).
- Autor powinien oprzeć się pokusie pisania defensywnego prozą w tym pliku. Zadanie polega tu na przegrywaniu, a nie na wygrywaniu.