Zamiast opierać się na intuicji czy emocjach, zastosowałem podejście matematyczno-modelowe do weryfikacji wyników wyborów na poziomie każdej komisji. Wyniki wskazują, że w wybranych przypadkach rozbieżności między przewidywaniami modelu a rzeczywistością są na tyle duże, że wymagają ponownej, niezależnej weryfikacji.
W związku z licznymi nadinterpretacjami, pragnę podkreślić: moja analiza wskazuje na możliwe słabości systemu weryfikacji liczenia i możliwe wystąpienie nieprawidłowości, a nie jest dowodem na sfałszowanie wyborów czy dowodem, że wynik w oflagowanej komisji ma nieprawidłowości, gdyż algorytm automatycznie flaguje odstępstwo od spodziewanego wyniku, ale każda wytypowana komisja wymaga dalszej analizy i weryfikacji (np. oceny charakterystyki komisji, lokalnych wydarzeń, przeliczenia głosów itp.), a same anomalie mogą mieć w pełni racjonalne wyjaśnienia i nie są dowodem na uchybienie. Używanie jej w takim kontekście jest niezgodne z moimi intencjami i nie wyrażam na to zgody.
Przeczytaj pełne stanowiskoBędzie długo, ale ma być długo, bo to zbyt poważna kwestia by zmieścić ją w 2 zdaniach, że z matematycznego punktu widzenia wyniki w komisjach to jakiś dramat i że należy policzyć głosy jeszcze raz.
Więc gdy komuś chce się jednak czytać więcej, zapraszam do lektury i analizy tabel ze screenshotów.
W gąszczu powyborczych emocji, gdzie każda ze stron politycznego sporu przedstawia swoje racje, łatwo zagubić się w domysłach i oskarżeniach. Jednak przy powszechnym dostępu do danych, mamy narzędzia, by wyjść ponad tę burzę w przestrzeni publicznej i spojrzeć na wyniki z perspektywy chłodnej analizy matematycznej z wykorzystaniem narzędzi programistycznych. Metodycznie i do celu. Zainspirowany całą tą awanturą na temat potencjalnych nieprawidłowości, postanowiłem napisać program (w pythonie), który pozwoliłby zweryfikować, czy w oficjalnych protokołach Państwowej Komisji Wyborczej kryją się anomalie.
Celem tego tekstu nie jest ferowanie wyroków. Jest nim przedstawienie obiektywnej, opartej na danych analizy, która wykracza poza proste porównania i pokazuje, gdzie system liczenia głosów mógł zawieść.
Pierwszym, najbardziej naturalnym odruchem było proste porównanie wyników kandydatów - Rafała Trzaskowskiego (RT) i Karola Nawrockiego (KN) - pomiędzy pierwszą a drugą turą. Analiza wykazała istnienie 130 obwodów, w których RT, wbrew ogólnemu trendowi, stracił głosy. Na pierwszy rzut oka - alarmujący sygnał.
Jednak rzetelność naukowa wymaga wykonania analizy lustrzanej. O razu więc jak zaczęła się wrzawa 2 dni temu napisałem prosty skrypt w pythonie i sprawdziłem więc, ile było komisji, w których to Karol Nawrocki zanotował spadek lub stagnację, przy jednoczesnym gwałtownym wzroście poparcia dla Rafała Trzaskowskiego. Okazało się, że takich przypadków jest niemal tyle samo (ale miały mniejszy impact na finalny wynik niż u Karola Nawrockiego). Z pewnością jednak nie zmieniło by to wyników wyborów i Karol Nawrocki dalej byłby prezydentem.
Wniosek: Proste porównywanie surowych wyników jest niewystarczające i może prowadzić do pochopnych, jednostronnych oskarżeń. Anomalie wydawały się rozkładać symetrycznie, co zmusiło mnie do poszukiwania głębszej i bardziej miarodajnej metody analizy.
Zamiast pytać "ile głosów przybyło?", zadałem inne pytanie: "Jak głosy elektoratów innych kandydatów z I tury powinny były statystycznie rozłożyć się w turze II?". Mam przecież system do symulacji przepływów napisany, ktorym zresztą się tu z Wami przed 2 turą dzieliłem.
Więc by na w/w pytanie odpowiedzieć, stworzyłem w Pythonie aplikację, która dla każdej z 32,143 komisji w Polsce przeprowadzała symulację. Model brał pod uwagę oficjalne wyniki z I tury w danym obwodzie i, bazując na ogólnopolskich badaniach przepływów elektoratów, szacował oczekiwany wynik w turze drugiej.
Kluczowe były tu dwa założenia metodologiczne:
Analiza objęła wszystkie komisje w kraju, z celowym pominięciem obwodów zagranicznych, gdzie specyfika głosowania jest zupełnie inna i zaburzyłaby wyniki. Tam po prostu przepływy są zupełnie inne i niezgodne z sondażami dla Polski, dlatego je pominąłem. Finalnie symulacja przeprowadza wyliczenie po przepływach dla osobno dla każdej z 31,627 komisji (po wyłączeniu zagranicy).
Gdy model był gotowy, przyszedł czas na porównanie, dla każdej komisji z osobna, jego przewidywań z realnymi wynikami z protokołów PKW. Zdefiniowałem "podejrzaną anomalię" w danej komisji jako sytuację, w której w danej komisji:
Oczywiście, dla pełnego obiektywizmu, wykonałem 2 analizy, symetryczne.
✅ Analiza anomalii na korzyść Karola Nawrockiego:
✅ Analiza anomalii na korzyść Rafała Trzaskowskiego:
Wniosek jest jednoznaczny: Po zastosowaniu bardziej wyrafinowanej metody, symetria znika. Pojawia się wyraźna, niemal dziewięciokrotnie większa tendencja do występowania anomalii, w których głosy przepływają od RT do KN w sposób, który jest dosyć nietypowy.
Przykładową symulację załączam w zdjęciach dla komisji w Krakowie. Aplikacja przeprowadziła ponad 31.5 tys takich symulacji, po czym na ich bazie zrobiła raport.
Moja analiza nie jest dowodem na oszustwo wyborcze, być może na błędy (to ludzka rzecz), szczególnie, że jak widać sytuacja dzieje się w dwie strony. Jest jednak dowodem na to, że system kontroli wyników może być nieszczelny i generuje statystycznie istotne, niesymetryczne nieprawidłowości, które powinny zostać zbadane.
Potwierdzone przypadki rażących błędów w Krakowie czy Mińsku Mazowieckim (zauważcie że obie komisje algorytm wyłapał praktycznie na samym szczycie tych anomalii - jako te najbardziej istotne), gdzie głosy przepisano całkowicie na odwrót, pokazują, że system sam z siebie nie wychwytuje nawet tak gigantycznych pomyłek. Zostały one skorygowane tylko dzięki medialnej burzy.
"Tylko dzięki medialnej burzy." - Każdy niech to zdanie przeczyta 10 razy.
Rodzi to fundamentalne pytanie: skoro nikt nie zauważył błędów na setki głosów, to kto gwarantuje, że nie było tysięcy mniejszych "pomyłek", których nie widać gołym okiem w statystyce, ani z pomocą algorytmu, jak ten opracowany przeze mnie?
Przeprowadźmy prosty eksperyment myślowy. W Polsce jest 32,143 komisji. Gdyby w każdej z nich "przez pomyłkę" przesunąć zaledwie 7 głosów od jednego kandydata do drugiego, daje to 14 głosów różnicy na komisję.
14 głosów × 32,143 komisji = 450,002 głosów.
Taka operacja, niewykrywalna dla standardowych mechanizmów kontroli (???), mogłaby totalnie w losowy sposób zmienić prezydenta. Skoro system przepuszcza błędy rzędu kilkuset głosów, to nie mamy absolutnie żadnej gwarancji, że do takich "drobnych pomyłek” nie dochodziło. Przecież nie potrafił nawet wykryć tego, że ktoś zapisał setki głosów odwrotnie. Nie chodzi o to, że ktoś sfałszował wybory - absolutnie nie o to mi chodzi, tylko o to czy to są wybory czy loteria błędów w komisjach? Gramy w lotto czy chodzimy do wyborów?
Dlatego, w trosce o fundamenty naszej demokracji, jedynym uczciwym rozwiązaniem jest pełne, transparentne przeliczenie głosów ponownie. Inaczej sobie tego nie wyobrażam. Nie chodzi tu o to, by na siłę zmieniać wynik (bo jak widać zresztą z mojej analizy tu może chodzić raczej o dziesiątki tysięcy głosów, co nie przeważy na wyniku Karola Nawrockiego), ale o to, by na zawsze nie stracić zaufania obywateli do procesu wyborczego. Sytuacja, w której nie mamy pewności, czy nasz głos został prawidłowo policzony, podważa sam sens udziału w wyborach. Poza tym każdy z tych przypadkow tak RAŻĄCEGO błędu należy przeanalizować, aby zrozumieć dlaczego do niego doszło i zmienić zasady i sposób weryfikacji, tak by wyeliminować błędy w przyszłości. Jest to w interesie nie tylko każdego z nas, ale i każdej strony sporu politycznego.
Musimy dostać jasny sygnał, że państwo traktuje nasz głos poważnie. Że każdy, komu w przyszłości przyszłoby do głowy coś kombinować, będzie wiedział, że istnieje realna i skuteczna kontrola oraz poważny i poprawny sposób liczenia głosów. Bez tego zaufania demokracja staje się fikcją. W momencie gdy omyłkowo zamieniono tabelki i przepisano głosy z jednego kandydata do drugiego i dopiero medialna burza pozwoliła to wykryć to mamy tutaj poważny problem.
Oczekuję ponownego policzenia głosów.
W związku z licznymi nadinterpretacjami, pragnę podkreślić: moja analiza wskazuje na możliwe słabości systemu weryfikacji liczenia i możliwe wystąpienie nieprawidłowości, a nie jest dowodem na sfałszowanie wyborów czy dowodem, że wynik w oflagowanej komisji ma nieprawidłowości, gdyż algorytm automatycznie flaguje odstępstwo od spodziewanego wyniku, ale każda wytypowana komisja wymaga dalszej analizy i weryfikacji (np. oceny charakterystyki komisji, lokalnych wydarzeń, przeliczenia głosów itp.), a same anomalie mogą mieć w pełni racjonalne wyjaśnienia i nie są dowodem na uchybienie. Używanie jej w takim kontekście jest niezgodne z moimi intencjami i nie wyrażam na to zgody.
Przeczytaj pełne stanowisko