Psychologia błędu poznawczego: dlaczego nasz mózg nie ufa statystyce

W skrócie:

Nasz umysł jest mistrzem w dopowiadaniu sobie historii. Potrafi z chaosu przypadkowych zdarzeń utkać spójną narrację, znaleźć znajomą twarz w chmurach, wizerunek świętego w pniu i podjąć decyzję w ułamku sekundy, gdy na szali leży przetrwanie. Ta ewolucyjna sprawność ma jednak swoją cenę. Kiedy na scenę wkraczają twarde dane, liczby i statystyka, ten sam mózg, który tak świetnie radzi sobie z anegdotą, naturalnie buntuje się, nieraz odrzucając to, co niewygodne, sprzeczne z intuicją.

 

Zainspirowały mnie do tego tekstu te wszystkie gorące dyskusje wokół analizy statystycznej wyników wyborczych. Zauważyłem, jak często logiczne, oparte na danych wnioski były odbierane nie jako punkt wyjścia do weryfikacji, lecz jako osobisty atak lub próba zaklinania rzeczywistości (np. że sfałszowano wybory, albo odwrotnie - ktoś widział w moim modelu coś co można było poprawić więc był to dla niego automatyczny gwałtowny powód do frontalnego ataku, że to bzdury i „propaganda skrojona pod tezę”). To fascynujące zjawisko, które wykracza daleko poza politykę. Dlaczego tak trudno jest nam zaakceptować, że statystyczna anomalia jest jedynie "flagą" - sygnałem, że coś wymaga sprawdzenia - a nie gotowym wyrokiem? Czy jakbym napisał taką samą analizę np na temat wyborów w Zimbabwe to też by taki był odbiór? :) Czy raczej ludzie bardziej by się skupili na tym, że faktycznie proces liczenia był niedoskonały i że wartałoby go poprawić? Gdy robi się neutralnie to nagle umiemy nabrać dystansu. Dlaczego tak się dzieje? Odpowiedź sobie leży w ewolucyjnych uwarunkowaniach naszego mózgu i psychiki, czyli generalnie mechanizmach, które przez miliony lat umożliwiały nam efektywne (a co ważniejsze szybkie) podejmowanie decyzji w ramach niewielkich plemion. Dziś gdy funkcjonujemy w złożonym świecie wykraczającym poza ramy takiego „plemienia”, te same uproszczenia i skróty myślowe przestają służyć, lecz prowadzą do tzw. błędów poznawczych.

Przyjrzyjmy się kilku przykładom, które ilustrują, jak łatwo nasza intuicja potrafi wyprowadzić nas na manowce.

1. Potęga anegdoty: "Mój dziadek palił i żył 100 lat"

To klasyczny przykład, znamy go wszyscy, w którym jeden obraz wygrywa z potężnym materiałem dowodowym. Przez dekady badania naukowe, obejmujące miliony przypadków, raz za razem i kolejnym razem wykazały silny związek przyczynowo-skutkowy między paleniem papierosów a nowotworami płuc, awariami serducha i niższą oczekiwaną długością życia. Statystyka jest w tej kwestii bezlitosna, a jednak wciąż można usłyszeć argument o "dziadku", „wujku” czy innym kimś tam, który jest żywym zaprzeczeniem tych danych. To samo ze szczepionkami. Dlaczego ta jedna historia ma dla nas taką moc? Ponieważ nasz mózg znacznie lepiej przetwarza i zapamiętuje konkretne sytuacje z życia i naszego otoczenia niż abstrakcyjne tabele i procenty. Historia o dziadku jest prosta, osobista i łatwa, no a dane o milionach anonimowych pacjentów - nie. To błąd poznawczy polegający na nadmiernym poleganiu na własnych obserwacjach (https://pl.wikipedia.org/wiki/Dowód_anegdotyczny). Ufamy jednemu, jaskrawemu przykładowi (bo go widzieliśmy i doświadczyliśmy), ignorując "nudną" prawdę statystyczną.

2. Ryzyko i jego ocena, np. w przestworzach vs na drodze: czyli kto tu właściwie igra z losem?

Zauważcie, że każda katastrofa lotnicza jest totalnym newsem, wałkowanym w mediach na setki sposobów, siejącym grozę i strach. Większość osób bardziej boi się podróżować samolotem niż jazdy samochodem. Równocześnie twarde dane ilustrują, że latanie jest jedną z najbezpieczniejszych form transportu, wielokrotnie bezpieczniejszą od tej na 4-rech kołach. To tak zwana heurystyka dostępności (więcej tutaj: https://pl.wikipedia.org/wiki/Heurystyka_dostępności). Oceniamy ryzyko jakiegoś zdarzenia na podstawie tego, jak łatwo przychodzi nam do głowy jego przykład. Dramatyczne, medialne obrazy katastrof lotniczych są "łatwo dostępne" dla naszej pamięci. Tysiące codziennych, tragicznych wypadków samochodowych rozmywają się w tle, nie tworząc tak silnego, pojedynczego obrazu mentalnego (przecież nikt nas nimi nie bombarduje w mediach). Nasz mózg myli spektakularność i medialność zdarzenia z jego faktycznym prawdopodobieństwem. A jak jest z Wami? Kiedy czujecie się bezpieczniej? Wsiadając w samochod, gdy ruszacie do pracy, czy podczas startu samolotu, jako pasażerowie? Ciekawe, prawda?

3. Wyborcza flaga statystyczna: Błąd czy dowód na spisek?

Wróćmy na chwilę do inspiracji tego tekstu. Gdy moja analiza wykazała istnienie komisji, w których przepływ głosów między turami drastycznie odbiegał od statystycznego modelu (np. odchylenie o ponad 33%, podczas gdy ogólnopolski błąd sondaży wynosił 1-2%), pojawiły się dwie skrajne reakcje. Jedna strona widziała w tym ostateczny dowód na oszustwo, druga - dowód na niekompetencję lub manipulację autora analizy. xD

Obie reakcje są psychologicznie zrozumiałe, ale obie chybiają sedna. Z punktu widzenia statystyki, tak rażąca anomalia nie jest ani jednym, ani drugim. Jest sygnałem. Czerwoną flagą, która mówi: "Hej, tu wydarzyło się coś nietypowego, co wymyka się standardowym modelom. Warto to sprawdzić". Przyczyną mogła być banalna pomyłka przy wpisywaniu liczb, lokalna specyfika danej komisji (np. mógł to być szpital, gdzie pacjenci na przestrzeni 2 tygodni całkowicie się zmienili, a wraz z nimi gwaltownie skręciły preferencje wyborcze w tej komisji), o której model nie wiedział, albo faktyczna nieprawidłowość. Bez weryfikacji (np. dokladnego zbadania charakteru komisji, przejrzenia dokumentów, lokalnych wydarzeń, czy ponownego przeliczenia głosów) nie wiemy nic.

Problem w tym, że nasz umysł, napędzany błędem konfirmacji (https://pl.wikipedia.org/wiki/Efekt_potwierdzenia), nie lubi niepewności. Zamiast potraktować anomalię jako pytanie, traktuje ją jako potwierdzenie tego, w co już wierzy. Jeśli ktoś był przekonany o fałszerstwie, flaga staje się "dowodem". Jeśli ktoś ufał w uczciwość systemu, ta sama flaga staje się "atakiem". Prawdziwe, naukowe myślenie polega na zawieszeniu osądu i powiedzeniu: "Ciekawe. Sprawdźmy to".

4. Paradoks Monty'ego Halla: Dlaczego uparcie trzymamy się złej decyzji?

Na koniec klasyk, który łamie intuicję nawet u matematyków. Wyobraź sobie teleturniej. Stoisz przed trzema zamkniętymi bramkami. Za jedną jest samochód, za dwiema pozostałymi - kozy (hehe). Wybierasz bramkę nr 1. Prowadzący, który wie, co jest za każdą z bramek, otwiera jedną z pozostałych, np. bramkę nr 3, pokazując, że jest za nią koza. Teraz zadaje ci pytanie: "Czy chcesz zostać przy swojej bramce nr 1, czy zmieniasz wybór na bramkę nr 2?".

Intuicja większości ludzi krzyczy: "To bez znaczenia! Szanse są 50/50!". Statystyka mówi jednak coś zupełnie innego: zawsze powinieneś zmienić wybór. Dlaczego? Ponieważ Twój pierwszy wybór miał 1/3 szans na sukces. Dwie pozostałe bramki miały łącznie 2/3 szans. Gdy prowadzący eliminuje jedną z tych "złych" bramek, całe prawdopodobieństwo 2/3 nie rozpływa się w powietrzu – ono koncentruje się na tej jednej, nieotwartej bramce, którą mógłbyś wybrać. Zmieniając decyzję, podwajasz swoje szanse na wygraną (z 1/3 do 2/3). Pewnie wywołam dyskusję :) więc odsyłam do źródła: https://pl.wikipedia.org/wiki/Paradoks_Monty’ego_Halla (stąd kluczowy cytat „Paradoks wynika z niedocenienia informacji, jaką „między wierszami” przekazuje prowadzący. Informacją tą jest wskazanie pustej bramki.”)

Defoliator

Patronite

Gdybyś zechciał wesprzeć działalność Defoliatora, założyłem Patronite. Dzięki za wsparcie!

E-mail

Wyślij wiadomość. Odpowiem tak szybko, jak to tylko możliwe.

Social media

Odwiedź mnie na Facebooku. Zasubskrybuj mój kanał i bądź na biężąco!

 
Design & programming: Kajetan Mastela | CGTank.com