Racjonalnośc decyzji konsumenckich

Report
Racjonalność decyzji finansowych
Michał Białek
Rozwój wiedzy o racjonalności
 Co to znaczy racjonalnie działać?
 Problem koszyka i dwóch losowań.
 Pascal – suma wszystkich możliwych wyników ważona przez
ich prawdopodobieństwo
 Co lepiej: loteria 50% szans za 5 zł wygranej czy 5% szans za
50 zł?
Rozwój wiedzy o racjonalności
 Bernoulli – maksymalizacja użyteczności
 Obiektywna wartość wyników to nie to samo co ich
subiektywna wartość
 Co lepiej 5% szans na darmowe mieszkanie czy 50% szans na
darmowe wykończenie mieszkania czy 5% zniżki przy
zakupie?
Rozwój wiedzy o racjonalności
 Von Neuman i Morgenstern
 Maksymalizacja subiektywnie oczekiwanej użyteczności
 Prawdopodobieństwo oceniamy subiektywnie, np. szanse
zarobku na długoterminowych inwestycjach w akcje jest
większe czy mniejsze niż na krótkoterminowych na FOREX?
Rozwój wiedzy o racjonalności
 Simon – nie maksymalizujemy użyteczności, a satysfakcję,




gdyż brak nam:
Informacji (za mało lub za wiele)
Za wiele celów na raz
Nie mają wiedzy o dostępnych opcjach
Nie są w stanie dokonać wszystkich obliczeń potrzebnych by
porównać dostępne opcje
 Od czasów Simona rozwija się deskryptywna teoria decyzji
 Nie szuka się decyzji optymalnych, ale opisuje rzeczywisty
proces, w tym na przykład:
 Analiza ryzyka
 Maksymalizacja satysfakcji z wybranek opcji (dysonans)
Racjonalność a skuteczność
Racjonalność a skuteczność
Racjonalność a skuteczność (Sutter,
Hertwig, 2011)
 Im więcej czasu tym decyzje są bardziej czy mniej moralne?
 Postawa deontyczna: nie prawda fałsz a zasada
spełniona/złamana
Dylemat moralny zwrotnicy
Czy działanie jest moralnie akceptowane?
Czy dzianie jest moralnie konieczne?
Czy działanie jest zabiciem 1 osoby?
Czy brak działania jest zabiciem 5 osób.
2 wersje: najpierw decyzja albo najpierw ocena moralna czynu
Co się dzieje?
 Wariant decyzji: 60% w zwrotnicy
 Prawie 30% z grubasem
 Wariant opinii:
 0% grubasa i 0,3% przy zwrotnicy (1 osoba na 280
przebadanych)
Teoria racjonalności Stanovicha (2009)
Teoria racjonalności Stanovicha (2009)
 Jeśli podane są reguły gry – korzystamy z racjonalnego,
algorytmicznego umysłu, który dekontekstualizuje treści i
poddaje je obróbce formalnej
 Jeśli reguły gry nie są jasne – korzystamy z umysłu
refleksyjnego, który tworzy reguły ale i kontekstualizuje
treści
Teoria perspektywy
Co interesuje w podejściu
deskryptywnym?
 Błędy muszą być systematyczne, nie po prostu nieracjonalne.
 Błąd wtedy wynika albo z niedziałającego umysłu
algorytmicznego (nieinteresujące) lub z działającego
refleksyjnego (już bardzo!)
Klasyfikacja błędów poznawczych
Koncepcja skąpca poznawczego
 pochodzi z psychologii społecznej, jej autorki to Susan Fiske i
Shelley E. Taylor (1984). Umysł w ich ujęciu jest takim właśnie
skąpcem, który stara się osiągnąć zamierzony cel wykorzystując
do tego minimum dostępnych środków. Skąpiec działa na każdym
poziomie przetwarzania informacji, począwszy od ich zbierania
(selekcja informacji) poprzez ich przetwarzanie na wszystkich
poziomach głębokości.
 w przypadku natłoku informacji, ludzie uciekają się do
maksymalnej stereotypizacji sytuacji problemowej w celu
uniknięcia konieczności analizy wszystkich informacji. Na
przykład ludzie wolą oceniać ludzi po cechach ich rasy lub
narodowości, niż traktować każdą jednostkę indywidualnie,
dzięki czemu zmniejszają obciążenia poznawcze.
PROCEDURY SPECYFICZNE DLA TASS
 Umysł autonomiczny, albo jak chce Stanovich: TASS, czyli The Autonomous
Set of Systems [autonomiczny zbiór systemów] – akronim utworzony
przez Stanovicha, obejmuje zestaw procedur i procesów przetwarzania
informacji, charakterystycznych dla modułów.
 Stanovich dodaje tu poza klasycznymi modułami w ujęciu Fodora także
procesy uczenia się utajonego oraz warunkowania. W jego skład
wchodzą także różne reguły, dobrze opanowane, przeuczone procedury
oraz emocje.
 Procedury typowe dla TASS stanowią kwintesencję skąpstwa
poznawczego – w ogóle nie dochodzi do reorganizacji (decoupling)
napływających informacji. Przyjmowane są one bezrefleksyjnie w takiej
postaci, w jakiej zostały zaprezentowane. Ludzie potrafią czasem nie
użyć w ogóle formalnego procesu przetwarzania informacji, gdyż jest
on albo zbyt energochłonny, albo są m problem uznany został za niewart
wysiłku.
PROCEDURY SPECYFICZNE DLA TASS
 Przykładem takiego typu przetwarzania jest efekt jaskrawości
(Vividness Effect), opisany po raz pierwszy w 1986 roku przez
Fonga, Krantz i Nisbett. W ich eksperymencie badanym
przedstawiano identyczne opisy samochodów SAAB i
VOLVO. Jedyną różnicą było to, że według statystyk w
serwisach oraz ankiet klienckich Volvo było bardziej
niezawodne.
 Jednak przyjaciel decydenta (nasz) donosił, że jego Volvo
psuło się bardzo często i odradzał jego zakup. Co my, jako
decydent powinniśmy doradzić klientowi, zakup saaba czy
Volvo?
EFEKT JASKRAWOŚCI
 Wybór Volvo wskazuje na większe poleganie na danych
pochodzących z dużych populacji, o charakterze ogólnym i
formalnym. Z kolei wybór saaba wskazuje na odwrotne
preferencje, faworyzujące informacje konkretne, pochodzące
ze znanego sobie, zaufanego źródła i jest przejawem właśnie
efektu jaskrawości. Większość badanych chętniej doradza
saaba, mimo że racjonalny decydent powinien wybrać Volvo.
 Analogicznym efektem jest zjawisko wagonika dla orkiestry
(bandwagon effect). Polega on na automatycznym „podpinaniu
się” pod popularne akcje lub poglądy, bez ich jakiejkolwiek
analizy (por. Henshel i Johnston, 1987; Pittel, 1986).
TENDENCYJNOŚĆ PRZYJĘTEGO
PUNKTU WIDZENIA (FOCAL BIAS).
 Wyobraźmy sobie taką sytuację:
 Karol pożycza pieniądze Wojtkowi. Wojtek z kolei pożycza
pieniądze Adamowi. Karol zawsze oddaje pieniądze, z kolei
Adam nie. Czy osoba oddająca pożyczyła pieniądze osobie
nieoddającej?
 Tak/Nie/Nie da się określić
TENDENCYJNOŚĆ PRZYJĘTEGO
PUNKTU WIDZENIA (FOCAL BIAS).
 Na to zadanie większość badanych wybiera odpowiedź „nie
da się określić
 Gdyby jednak przeanalizować wszystkie możliwości
dotyczące skłonności do zwracania pożyczek przez Wojtka,
to okaże się, że gdy (a) zwraca on je, to odpowiedź na
pytanie jest twierdząca (oddający Wojtek pożyczył
nieoddającemu Adamowi). Gdyby Wojtek (b) nie zwracał
pożyczek, to odpowiedź także byłaby twierdząca (oddający
Karol pożyczył nieoddającemu Wojtkowi). Błędy w
powyższych wnioskowaniach wynikają z niedostatecznej
analizy alternatyw, które z kolei wynikają z oszczędności
poznawczej.
TENDENCYJNOŚĆ PRZYJĘTEGO
PUNKTU WIDZENIA (FOCAL BIAS).
 Przykładem drugiego z rodzajów błędów wywodzących się
ze skąpstwa poznawczego jest niedostateczne rozwinięcie
reprezentacji umysłowej analizowanego problemu, czyli
niedostateczna analiza możliwych alternatyw
TENDENCYJNOŚĆ PRZYJĘTEGO
PUNKTU WIDZENIA (FOCAL BIAS).
 Najbardziej jednak znanym przykładem omawianego błędu jest efekt frejmingu,
ilustrowany przez zadanie chińskiej choroby (Tversky i Kahneman, 1981).
 Badanym przedstawiana jest hipotetyczna sytuacja zakażenia 600 osób
tajemniczą chińską chorobą. Badany ma do wyboru użycie szczepionki A,
która z pewnością ocali równo 200 osób, lub szczepionki B, która z
prawdopodobieństwem jednej-trzeciej ocali wszystkich chorych.
 Szczepionka A albo doprowadzi z pewnością do śmierci równo 400 osób lub
szczepionka B z prawdopodobieństwem dwie-trzecie spowoduje śmierć
wszystkich zakażonych,
 badani mają tendencję do wyboru tej drugiej szczepionki w wariancie
negatywnym a pierwszej w pozytywnym. Należy zwrócić uwagę, że formalnie
szczepionki A oraz B z obu zadań są identyczne.
 Jak twierdzi Kahneman (2003, str. 703): „Podstawową zasadą frejmingu jest
pasywna akceptacja podanego sformułowania”.
PROBLEMY Z OPROGRAMOWANIEM
UMYSŁOWYM
 Drugą, wspomniana już wcześniej grupą błędów poznawczych
jest problem z brakiem specjalnych modułów, procedur czy metod
analizy danych lub z ich wadliwością.
 Kluczowym odróżnieniem pomiędzy skąpstwem poznawczym a
tą grupa, jest to, że błędy te nie są możliwe do uniknięcia przy
takiej organizacji umysłu, w jakiej powstają – to znaczy umysłowi
brakuje zdolności do wykrycia i poprawienia błędu. Błędy
skąpstwa poznawczego mogą być skorygowane, jeśli tylko umysł
zdecyduje się użyć odpowiednich mechanizmów do ich analizy (o
ile je ma, jeśli nie – to błąd należy właśnie do drugiej grupy).
 W skład problemów z oprogramowaniem umysłowych wchodzą
podgrupy: luki w oprogramowaniu oraz błędne oprogramowanie.
LUKI W WYPOSAŻENIU UMYSŁU
 przyczyną popełniania przez ludzi systematycznych błędów jest po
prostu brak odpowiednich struktur czy modułów, które mogłyby
przejąć kontrolę nad specyficznym problemem. Umysł adaptując
się do specyficznych warunków panujących w otoczeniu nie jest
doskonały, systemy i moduły adaptacyjne powstają przez wiele
setek lat, podczas gdy współczesna nauka i realia świata zmieniają
się niezwykle dynamicznie.
 W zamian za to kontrolę nad analizą problemu przejmują inne
moduły, koncentrujące się na odmiennych aspektach problemu,
nie koniecznie najistotniejszych dla jego rozwiązania.
 Umysłowi ludzkiemu może czasem po prostu brakować
odpowiednich struktur, co Stanovich nazywa lukami w
wyposażeniu umysłu (mindware gaps).
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 Linda ma 31 lat. Jest panną. Jest otwarta i bardzo bystra. Uzyskała dyplom z








filozofii. Jako studentka była bardzo zaangażowana w sprawy dyskryminacji i
sprawiedliwości społecznej. Uczestniczyła w manifestacjach antynuklearnych.
Poranguj następujące stwierdzenia na temat Lindy, przyznając 1 dla
stwierdzenia najbardziej prawdopodobnego i 8 dla najmniej prawdopodobnego.
Linda jest nauczycielka w szkole podstawowej.
Linda pracuje w księgarni i uczęszcza na zajęcia Jogi.
Linda jest aktywistka ruchu feministycznego.
Linda jest pracownikiem socjalnym.
Linda jest członkiem Ligi Głosujących kobiet.
Linda obsługuje klientów w banku.
Linda jest agentem ubezpieczeniowym.
Linda obsługuje klientów w banku i jest aktywistką ruchu feministycznego.
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 Najbardziej znanym chyba badaniem demonstrującym ludzkie
problemy z rachunkiem prawdopodobieństwa jest „zadanie Lindy”
(Tversky, Kahneman, 1983). Efekt zaobserwowany przez nich
nazwany został w literaturze błędem koniunkcji.
 Ludzie, kierowani stereotypem na temat ról społecznych
(Davidson, 1995; Jacobs i Potenza, 1991) uznają w znakomitej
większości (prawie 80% badanych) zdanie „h” za bardziej
prawdopodobne niż zdanie „f ”. Jest to oczywiste naruszenie zasad
rachunku prawdopodobieństwa, gdyż koniunkcja dwóch zdarzeń
nie może być bardziej prawdopodobna niż którekolwiek ze
zdarzeń składowych oddzielnie (bycie feministyczną pracownicą
banku nadal wymaga bycia pracownica banku!).
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 Innym znanym problemem z zakresu prawdopodobieństwa
jest złudzenie gracza. W jego przypadku ludzie nie korzystają
z dostępnej racjonalnie wiedzy umożliwiającej rozróżnianie
prawdopodobieństwa układu zdarzeń od warunkowego
prawdopodobieństwa wystąpienia któregoś ze składników
zdarzeń pod warunkiem wystąpienia już wszystkich
pozostałych (Tyszka, 1999, 2010; Zielonka, 2003).
 Weźmy za przykład rzuty monetą. Prawdopodobieństwo
wyrzucenia 10 z rzędu orłów wynuci
(1/2)10=0,0009765625≈0, 1%. Wydaje się to słusznie
nieprawdopodobne i takie zjawisko uznawane jest za
niezwykłe i przyciąga uwagę.
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 Ludzie mając takie racjonalne założenie, będą skłonni do
stwierdzenia, że gdy wypadło już 9 orłów z rzędu to teraz
wypadnie reszka. Dlaczego? Właśnie dla tego, że cały ciąg wydaje
im się mało reprezentatywny dla szeregu dziesięciu losowań, stad
nieprawdopodobny. Gdy jednak zastanowić się, jakie jest
prawdopodobieństwo wyrzucenia orła, zakładając, że wypadło
już wcześniej 9 orłów, musimy użyć wzoru na
prawdopodobieństwo warunkowe, w którym: P(A|B) = P(AnB)
/ P(B).
 Podstawiając dane do wzoru, otrzymujemy:
P(A|B)=(1/2)10/(1/2)9=1/2. Przedstawione wyliczenia
dowodzą, że prawdopodobieństwo wypadnięcie orła jest takie są
mo, jak reszki - mimo, że „oczywiste” wydaje się, że „czas już na
reszkę”.
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 zagadnienie wag decyzyjnych, wprowadzone na pole nauki
przez Kahnemana i Tverskiego (1979; 1982).
 Zjawisko to odzwierciedla ludzką tendencję do
nieadekwatnej oceny wartości potencjalnych zysków i strat
w sytuacji ryzyka. Teoretycznie wartość zysku w sytuacji
ryzyka należy obliczyć mnożąc potencjalny zysk przez
prawdopodobieństwo jego zajścia. Korzyśc z
 (a) loterii o szansie 50% na wygraną tysiąca złotych jest takie
samo, jak
 (b) pewny zysk 500 złotych (A=1/2*1000=500 oraz
B=1*500=500; zatem A=B).
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 Obserwowana u ludzi tendencja do zmiany wag decyzyjnych
polega na systematycznym odchylaniu się szacowanych
prawdopodobieństw (wag decyzyjnych) od ich realnych
wartości. Dla niższych prawdopodobieństw funkcja wag
przyjmuje wartości niższe niż odpowiadające
prawdopodobieństwa. Dla wyższych prawdopodobieństw
funkcja wag przyjmuje wartości wyższe niż odpowiadające
prawdopodobieństwa. Oznacza to, że ludzie wykazują
skłonność do zawyżania małych prawdopodobieństw i
zaniżania dużych (Zielonka, 2008).
PROBLEMY Z
PRAWDOPODOBIEŃSTWEM
 W podawanym wcześniej przykładzie 84% badanych wybierało 500 izraelskich
funtów wygranej (badanie przeprowadzono w Izraelu, Kahneman i Tversky,
1979).
 Rys. Funkcja wag decyzyjnych.
 Przejawem takich tendencji jest skłonność ludzi do wyboru loterii w stosunku
do małego, ale pewnego zwycięstwa na przykład:
 A:
1:1000 szansa na wygranie $5000,
 B:
pewna wygrana w wysokości $5.
 Większość badanych opowiada się za opcją A, gdyż przeceniają obiektywnie
niewielkie szanse wygrania dużej sumy. To zjawisko odpowiada za sukcesy
licznych loterii (Plous, 1993).
IGNOROWANIE ALTERNATYWNYCH
HIPOTEZ
 Przed tobą znajduje się ciąg pewnych słów. Możesz
zaproponować kolejne ze słów, a uzyskasz odpowiedź, czy jest to
poprawne słowo. Odnajdź rządzącą tym ciągiem regułę.
 Neurolog, pulmonolog, urolog.
 Zdecydowana większość badanych podaje jako pierwszą „próbę”
dowolny zawód medyczny w wersji męskiej. Utworzona na
szybko hipoteza, jakby zasada rządząca brzmiała „zawody
mężczyzn-lekarzy” powoduje, że badani generują takie przykłady,
które tę hipotezę mogą potwierdzić. Strategia taka nazwana
została konfirmacyjną strategią testowania hipotez (Wason, 1960,
1968) lub pozytywnym testowaniem (Klayman, Ha, 1987).
IGNOROWANIE ALTERNATYWNYCH
HIPOTEZ
 Przyczyną błędów w tym przypadku jest niedostateczna koncentracja na
alternatywnych hipotezach, jako potencjalnych opcjach wyjaśniających
zaobserwowaną prawidłowość. Racjonalny decydent poszukiwać powinien w
przypadku takim jak w przytoczonym zadaniu takich zjawisk, które umożliwią
mu odrzucenia przyjęte na szybko hipotezy (negatywne testowanie, za:
Klayman, Ha, 1987).
 Należałoby spróbować albo z bardziej ogólnym zawodem (np. lekarz) albo z
żeńską wersją (dentystka) albo z zawodem z „zupełnie innej beczki” (np.
żołnierz). Alternatywnie można poszukiwać odpowiedzi jeszcze szerzej, testują
słowa zdawałoby się niepowiązane (np. królik). Negatywne odpowiedzi
utwierdzają nas w słuszności naszej przyjętej roboczo hipotezy. Ludzie
koncentrują się jednak jedynie na pierwszej, narzucającej się opcji i to ją
starają się potwierdzić.
 (McKenzie, 1998), ludzie o ile potrafią skutecznie w teorii testować hipotezy,
to w realnych zadaniach posługują się nimi nader rzadko. Wynika to właśnie z
przyjęcia jedynie jednej, najoczywistszej z alternatywnych hipotez.
PODOBIEŃSTWA MIĘDZY BŁĘDAMI
SKĄPSTWA POZNAWCZEGO A LUK W
WYPOSAŻENIU UMYSŁU.
 Niektóre z pojawiających się fenomenów ludzkiego
rozumowania mogą wydawać się równie dobrze wyjaśnione
zarówno przez koncepcję skąpca poznawczego jak i braku w
wyposażeniu umysłowym. Kluczowym kryterium klasyfikacji
tych błędów do różnych kategorii przez Stanovicha i zespół jest
to, że aby błąd sklasyfikować jako błąd zastąpienia musi zajść
przynajmniej próba „przelicytowania” wniosku skojarzeniowego
(Evans, 2007, 2008; Stanovich 2004, 2008) alternatywnymi
informacjami lub wyuczonymi regułami. Tak więc człowiek musi
już wcześniej posiadać te alternatywne informacje lub metody
działania – w innym przypadku mówimy o braku odpowiedniego
wyposażenia.
PODOBIEŃSTWA MIĘDZY BŁĘDAMI
SKĄPSTWA POZNAWCZEGO A LUK W
WYPOSAŻENIU UMYSŁU.
 Wraz z rozwojem poznawczym i nabywaniem nowych procedur błędy
braku wyposażenia zastępowane są błędami wynikającymi z nieużycia
tych procedur. Dobrze wyuczona reguła, ale nieadekwatnie
zastosowana, klasyfikowana jest już jako błędne zastąpienie – o
którym będę pisał w następnym paragrafie. W obszarach, które nabyte
reguły myślenia obejmują coraz słabiej, nadal mamy do czynienia z
błędami braku odpowiedniego „oprogramowania”. Granica między
błędami skąpstwa poznawczego a braku odpowiedniego wyposażenia
umysłu jest płynna i stale zmienia się wraz z nabywaniem przez ludzi
nowych umiejętności.
 Przykładem takiego procesu, w którym przyczyny błędu lezą na
pograniczu braku dostatecznego zaangażowania a braku odpowiednich
procedur są błędy nieudanych zastąpień.
Nieudane zastąpienia (override
failures)
 to zjawisko polegające na nieudanym zastąpieniu wniosków
skojarzeniowych, automatycznych, racjonalnymi wnioskami.
Mówiąc prościej, mimo, że problem jest analizowany formalnie,
to wniosek wyprowadzony na tej podstawie przegrywa w
konkurencji z wnioskiem wynikającym z użycia innych
alternatywnych metod (czyli posłużenia się innymi modułami,
służącymi teoretycznie do analizy innego typu danych).
Grupa takich błędów jest szczególnie liczna, zawiera w sobie między
innymi:
 efekt treści przekonań (belief bias),
 ignorowanie wspólnego mianownika (denominator neglect) czy
 problemy związane z samokontrolą, takie jak niezdolność do
odraczania gratyfikacji
Nieudane zastąpienia (override
failures)
 Badani często zdają sobie sprawę, że ich działania oparte są
na irracjonalnych podstawach, mimo to decydują się na
podtrzymanie swojej decyzji. Poniżej pokrótce omówię
wspomniane tendencyjności.
 Przykładem takiego nieudanego zastąpienia jest złudzenie
Mullera-Layera, w którym mimo że wiemy, iż odcinki są
równej długości, nadal spostrzegamy jeden z nich jako
dłuższy (por. rozdział dotyczący modułowości umysłu).
EFEKT TREŚCI PRZEKONAŃ (BELIEF
BIAS).
 Efekt treści przekonań polega na uznawaniu za poprawne raczej tych
wniosków, które są zgodne z posiadaną wiedzą niż tych, które są
prawomocne formalnie. Wnioskowania te prezentowano w formie
prawomocnej i nieprawomocnej, a każde z nich w wariancie
wiarygodnym i niewiarygodnym. Zadaniem badanych było ocenić to,
czy wniosek jest koniecznie prawdziwy, przy założeniu, że przesłanki są
prawdziwe.
 Badani preferowali oczywiście zarazem prawomocne i prawdziwe
wnioski. Gdy jednak wnioski były albo nieprawomocne i zarazem
wiarygodne albo niewiarygodne, ale prawomocne, badani preferowali te
nieprawomocne (67 vs 53 wskazania).
 Wcześniejsza wiedza na temat przebiegu analizowanych relacji może
zarówno facylitować jak i interferować z poprawnością oceny
niezawodności logicznej wniosku (por Białek, 2010; Stanovich i inni,
2008).
IGNOROWANIE WSPÓLNEGO MIANOWNIKA
(DENOMINATOR NEGLECT)
 dwie urny do losowania: jedna z nich zawierała 9 białych i jedną czarna kulkę; druga
urna zawierała 92 białe i 8 czarnych kulek. Uczestnicy badania mogli dostać dolara, gdy
wylosowana zostanie czarna kulka – ich decyzja: losować z pierwszej czy drugiej urny?
Większość badanych postąpiła racjonalnie – losowała z pierwszej urny o 10procentowej szansie wygranej (60-70% badanych dokonywała takiego wyboru).
 Zaskakujące jest jednak, że prawie co trzeci badany wybrał drugą urnę: o mniejszej
szansie wygranej, ale o większej liczbie kul wygrywających. Prawie każdy z tej grupy
zdawał sobie sprawę z mniejszego prawdopodobieństwa wygranej w wskazanej przez
siebie urnie, ale mimo to podtrzymywał swoją decyzję.
 Podsumowując efekt ignorowania wspólnego mianownika polega na przecenianiu
częstości wystąpienia jakiegoś zjawiska nad jego częstotliwość.
 Klaczynski (2001). Osoby, które poddał badaniu miały do wyboru dwie urny: a) 1
wygrywająca kula na 10 w urnie oraz b) 10 wygrywających na 100. Badani mogli
wskazać, którą urnę preferują lub zaznaczyć, że nie ma znaczenia, z której będą
losować (poprawny wniosek). Wskazanie urny B świadczyło o ignorowaniu wspólnego
mianownika, i takiego wskazania dokonywała większość badanych
PROBLEMY SAMOKONTROLI WYNIKAJĄCE Z
IGNOROWANIA WNIOSKÓW FORMALNYCH.
 polegają one na zastępowaniu racjonalnych, poprawnych formalnie
wniosków przez irracjonalne, wynikające ze specyficznego myślenia.
 Badacze wykazują, że niektóre osoby systematycznie zniekształcają
ocenę sytuacji korzystając z irracjonalnych wniosków, jak choćby
złudzenie gracza. Złudzenie to polega na traktowaniu niepowiązanych
zdarzeń za zależne, na przykład po pięciokrotnym wypadnięciu koloru
czarnego w ruletce ludzie sądzić będą, że „teraz czas na czerwony”,
bo czarny „już się nawypadał”.
 W powszechnym odczuciu bardziej prawdopodobne jest w opisanej
sytuacji wystąpienie jednego ze zjawisk (czerwonego), mimo że
prawdopodobieństwo obu wynosi nadal 50%. Działania osób
uzależnionych od hazardu często sterowane są przez procesy
irracjonalne, a dopiero później racjonalizowane (por. Coventry i
Norman, 1998).
PROBLEMY SAMOKONTROLI WYNIKAJĄCE Z
IGNOROWANIA WNIOSKÓW FORMALNYCH.
 W materiale w TV na temat zakazu hazardu (problem legalizacji kolejnych
automatów do gier) jeden z graczy wypowiadał się, że gra na automatach to
„długotrwała i kosztowana inwestycja”, która tylko dzięki jej kontynuacji
może doprowadzić do zysku. Właśnie taki sposób myślenia badacze
rozumowania określają nieudanym zastąpieniem, w którym jasne i
racjonalne przesłanki o losowym charakterze gry zastąpione są życzeniowym
przekonaniem, że w końcu musi się udać.
 Nie ma wątpliwości, że w ludzie posiadają możliwość generowania
racjonalnych wniosków na temat szkodliwości swojego nałogu (palacze,
alkoholicy itp.), mimo że swojego zachowania na nich opierają. Mamy tu
zatem do czynienia z analogicznym do wcześniej opisywanych problemów
przetargu między racjonalnymi wnioskami a intuicją, przeczuciem czy
podobnymi mechanizmami sterowania zachowaniem.
BŁĘDY WYNIKAJĄCE Z WADLIWOŚCI
WYPOSAŻENIA UMYSŁU.
 Wbrew powszechnym przekonaniom, nabywanie
wyspecjalizowanych zdolności poznawczych nie zawsze prowadzi
do racjonalizacji funkcjonowania poznawczego człowieka. Istnieją
zarówno błędne mechanizmy, jak i nieadaptacyjne struktury, które
w praktyce utrudniają realizację zamierzonych przez podmiot
celów. W skład tej grupy mechanizmów wchodzą: mechanizmy
wyłączające ewaluację, myślenie egocentryczne czy kulturowo
uwarunkowane, nieadaptacyjne przekonania. Kolejną podgrupą
jest samowiedza i naiwne teorie psychologiczne. Na te teorie
składają się zarazem: błędna wiedza na temat cech ludzkich,
zdolności oraz procedur, jakimi kieruje się umysł jak i brak
odpowiedniej wiedzy, na przykład na temat zdolności adaptacji do
zarówno pozytywnych jak i negatywnych zdarzeń
BŁĘDY MYŚLENIA EGOCENTRYCZNEGO
Kruger i Clement(1994)
 oszacować, jaka jest proporcja czerwonych i niebieskich żetonów
w urnie, zawierającej 700 sztuk żetonów. Prawdopodobieństwo
każdego układu jest w teorii równe (może być zarówno 100%
czerwonych, jak i 100% niebieskich; może tez być każda
dowolna proporcja).
 Następnie badani mieli korygować swoje przypuszczenia na
temat żetonów po wylosowaniu 1 niebieskiego żetonu.
Następnie losowano 3 niebieskie i ostatecznie 20 niebieskich.
Badani po każdym z tych trzech etapów (1, 3 i 20 losowań) mieli
podawać swoje przypuszczenia co do proporcji różnokolorowych
żetonów w urnie.
BŁĘDY MYŚLENIA EGOCENTRYCZNEGO
 Jednym z znanych przykładów dla błędów myślenia
egocentrycznego jest złudzenie jednomyślności (consensus bias).
Polega ono na przyjęciu własnego punktu widzenia za
dominujący w świecie.
 Prawidłowym, racjonalnym działaniem jest uwzględnienie
ładunku informacyjnego losowań oparte na regule Bayesa.
Pierwsze losowanie niesie ze sobą największy ładunek
informacyjny, wymagający największego dostosowania
prawdopodobieństw a priori i a posteriori. Zmiany
prawdopodobieństwa występowania poszczególnych żetonów
wraz z kolejnym losowaniem jest coraz mniejsze, gdyż rośnie
próbka, na której ustalano empirycznie prawdopodobieństwo.
BŁĘDY MYŚLENIA EGOCENTRYCZNEGO
 Badani jednak wykazywali tendencję do odwrotnego
zachowania – im więcej dostarczano im dowodów, tym
chętniej żegnali się z własnym wstępnym przypuszczeniem
(należy pamiętać, że nieopartym na żadnym realnych
przesłankach). Krzywa reprezentująca proporcję niebieskich
żetonów do czerwonych rosła więc zbyt wolno w stosunku
do dostarczanych informacji, co uwarunkowane było
przyjęciem własnej hipotezy i rozpatrywanie problemu z jej
perspektywy.
MECHANIZMY WYŁĄCZAJĄCE
EWALUACJĘ
 Organizmy jednak tylko w wyjątkowych sytuacjach generują
absolutnie pewne wnioski, zdecydowana większość wniosków
opiera się jedynie na większej lub mniejszej szansie prawdziwości.
Nadmiernie krytyczne procesy ewaluujące myślenie mogłyby w
dużej mierze sparaliżować działania suboptymalnych procesów
poznawczych. Stąd organizm wyposażył się w „oprogramowanie”,
które blokuje procesy ewaluacyjne – czy to poprzez groźbę kary
za kwestionowanie poprawności wyposażenia umysłu, czy poprzez
nagradzanie niekwestionowania wiary w poprawność owego
wyposażenia (Stanovich, 2004, 2008). Umysł udaremnia także
procesy samo-ewaluacji poprzez interpretowanie umysłu jako
niefalsyfikowalnego (Dennett, 1995). Kosztem utrzymania mózgu
w działaniu jest godzenie się na jego niedoskonałe funkcjonowanie
i utrudnienia w jego udoskonalaniu.
MECHANIZMY WYŁĄCZAJĄCE
EWALUACJĘ
 Poronin (2006) pisze, że ludzie są głęboko przekonani, że
odkryliby nieracjonalność własnych procesów poznawczych po
prostu poprzez introspekcję. W rzeczywistości zdecydowana
większość tendencyjności poznawczych przebiega nieświadomie i
nie jest dostępna introspekcji. Mało tego, im umysł bardziej jest
obciążony (biased), tym większe ma przekonanie o własnej
niezawodności. Informacja o niedostępności prawdziwego
przebiegu wewnętrznych procesów wydaje się prawdziwa w
świetle modułowej koncepcji umysłu, jednak intuicyjna (naiwna)
psychologia preferuje introspekcję jako metodę zdobywania
wiedzy o własnych wewnętrznych procesach i mechanizmach.
Skoro zatem introspekcyjnie nie mamy możliwości odkrycia
własnych tendencyjności, jesteśmy głęboko przekonani o
spójności i niezawodności własnych procesów poznawczych.
BŁĘDY POZNAWCZE O MIESZANEJ
STRUKTURZE PRZYCZYNOWEJ
 Nie wszystkie opisane w literaturze błędy poznawcze dają się
łatwo zaklasyfikować do którejś z czterech wymienionych
wcześniej kategorii błędów. Jak wspomniano już wcześniej,
istnieją poważne problemy by niektóre błędy zaklasyfikować
odpowiednio jako luki w wyposażeniu umysłu lub błędy skąpstwa
poznawczego. Ale nie tylko w odpowiednim zaklasyfikowaniu
błędów tkwi problem. Niektóre z nich mają mieszany charakter,
wynikać mogą z nakładających się na siebie dwóch lub więcej
rodzajów opisanych wcześniej błędów. Poniżej omówię pokrótce
także tę grupę błędów poznawczych, w której skład wchodzą:
naiwne teorie psychologiczne, ślepota na własną tendencyjność,
błędy zadania selekcyjnego Wasona, myside bias, błędy
przewidywania afektywnego oraz konfirmacji własnego stanowiska
(confirmation bias).
NAIWNE TEORIE PSYCHOLOGICZNE
 Naiwne teorie psychologiczne opisują wiedzę i przekonania, jakie ludzie żywią
na temat swoich umysłów. Na to składa się zarówno niewiedza na temat na
przykład zdolności umysłu do radzenia sobie z nieprzyjemnymi zdarzeniami, a
przez to przeszacowywania ich negatywnych skutków (Kahneman, Tversky,
1979). Ale naiwna samowiedza to nie tylko brak odpowiednich informacji, ale
także posiadanie nieprawdziwych informacji. Przykładów tego typu przekonań
można znaleźć wiele, wymienić wśród nich warto choćby to, że
 ludzie są przekonani o znajomości przyczyn swoich własnych zachowań, a wiele
z zachowań ludzkich ma jednak przyczyny niedostępne świadomości (Nisbett,
Wilson, 1977).
 przeświadczenie o znajomości swojego własnego umysłu oraz o tym, że o ile
inni mogą być skażeni tendencyjnościami, o tyle nasz własny umysł jest od nich
stosunkowo wolny (Pronin, 2006).
 Tak więc w związku ze swoim mieszanym charakterem naiwne teorie są
kontaminacją braków wyposażenia umysłu oraz błędów w nim.
Zadanie selekcyjne
 Wyobraź sobie talię kart, na których z jednej strony są litery
alfabetu łacińskiego, a z drugiej strony liczby naturalne. Chcemy
wybrać z talii karty, które spełniały będą następujący warunek:
 „Jeśli z jednej strony karty jest samogłoska, to z drugiej jej
strony jest liczba parzysta. Wskaż te karty, które musisz odkryć,
aby przekonać się, czy wśród nich powyższa reguła jest
złamana.”
 Na stole widzisz następujące cztery karty wyciągnięte z talii:
Zadanie selekcyjne
 Badani w zdecydowanej większości decydują się sprawdzić karty,
zawierające A i 6. Jest to błąd, gdyż sprawdzanie „6” nie wnosi niczego
wartościowego do weryfikacji hipotezy. Gdyby po drugiej stronie była
samogłoska, to zdanie:, „jeśli z jednej strony karty jest samogłoska, to z
drugiej jej strony jest liczba parzysta” jest prawdziwe.
 Z kolei spółgłoska po drugiej stronie, nadal nie podważa hipotezy, gdyż
w żaden sposób w weryfikowanym zdaniu nie powiedziano, że liczba
parzysta może wystąpić tylko i wyłącznie po samogłosce. Jest to znany
błąd, związany z tabelą prawdziwości implikacji, w której ludzie
traktują implikację, jako implikację materialną (zamiast jeśli p to q,
badani analizują zdania q wtedy i tylko wtedy, gdy p).
 Prawidłowym rozwiązaniem jest poszukanie tych opcji, które jako
jedyne dają fałszywą implikację, czyli p oraz ~q. W tym zadaniu należy
odwrócić zatem karty A i 9.
MYSIDE BIAS
 Kolejnym złożonym błędem poznawczym jest „myside bias”. W






klasycznym eksperymencie Barona (1991), badanym dzieciom
zaprezentowano następującą historyjkę:
„Dziecko grozi, że nie odrobi pracy domowej, jeśli sprawy nie potoczą
się po jego myśli. Gdy nadchodzi czas spełnienia groźby dziecko chce
mimo wszystko zrobić pracę domową. Czy powinien spełnić groźbę?”
Badane dzieci zachęcono dodatkowo, do przeanalizowania kolejnych
argumentów, dotyczących danej historyjki:
„Powiedz mi, czy sądzisz, który z argumentów popiera nierobienie
pracy domowej, a który skłania do jej odrobienia? Potem powiedz, czy
jest to dobry czy zły argument.
Naprawdę chcesz zrobić pracę domową
Jeśli zrobisz prace domową, rodzice nie uwierzą więcej w twoje groźby
Jeśli nie zrobisz pracy domowej będziesz miał kłopoty w szkole”
MYSIDE BIAS
 Myside bias polegał na takim przekształcaniu argumentu, aby potwierdzał
przyjęte przez dziecko stanowisko. Tendencja do manipulowania argumentami
mogłaby także polegać na uznawaniu argumentów popierających własne
stanowisko za dobre, podczas gdy argumentów przeciwnych, jako złe.
 Wyjaśnienie zaobserwowanego przez Barona zjawiska jest po raz kolejny
złożone: błędne oprogramowanie umysłu wywołuje egocentryczne
przekonanie, że świat kręci się wokół nich. Jednak także przyjmowanie
narzuconego punktu widzenia może być przyczyną omawianego błędu. „Ludzie
pracują na modelu sytuacji, który jest najłatwiejszy do stworzenia; a jaki
mógłby być łatwiejszy niż ten, oparty na naszych poprzednich doświadczeniach
i przekonaniach?” (Stanovich i inni, 2008, s. 266). Należy odróżnić jednak
motywację do rozpatrywania problemów z własnej perspektywy od tej,
motywowanej oszczędnością poznawczą. Ta druga strategia, mimo że czasem
prowadzić może do wniosków pokrywających się z pierwszą, wykorzystuje
jednak modele sytuacji problemowej widziane tylko z własnego punktu
widzenia jedynie, gdy są one najłatwiej dostępne i najekonomiczniejsze.
BŁĘDY PRZEWIDYWANIA
AFEKTYWNEGO
 Ludzie są zaskakująco słabi w przewidywaniu swoich przyszłych
stanów emocjonalnych oraz ich natężenia (Kahneman, Dierner i
Schwarz, 1999). Podejmujemy decyzje, które okazują się być
nietrafne właśnie z tego powodu, że nie jesteśmy wstanie ocenić
ich przyszłego ładunku afektywnego. Stanovich (2008) podaje
przykład przeceniania negatywnych skutków swoich czynów, co w
efekcie może blokować działanie.
 W swoich naiwnych teoriach na temat ludzkiej psychiki często nie
doceniamy naszych zdolności obronnych i adaptacyjnych. Często
przecież automatycznie wmawiamy sobie, że ta wymarzona do
niedawna praca wcale nie jest taka ciekawa, i tak naprawdę wcale
jej nie chcieliśmy (także w ekonomii mamy do czynienia z
pochodnym temu zjawiskiem, kwaśnymi winogronami Elstera;
Mongin, 1999).
BŁĘDY PRZEWIDYWANIA
AFEKTYWNEGO
 Kolejnym problemem w przewidywaniu swoich przyszłych
stanów emocjonalnych jest przyjmowanie narzuconej
perspektywy. Fani drużyn przeceniają na przykład swoją
radość po wygranym meczu w dwa dni po jego odbyciu
(Doliński, 2008). Oceniają oni swój stan jedynie z
naświetlonej perspektywy wygranego meczu, nie biorąc pod
uwagę ukrytych alternatywnych zdarzeń, które mogą
wpłynąć na ich samopoczucie w tym są mym czasie.
Racjonalność a decyzje finansowe
Zieonka/Wąsowicz-Kiryło
Heurystyka zakotwiczenia (Stephan,
Kiell, 2000)
 DAX (z 21 mscy) oszacuj na 12 mcy w przód, czy
 A) spadnie poniżej 4500pkt
 B) przekroczy 6500 pkt
 Oszacowania: 5765 (a) i 5930 (b)
Fejming
 Otrzymujesz 200 zł, oraz:
 A) dostajesz dodatkową 100
 B) 50% szans na 200
 Otrzymujesz 400zł, oraz
 A) oddajesz 100
 B) 50% szans na strate 200
 Kupiłeś 100 akcji po 20 zł, które staniały do 10. Firma ta
zainwestowała – jak inwestycja się uda (cena wraca do 20), jesli
nie to cena spada do 0. Co wybierasz?
Księgowanie mentalne
 Bilet do kina kosztuje 10 zł, a idąc do kina
 A) zgubiłeś bilet
 B) zgubiłeś 10 zł przeznaczone na ten bilet
 Czy kupisz bilet w kasie?
 Zdecydowana przewaga „B”
Księgowanie mentalne
 Rozdzielaj zyski
 Łącz straty
 Łącz małą strate z duzym zyskiem
 Oddziel mały zysk od dużej straty
Prawdopodobieństwo
 Heurystyka reprezentatywności (LINDA)
 Dlaczego inteligentne kobiety chętnie wychodzą za mniej





inteligentnych od siebie facetów? Regresja do średniej!
Złudzenie gracza
Heurystyka dostępności
Przewidywanie afektywne (iluzja optymizmu)
Nadmierna pewność siebie
Złudzenie kontroli

similar documents