Daniela Kahnemana. Eksperymenty psychologiczne D

Nasze działania i czyny są zdeterminowane przez nasze myśli. Ale czy zawsze kontrolujemy nasze myślenie? Laureat Nagrody Nobla Daniel Kahneman wyjaśnia, dlaczego czasami zachowujemy się irracjonalnie i dlaczego podejmujemy złe decyzje. Mamy dwa systemy myślenia. „Powolne” myślenie uruchamia się, gdy rozwiązujemy problem lub wybieramy produkt w sklepie. Zwykle wydaje nam się, że z całą pewnością panujemy nad tymi procesami, jednak nie zapominajmy, że za naszą świadomością, w tle nieustannie pracuje „szybkie” myślenie – automatyczne, chwilowe i nieświadome…

To już druga praca Daniela Kahnemana, którą miałam szczęście przeczytać. Tak, dokładnie… mający szczęście... Pierwszą była książka. Kahneman pisze bardzo łatwo, ciekawie... o sprawach trudnych; czasami paradoksalne. Wiele eksperymentów opisanych w jego książkach jest fascynujących. Nie mogę się oprzeć urokowi jego stylu i faktury. Dlatego notatki są obszerne. Więc polecam...

Daniela Kahnemana. Myśl powoli... decyduj szybko. – M.: AST, 2013. – 656 s.

Pobierz krótkie podsumowanie w formacie lub

Wstęp

Głębsze zrozumienie osądu i wyboru wymaga szerszego słownictwa niż jest to powszechnie używane w życiu codziennym. Większość błędów popełnianych przez ludzi wynika z pewnych wzorców. Takie błędy systematyczne, zwane uprzedzeniami, występują w przewidywalny sposób w tych samych okolicznościach. Na przykład publiczność ma tendencję do bardziej przychylnej oceny atrakcyjnego i pewnego siebie mówcy. Reakcja ta nazywana jest „efektem aureoli”, co czyni ją przewidywalną, rozpoznawalną i zrozumiałą. Zwykle możesz powiedzieć, co myślisz. Proces myślenia wydaje się jasny: jedna świadoma myśl w naturalny sposób powoduje następną. Ale nie jest to jedyny sposób, w jaki działa umysł; Co więcej, zasadniczo działa to inaczej. Praca umysłowa, która prowadzi do wrażeń, przeczuć i wielu decyzji, zwykle przebiega niezauważona.

Początki. Ta książka przedstawia moje obecne rozumienie sądów wartościujących i podejmowania decyzji, na które wpływają odkrycia psychologii ostatnich dziesięcioleci. A wszystko zaczęło się od Amosa Tversky’ego. Najpierw opracowaliśmy teorię dotyczącą roli, jaką podobieństwo odgrywa w przewidywaniu. Następnie przetestowaliśmy i rozwinęliśmy tę teorię za pomocą wielu eksperymentów, takich jak poniższe. Aby odpowiedzieć na to pytanie, załóżmy, że Steve został wybrany losowo z reprezentatywnej próby. Ktoś tak opisuje swojego sąsiada: „Steve jest bardzo nieśmiały i nietowarzyski, zawsze gotowy do pomocy, ale mało interesuje innych i rzeczywistość. Jest cichy i schludny, uwielbia porządek i systematyczność oraz bardzo zwraca uwagę na szczegóły.” Czy Steve woli pracować jako rolnik czy bibliotekarz? Wszyscy od razu zwracają uwagę na podobieństwo Steve'a do typowego bibliotekarza, ale prawie zawsze ignorują równie ważne względy statystyczne. Czy pamiętacie, że na każdego bibliotekarza płci męskiej w Stanach Zjednoczonych przypada ponad 20 rolników?

Badani wykorzystali podobieństwo jako czynnik upraszczający heurystyka(z grubsza rzecz biorąc, zasada czysto praktyczna), aby łatwiej było dojść do złożonego sądu wartościującego. Z kolei poleganie na heurystyce doprowadziło do błędów predykcyjnych (trwałych błędów) w przewidywaniach.

W piątym roku współpracy opublikowaliśmy główne wnioski z naszych badań w czasopiśmie Science, które czytają naukowcy z różnych dziedzin nauki. Artykuł zatytułowany „Osąd na podstawie niepewności: heurystyka i błędy” pojawia się w całości w ostatniej części tej książki.

Badacze historii nauki (patrz na przykład) często zauważają, że w dowolnym momencie w ramach danej dyscypliny naukowcy w dużej mierze opierają się na tych samych podstawowych założeniach w swojej dziedzinie studiów. Nauki społeczne nie są wyjątkiem; opierają się na pewnym ogólnym obrazie natury ludzkiej, który stanowi podstawę wszelkich dyskusji na temat konkretnych zachowań, ale rzadko jest kwestionowany. W latach 70. powszechnie akceptowano dwa stanowiska. Po pierwsze, ludzie są na ogół racjonalni i zazwyczaj myślą jasno. Po drugie, większość odstępstw od racjonalności tłumaczy się emocjami: na przykład strachem, przywiązaniem lub nienawiścią. W naszym artykule zakwestionowaliśmy oba te założenia, nie omawiając ich bezpośrednio. Udokumentowaliśmy utrzymujące się błędy w myśleniu u normalnych ludzi i odkryliśmy, że są one spowodowane samym mechanizmem myślenia, a nie zakłóceniem procesu myślenia pod wpływem emocji.

Pięć lat po ukazaniu się artykułu w czasopiśmie Science opublikowaliśmy artykuł „Teoria perspektywy: analiza decyzji pod ryzykiem”, w którym nakreśliliśmy teorię wyboru, która stała się jednym z fundamentów ekonomii behawioralnej (patrz np.) .

Nadmierna spójność emocjonalna (efekt aureoli). Tendencja do postrzegania wszystkiego w danej osobie jako dobrego (lub złego), łącznie z tym, czego się nie widziało, nazywana jest efektem aureoli. Jest to jeden ze sposobów, w jaki System 1 generuje obraz otaczającego nas świata, czyniąc go prostszym i bardziej logicznym niż jest w rzeczywistości. Często obserwujemy cechy danej osoby w całkowicie losowej kolejności. Kolejność jest jednak istotna, gdyż efekt aureoli zwiększa siłę pierwszego wrażenia.

Moja metoda redukcji efektu halo sprowadza się do ogólnej zasady: pozbyć się korelacji błędów! Aby zrozumieć, jak działa ta zasada, wyobraź sobie, że wielu osobom pokazuje się szklane słoiki wypełnione monetami i proszono o oszacowanie kwoty reszty w każdym słoiku. Jak wyjaśnił James Surowiecki w swojej znakomitej książce, uczestnicy zazwyczaj słabo radzą sobie z tego typu zadaniami, ale gdy zsumuje się wszystkie indywidualne oceny, wynik jest nieoczekiwanie dobry. Niektórzy przeceniają rzeczywistą ilość, inni ją niedoceniają, ale jeśli wszystkie szacunki zostaną uśrednione, wynik wyjdzie dość dokładny. Mechanizm jest prosty: wszyscy patrzą na ten sam słoik, wszystkie szacunki mają tę samą podstawę, błędy każdego nie zależą od błędów innych i (w przypadku braku systematycznych zniekształceń) są uśredniane do zera.

Zasada niezależności ocen i błędów dekorelacyjnych może być z powodzeniem stosowana przez menadżerów firm podczas spotkań i wszelkiego rodzaju spotkań. Prostą zasadą jest to, że wszyscy uczestnicy przed dyskusją spisują podsumowanie swojego punktu widzenia, dzięki czemu efektywnie wykorzystuje się różnorodność wiedzy i opinii w grupie. W standardowej otwartej dyskusji zbyt dużą wagę przywiązuje się do opinii tych, którzy wypowiadają się wcześniej i bardziej przekonująco niż inni, zmuszając innych do przyłączenia się.

To, co widzisz, jest tym, co widzisz (WYSIATI). Najważniejszą cechą konstrukcyjną mechanizmu skojarzeniowego jest to, że reprezentuje on tylko aktywowane idee. Informacje, które nie są odzyskane z pamięci, przynajmniej podświadomie, równie dobrze mogą po prostu nie istnieć. System 1 świetnie radzi sobie z konstruowaniem najlepszej możliwej historii, która uwzględnia aktualnie aktywowane pomysły, ale nie zawiera (i nie może uwzględnić) informacji, których nie posiada. Miarą sukcesu Systemu 1 jest konsekwencja stworzyła historię. Ilość i jakość danych, na których się opiera, nie jest szczególnie istotna. Gdy informacji jest mało, jak to często bywa, System 1 funkcjonuje jako mechanizm umożliwiający wyciąganie pochopnych wniosków.

Tendencja do wyciągania pochopnych wniosków na podstawie ograniczonych danych jest tak ważna dla zrozumienia myślenia intuicyjnego i jest tak często wspominana w tej książce, że użyję dla niej dość kłopotliwego akronimu: WYSIATI, co oznacza „What You See Is”. ). System 1 jest kategorycznie niewrażliwy na ilość i jakość informacji, na których opierają się wrażenia i przeczucia. Aby historia była spójna, ważne jest, aby informacje były spójne, ale niekoniecznie kompletne. Tak naprawdę często, gdy się wie mniej, łatwiej jest wszystko ułożyć w spójny schemat.

Dlatego w złożonym świecie myślimy szybko i rozumiemy niekompletne informacje. Generalnie nasze spójne historie są na tyle bliskie rzeczywistości, że stanowią podstawę do racjonalnego działania. Jednak WYSIATI prowadzi do różnych błędów w selekcji i ocenie, w tym następujących:

  • Zbytnia pewność siebie: Jak sugeruje reguła WYSIATI, ani ilość, ani jakość dowodów nie wpływa na subiektywne zaufanie jednostek. Wiara we własne przekonania na ogół zależy od jakości historii zbudowanej z tego, co się widzi, nawet jeśli widzi się tylko trochę. Często nie bierzemy pod uwagę możliwości, że nie mamy danych potrzebnych do sformułowania oceny – widzimy to, co widzimy. Co więcej, nasz system skojarzeniowy lubi opierać się na spójnym wzorcu aktywacji i tłumi wątpliwości i dwuznaczność.
  • Efekt kadrowania: Różne sposoby przedstawiania tych samych informacji często wywołują różne emocje. Stwierdzenie „Wskaźnik miesięcznego przeżycia pooperacyjnego wynosi 90%” jest bardziej uspokajające niż równoważne stwierdzenie „Wskaźnik miesięcznej śmiertelności pooperacyjnej wynosi 10%”. Podobnie produkty oznaczone jako „bez tłuszczu w 90%” są atrakcyjniejsze niż produkty oznaczone jako „10% tłuszczu”. Równoważność sformułowań jest oczywista, ale człowiek zwykle widzi tylko jedno z nich i dla niego istnieje tylko to, co widzi.
  • Zaniedbanie prawdopodobieństwa wcześniejszego: Przypomnij sobie nieśmiałego i schludnego Steve'a, którego często mylono z bibliotekarzem. Opis osobowości jest żywy i żywy i chociaż prawdopodobnie wiesz, że rolników jest więcej niż bibliotekarzy, ten statystyczny fakt prawdopodobnie nie przyszedł ci do głowy, kiedy po raz pierwszy zastanawiałeś się nad tym pytaniem.

Rozdział 8. Jak dokonuje się osądów

System 2 skieruje uwagę na poszukiwanie odpowiedzi w pamięci. System 2 jest w stanie odbierać pytania lub je generować, ale i tak następuje przekierowanie uwagi i poszukiwanie odpowiedzi w pamięci. System 1 działa inaczej. Stale monitoruje to, co dzieje się wewnątrz i na zewnątrz umysłu, i generuje oceny różnych aspektów sytuacji bez określonej intencji i przy niewielkim lub żadnym wysiłku. Te podstawowe szacunki odgrywają ważną rolę w sądach intuicyjnych, ponieważ łatwo można je zastąpić bardziej złożonymi odpowiedziami – na tym polega główna idea metody heurystyki i uprzedzeń.

Podstawowe oceny. W toku ewolucji System 1 rozwinął zdolność do ciągłej oceny podstawowych zadań, które organizm musi rozwiązać, aby przetrwać: Jak leci? czy istnieje zagrożenie? Czy jest dobra okazja? Wszystko w porządku? Odziedziczyliśmy mechanizmy neuronowe, które na bieżąco oceniają poziom zagrożenia i nie można ich wyłączyć. Dla człowieka dobry nastrój i łatwość poznawcza są równoznaczne z oceną otoczenia jako bezpiecznego i znajomego. Konkretnym przykładem oceny podstawowej jest umiejętność odróżnienia na pierwszy rzut oka przyjaciela od wroga.

Alex Todorov, mój kolega z Princeton, odkrył, że ludzie oceniają kompetencje, łącząc dwa wymiary: siłę i niezawodność. Twarze emanujące kompetencją łączą mocny podbródek z lekkim, pewnym siebie uśmiechem. To jest przykład heurystyki sądowe. Wyborcy starają się wyrobić sobie wrażenie, jak dobry będzie kandydat na stanowisku, i skłaniają się ku prostszej ocenie, która jest szybka, automatyczna i dostępna w momencie podejmowania decyzji przez System 2.

Zestawy i prototypy. System 1 reprezentuje kategorie poprzez prototyp lub kilka typowych przykładów, dlatego jest dobry w uśrednianiu, ale niezbyt dobry w sumowaniu.

Porównanie intensywności. Inną zdolnością Systemu 1 jest leżąca u jego podstaw skala intensywności, która pozwala mu znajdować dopasowania w wielu różnych obszarach. Na przykład Julie nauczyła się czytać w wieku 4 lat. Porównaj jej umiejętność czytania z tą skalą intensywności: Jak wysoki powinien być mężczyzna, jeśli jest tak wysoki jak Julie? A co powiesz na metr osiemdziesiąt? Zdecydowanie za mało. A co z drugą piętnastką? Prawdopodobnie za dużo. Potrzebujesz wzrostu tak niezwykłego, jak umiejętność czytania w wieku czterech lat: dość niezwykłego, ale nie niesamowitego.

Zobaczymy później, dlaczego ta metoda przewidywania na podstawie porównania jest statystycznie niepoprawna, choć całkowicie naturalna dla Systemu 1 i dlaczego dla większości ludzi – z wyjątkiem statystyków – jej wyniki są akceptowalne dla Systemu 2.

„Psychiczny strzał za strzałem”. Kontrola nad celowymi obliczeniami nie jest zbyt precyzyjna: często liczymy znacznie więcej, niż potrzebujemy lub chcemy. Nazywam te dodatkowe obliczenia ułamkami mentalnymi. Ze strzelby nie można trafić w jedno miejsce, ponieważ śrut jest rozrzucony w różnych kierunkach, a wydaje się, że System 1 jest tak samo trudny do wykonania dokładnie tyle, ile wymaga tego System 2.

Rozdział 9. Odpowiedź na łatwiejsze pytanie

Zastąpienie pytania. Oferuję proste wyjaśnienie, w jaki sposób generujemy intuicyjne opinie na temat złożonych kwestii. Jeśli odpowiedź na trudne pytanie nie zostanie szybko zadowalająca, System 1 szuka łatwiejszego powiązanego pytania i udziela na nie odpowiedzi (rysunek 5). Nazywam to operacją odpowiadania na jedno pytanie zamiast na inne podstawienie. Używam także następujących terminów: Pytanie docelowe to ocena, której zamierzasz dokonać. Pytanie heurystyczne to prostsze pytanie, na które odpowiadasz zamiast pytania docelowego. Formalna definicja metody heurystycznej wygląda mniej więcej tak: jest to prosta procedura lub postawa, która pomaga znaleźć adekwatną, choć często niedoskonałą, odpowiedź na trudne pytania. Słowo heurystyka pochodzi od tego samego rdzenia co eureka. Możesz nie zdawać sobie sprawy, że pytanie docelowe było trudne, ponieważ łatwo przychodziła Ci na myśl intuicyjna odpowiedź.

Heurystyka afektu. Przewaga wniosków nad argumentami jest najbardziej zauważalna w sytuacjach, w których występują emocje. Psycholog Paul Slovic zaproponował wyjaśnienie heurystyki afektu, która wykorzystuje nasze upodobania i antypatie do kształtowania naszych przekonań na temat otaczającego nas świata. W kwestiach emocjonalnego stosunku do czegoś System 2 nie jest krytykiem, ale obrońcą emocji Systemu 1, raczej zachęca, niż zabrania; Poszukuje przede wszystkim informacji i argumentów zgodnych z jej dotychczasowymi przekonaniami, a nie informacji, które pozwolą jej je przeanalizować. Aktywny, poszukujący spójności System 1 oferuje rozwiązania dla mało wymagającego Systemu 2.

Poniższa tabela zawiera listę cech i zachowań Systemu 1. Mam nadzieję, że ta lista pomoże Ci rozwinąć intuicyjne „poczucie osobowości” dla fikcyjnego Systemu 1. Podobnie jak wiele znanych Ci postaci, będziesz miał intuicję na temat tego, co miałby System 1. zrobił to w innych okolicznościach, oraz b O Większość twoich przeczuć będzie trafna. Zatem cechy Systemu 1:

CZĘŚĆ DRUGA. METODY HEURYSTYKI I ZNIEKSZTAŁCEŃ
Rozdział 10. Prawo małych liczb

System 1 jest doskonale przystosowany do jednego sposobu myślenia – automatycznie i bez wysiłku rozpoznaje związki przyczynowe pomiędzy zdarzeniami, czasem nawet w przypadkach, gdy związku nie ma. Jednakże System 1 nie radzi sobie zbyt dobrze z faktami „czysto statystycznymi”, które zmieniają prawdopodobieństwo wystąpienia wyników, ale ich nie powodują. Zdarzenie losowe jest z definicji niewytłumaczalne, natomiast ciąg zdarzeń losowych zachowuje się niezwykle regularnie.

Duże próbki dają dokładniejsze wyniki niż małe. Małe próbki częściej dadzą ekstrema niż duże. Pierwsze wspólne badanie Amosa i mnie wykazało, że nawet doświadczeni badacze mają słabą intuicję i niejasne zrozumienie znaczenia wielkości próby.

Prawo małych liczb. Dla psychologa badawczego zmienność próby to nie tylko osobliwość, to niedogodność i kosztowna uciążliwość, która zamienia każde badanie w grę losową. Załóżmy, że chcesz potwierdzić hipotezę, że słownictwo sześcioletnich dziewcząt jest średnio większe niż słownictwa chłopców w tym samym wieku. W całej populacji hipoteza jest słuszna: dziewczęta w wieku sześciu lat mają średnio większe słownictwo. Jednak dziewczęta i chłopcy bardzo się od siebie różnią i można losowo wybrać grupę, w której nie ma zauważalnej różnicy, lub nawet taką, w której chłopcy uzyskują wyższe wyniki. Jeśli jesteś badaczem, taki wynik będzie Cię drogo kosztować, ponieważ po poświęconym czasie i wysiłku nie potwierdzisz poprawności hipotezy. Ryzyko zmniejsza się jedynie poprzez użycie wystarczająco dużej próbki, a ci, którzy pracują z małymi próbami, pozostawiają się przypadkowi. Pierwszy artykuł, który napisałem wspólnie z Amosem, nosił tytuł „Wiara w prawo małych liczb”.

Wolę pewność od wątpliwości. Prawo Małych Liczb jest przejawem ogólnej tendencji do pewności zamiast wątpliwości. Silna predyspozycja do wiary, że małe próbki dokładnie reprezentują całą populację, oznacza coś więcej: mamy tendencję do wyolbrzymiania spójności i spójności tego, co widzimy. Nadmierne poleganie badaczy na wynikach kilku obserwacji przypomina efekt aureoli, czyli uczucie, które często towarzyszy nam, że znamy i rozumiemy osobę, o której tak naprawdę wiemy niewiele. System 1 przewiduje fakty, budując pełny obraz na podstawie fragmentarycznych informacji. Mechanizm wyciągania pochopnych wniosków zachowuje się tak, jakby wierzył w prawo małych liczb. Ogólnie rzecz biorąc, tworzy zbyt znaczący obraz rzeczywistości.

Powód i okazja. Mechanizmy asocjacyjne szukają przyczyn. Wzorce statystyczne są trudne do dostrzeżenia, ponieważ wymagają zasadniczo innego podejścia. Kiedy patrzymy na wydarzenie ze statystycznego punktu widzenia, interesuje nas jego związek z tym, co mogło się wydarzyć, a nie jak dokładnie się wydarzyło. Nie było żadnego specjalnego powodu; przypadek wybrał go spośród innych.

Iluzja regularności wpływa na nasze życie. Ile dobrych transakcji musi zawrzeć Twój doradca finansowy, zanim uznasz, że jest on niezwykle skuteczny? Ile udanych przejęć przekona zarząd, że dyrektor generalny ma talent do takich transakcji? Prosta odpowiedź na te pytania jest taka, że ​​kierując się intuicją, z większym prawdopodobieństwem postrzegasz zdarzenie losowe jako naturalne. Zbyt chętnie odrzucamy pogląd, że większość naszego życia jest przypadkowa.

Rozdział 11. Efekt zakotwiczenia

Efekt zakotwiczenia występuje, gdy badani stykają się z dowolną liczbą przed oszacowaniem nieznanej wartości. Eksperyment ten daje jedne z najbardziej wiarygodnych i spójnych wyników w psychologii eksperymentalnej: szacunki nie odbiegają od rozważanej liczby, stąd obraz zakotwiczenia w pewnym punkcie.

Efekt zakotwiczenia generowany jest przez dwa różne mechanizmy, po jednym dla każdego systemu. Jedna z form wiązania ma miejsce w procesie dostosowania ukierunkowanego na cel, to znaczy w działaniu Systemu 2. Wiązanie poprzez torowanie jest automatyczną reakcją Systemu 1.

Efekt zakotwiczenia jako środek regulacji. Amosowi spodobał się pomysł heurystyki „zakotwicz i dostosuj” jako strategii szacowania nieznanych wielkości: zaczynanie od liczby „kotwicy”, szacowanie, jak mała lub duża jest ona, i stopniowe dostosowywanie własnych szacunków, gdy mentalnie „oddalamy się” od z kotwicy.” Dostosowania zwykle kończą się przedwcześnie, ponieważ ludzie przestają działać, tracąc pewność siebie, pozwalającą iść dalej.

Zakotwiczenie jako efekt pierwszeństwa. Efekt zakotwiczenia jest szczególnym przypadkiem sugestii. Proces podobny do sugestii sprawdza się w wielu sytuacjach: System 1 usiłuje skonstruować świat, w którym kotwicą jest właściwa liczba. Jest to jeden z przejawów spójności skojarzeniowej. Efekty zakotwiczenia są wszędzie wokół nas. Ze względu na mechanizmy psychologiczne, które generują takie efekty, jesteśmy bardziej podatni na sugestie i oczywiście jest wielu, którzy chcą wykorzystać naszą naiwność. Negocjując zakup domu, sprzedawca wykonuje pierwszy krok, ustalając cenę: ta sama strategia działa.

Negocjatorom można doradzić, aby skupili się na przeszukiwaniu pamięci pod kątem argumentów przeciwko zakotwiczeniu. Przerażająca siła efektu zakotwiczenia polega na tym, że jesteś świadomy obecności kotwicy i nawet zwracasz na nią uwagę, ale nie wiesz, w jaki sposób prowadzi ona i ogranicza twoje myśli, ponieważ nie możesz sobie wyobrazić, jak byś myślał bez efektu zakotwiczenia.

Rozdział 12: Nauka o dostępności

Heurystyka dostępności polega na zastąpieniu oceny częstotliwości występowania, łatwości, z jaką przychodzą na myśl przykłady. Heurystyka dostępności dotyczy obu systemów. W jednym z najsłynniejszych badań dotyczących przystępności cenowej zadano małżonkom pytanie: „Jaki procent twojego wysiłku przeznacza się na utrzymanie porządku w domu?” Zadano im także podobne pytania dotyczące wynoszenia śmieci, inicjowania spotkań itp. Czy suma samodzielnie oszacowanych składek będzie równa, większa czy mniejsza niż 100%? Zgodnie z przewidywaniami kwota okazała się większa niż 100%. Wyjaśnieniem jest prosty błąd dostępności: oboje małżonkowie pamiętają swój wkład i wysiłki znacznie wyraźniej niż druga połowa, a różnice w dostępności prowadzą do różnic w szacunkach częstotliwości. To samo zniekształcenie można zauważyć obserwując grupę pracowników: każdy uczestnik ma poczucie, że zrobił więcej, niż powinien, a jego współpracownicy nie są wystarczająco wdzięczni za jego wkład we wspólną sprawę.

Psychologia dostępności. Jak na wrażenia dotyczące częstotliwości występowania danej kategorii wpłynie wymóg podania określonej liczby przykładów? Ważniejsze od ich liczby okazało się poczucie szybkiego odnalezienia przykładów. Łatwość, z jaką przychodzą na myśl przykłady, to heurystyka Systemu 1, którą zastępuje się skupieniem na treści, gdy System 2 jest bardziej zaangażowany.

Rozdział 13. Dostępność, emocje, ryzyko

Badacze ryzyka szybko dostrzegli wagę idei dostępności. Przystępność cenowa pomaga wyjaśnić, dlaczego istnieje tendencja do wykupywania ubezpieczenia i podejmowania środków ochronnych po wypadkach. Zmiany w pamięci wyjaśniają pojawienie się cykli „niepokój – podekscytowanie – rosnący spokój”, znanych wszystkim badaczom katastrof.

Szacunki dotyczące przyczyn śmierci są zniekształcane przez doniesienia medialne. Nasze szacunki dotyczące częstotliwości zdarzeń są zniekształcone przez powszechność i intensywność emocjonalną informacji wokół nas. Slovik opracował koncepcję wpływać na heurystyki: ludzie podejmują decyzje i osądzają wyłącznie na podstawie emocji - czy mi się to podoba? Nie lubię? Jak silne są moje uczucia? Heurystyka afektu jest przykładem substytucji, w której odpowiedź na łatwe pytanie (co o tym myślę?) służy jako odpowiedź na znacznie trudniejsze pytanie (co o tym myślę?).

Zespół badaczy pod kierownictwem Slovika w przekonujący sposób zademonstrował działanie heurystyki afektu, badając opinie na temat różnych procesów technologicznych, produktów i urządzeń, w tym fluoryzacji wody, produkcji chemicznej, konserwantów żywności i samochodów. Respondentów poproszono o ocenę korzyści i zagrożeń związanych z każdą kategorią. Między tymi wynikami istniała niezwykle wysoka ujemna korelacja. Technologie, które respondenci uznali za korzystne, zostały ocenione jako zapewniające wiele korzyści i niewielkie ryzyko; technologie, które nie podobały się badanym, zostały ocenione negatywnie, wymieniono wiele wad i rzadko wymieniano zalety.

Trwały afekt jest podstawowym składnikiem spójności skojarzeniowej. Jak zauważył psycholog Jonathan Haidt, „emocjonalny ogon macha racjonalnym psem”. Heurystyka afektu ułatwia nam życie, wyobrażając sobie, że świat jest znacznie bardziej zorganizowany, niż jest w rzeczywistości.

Slovik zakwestionował podstawową kompetencję ekspertów: pogląd, że ryzyko jest obiektywne. „Ryzyko nie istnieje po prostu poza naszymi umysłami i kulturą i czeka na zmierzenie. Pojęcie ryzyka zostało wymyślone, aby lepiej zrozumieć i poradzić sobie z niebezpieczeństwami i niepewnością życia. Slovik konkluduje, że „definiowanie ryzyka w ten sposób staje się sprawowaniem władzy”.

Na przykład daminozyd to substancja chemiczna rozpylana na jabłka w celu regulacji ich wzrostu i poprawy ich wyglądu. Panika rozpoczęła się od artykułów w mediach donoszących, że substancja chemiczna spożywana w dużych dawkach powoduje nowotwory nowotworowe u szczurów i myszy. „Panika daminozydowa” ilustruje podstawowe ograniczenie zdolności naszego umysłu do radzenia sobie z niewielkimi zagrożeniami: albo całkowicie je ignorujemy, albo nadmiernie je podkreślamy – bez żadnego środka pośredniego. To uczucie jest znane każdemu rodzicowi, który czeka na powrót swojej nastoletniej córki z dłuższej imprezy.

Rozdział 14. Specjalność Toma V.

O ile wiadomo, Tomek W. został wybrany losowo, jak kulka z pojemnika. Aby zdecydować, czy ta kula będzie czerwona, czy zielona, ​​musisz wiedzieć, ile było piłek. Zamiast tego skupiasz się na podobieństwie opisu Toma W. do stereotypów. Nazwaliśmy to podobieństwo reprezentatywnością, a przewidywanie heurystyczne na podstawie reprezentatywności.

Logicy i statystycy opracowali niespójne, ale bardzo precyzyjne definicje prawdopodobieństwa. Dla zwykłych ludzi prawdopodobieństwo (synonim „wiarygodności”) jest niejasnym pojęciem kojarzonym z niepewnością, predyspozycjami, prawdopodobieństwem i zaskoczeniem. Pytanie o prawdopodobieństwo aktywuje „fragmenty mentalne”, podpowiadając odpowiedzi na łatwiejsze pytania. Jednym z nich jest automatyczna ocena reprezentatywności. Na heurystykę reprezentatywności odwołuje się także ktoś, kto mówi: „Ona wygra wybory, widać to po niej” lub „Nie zostanie naukowcem, ma za dużo tatuaży”. Przewidywania reprezentatywności są powszechne, ale ze statystycznego punktu widzenia nieoptymalne. Bestseller Michaela Lewisa Człowiek, który zmienił wszystko, to opowieść o nieskuteczności tej metody przewidywania. Profesjonalni trenerzy hodowli zazwyczaj przewidują sukces potencjalnych graczy na podstawie ich budowy i wyglądu. Bohater książki Lewisa, Billy Beane, menadżer drużyny baseballowej Oakland Athletics, podjął niepopularną decyzję o selekcji zawodników na podstawie statystyk meczów.

Wady reprezentatywności. Szacowanie prawdopodobieństwa na podstawie reprezentatywności ma ważne zalety: intuicyjne wrażenia są prawie zawsze dokładniejsze niż przypadkowe domysły. W innych sytuacjach stereotypy kłamią, a heurystyka reprezentatywności jest myląca, zwłaszcza jeśli pomija wcześniejsze informacje o prawdopodobieństwie. Drugą wadą reprezentatywności jest niewrażliwość na jakość danych. Zapamiętaj zasadę Systemu 1: to, co widzisz, jest tym, co widzisz.

Jak ćwiczyć swoją intuicję. Reguła Bayesa określa, w jaki sposób połączyć istniejące przekonania (wcześniejsze prawdopodobieństwa) z wartością diagnostyczną informacji, czyli w jakim stopniu należy preferować hipotezę nad alternatywą. Przykładowo, jeżeli uważasz, że 3% studentów studiów magisterskich studiuje informatykę (prawdopodobieństwo aprioryczne), a także z opisu wynika, że ​​Tomek W. czterokrotnie częściej studiuje informatykę niż inne nauki, wówczas wzór Bayesa uwzględnia, że ​​prawdopodobieństwo, że Tom W. jest maniakiem komputerowym, wynosi 11%.

Są dwie ważne rzeczy, o których należy pamiętać na temat toku rozumowania bayesowskiego i tego, jak często je łamiemy. Po pierwsze, wcześniejsze prawdopodobieństwa są ważne nawet wtedy, gdy dostępne są informacje na temat danej sprawy. Często nie jest to intuicyjnie oczywiste. Po drugie, intuicyjne wrażenia dotyczące wartości diagnostycznej informacji są często przesadzone.

Rozdział 15. Linda: mniej znaczy więcej

Prawdopodobieństwo jest zmienną sumopodobną. Można to zobaczyć na następującym przykładzie: prawdopodobieństwo (Linda jest kasjerką) = prawdopodobieństwo (Linda jest kasjerką feministyczną) + prawdopodobieństwo (Linda jest kasjerką, a nie feministką). System 1 ocenia średnią, a nie sumę, więc gdy z listy zostaną usunięte niefeministyczne kasjerki, subiektywne prawdopodobieństwo wzrasta. Łatwiej jednak odpowiedzieć na pytanie „Ilu ze 100 uczestników…” niż na pytanie o wartości procentowe. Prawdopodobnym wyjaśnieniem jest to, że wzmianka o stu osobach wywołuje w umyśle obraz przestrzenny. Reprezentacja ta, zwana reprezentacją częstotliwościową, ułatwia rozpoznanie faktu, że jedna grupa należy do drugiej. Rozwiązaniem zagadki wydaje się być pytanie „ile?” każe myśleć o poszczególnych osobach i to samo pytanie w sformułowaniu „jaki procent?” - NIE.

Rozdział 16. Powody przebijają statystyki

Rozważ opis i udziel intuicyjnej odpowiedzi na pytanie: W nocy taksówkarz potrącił samochód i uciekł z miejsca zdarzenia. W mieście są dwie firmy taksówkarskie, zielona i niebieska. Otrzymałeś następujące informacje:

  • 85% taksówek miejskich należy do firmy „Zielona”, a 15% do firmy „Niebieskiej”.
  • Świadek zidentyfikował taksówkę jako „niebieską”. Testy kryminalistyczne sprawdziły wiarygodność świadka w warunkach nocnych i wykazały, że świadek zidentyfikował każdy z dwóch kolorów poprawnie w 80% przypadków i błędnie w 20% przypadków.

Jakie jest prawdopodobieństwo, że taksówką, która uciekła, była niebieska, a nie zielona?

Jest to standardowy problem wnioskowania bayesowskiego. Zawiera dwie informacje: prawdopodobieństwo aprioryczne i nie do końca wiarygodne zeznania naocznego świadka. W przypadku braku świadka prawdopodobieństwo, że sprawcą taksówki jest „Niebieska” wynosi 15%, co oznacza aprioryczne prawdopodobieństwo takiego wyniku. Gdyby firmy taksówkarskie były równie duże, wcześniejsze prawdopodobieństwo stałoby się mało informatywne. W takim przypadku, biorąc pod uwagę jedynie wiarygodność świadka, można stwierdzić, że prawdopodobieństwo wynosi 80%. Obydwa źródła informacji można połączyć, korzystając ze wzoru Bayesa. Prawidłowa odpowiedź to 41%. Jednak prawdopodobnie domyślasz się, że rozwiązując ten problem, badani ignorują wcześniejsze prawdopodobieństwo i wybierają świadka. Najczęstszą odpowiedzią jest 80%.

Przyczynowe stereotypy. Teraz spójrz na tę samą historię z inną reprezentacją prawdopodobieństwa wcześniejszego. Masz następujące dane:

  • Obie firmy dysponują taką samą liczbą samochodów, ale w 85% wypadków biorą udział zielone taksówki.
  • Informacje o świadku są takie same jak w poprzedniej wersji zadania.

Te dwie wersje są matematycznie takie same, ale różnią się z psychologicznego punktu widzenia. Ci, którzy przeczytali pierwszą wersję zadania, nie wiedzą, jak posługiwać się prawdopodobieństwem apriorycznym i często je ignorują. Przeciwnie, ci, którzy widzą drugą opcję, zwracają dużą uwagę na prawdopodobieństwo aprioryczne i średnio ich szacunki nie są dalekie od rozwiązania bayesowskiego. Dlaczego? W pierwszym wariancie prawdopodobieństwem apriorycznym pojawienia się „niebieskich” taksówek jest fakt statystyczny, liczba taksówek w mieście. Spragniony historii przyczynowych nie ma się nad czym zastanawiać: liczba „niebieskich” i „zielonych” taksówek w mieście nie zmusza kierowców do ucieczki z miejsca zdarzenia. Natomiast w drugim wariancie taksówkarze Zielonych są ponad pięciokrotnie bardziej narażeni na wypadki niż kierowcy Niebiescy. Od razu nasuwa się wniosek: kierowcy „zielonych” taksówek to zdesperowani szaleńcy! Wypracowałeś stereotyp zielonej nieostrożności, który stosujesz wobec nieznanych indywidualnych kierowców firmowych. Stereotyp łatwo wpasowuje się w historię przyczynową,

Przykład taksówki ilustruje dwa typy prawdopodobieństw wcześniejszych. Statystyczne prawdopodobieństwa aprioryczne to fakty dotyczące populacji, w obrębie której rozważana jest dana sytuacja, które są nieistotne w konkretnym przypadku. Priorytety przyczynowe zmieniają twój pogląd na to, jak doszło do zdarzenia. Te dwa rodzaje informacji o prawdopodobieństwach wcześniejszych są traktowane odmiennie: Statystycznym prawdopodobieństwom wcześniejszym przypisuje się zwykle niewielką wagę, a czasami całkowicie je ignoruje, gdy dostępne są konkretne informacje na temat danego przypadku. Przyczynowe prawdopodobieństwa wcześniejsze traktowane są jako informacja o konkretnym przypadku i można je łatwo połączyć z innymi informacjami z nim związanymi.

Tworzenie stereotypu to pojęcie negatywne w naszej kulturze, ale ja używam go neutralnie. Jedną z głównych cech Systemu 1 jest reprezentacja kategorii w postaci norm i prototypów. W kategoriach społecznych takie idee nazywane są stereotypami. Reprezentujemy kategorie poprzez prawdziwe i fałszywe stereotypy. Na przykład w przypadku zatrudniania obowiązują surowe normy społeczne i prawne zapobiegające stereotypom. Tak powinno być. W delikatnych sytuacjach społecznych nie zaleca się wyciągania potencjalnie błędnych wniosków na temat jednostki na podstawie statystyk grupowych. Z moralnego punktu widzenia pożądane jest traktowanie prawdopodobieństw wcześniejszych jako ogólnych faktów statystycznych, a nie założeń dotyczących konkretnych osób. Innymi słowy, w tym przypadku odrzucamy przyczynowe prawdopodobieństwa wcześniejsze.

Konfrontowanie się ze stereotypami jest moralnie godne podziwu, nie powinniśmy jednak błędnie przyjmować uproszczonego poglądu, że nie wiąże się to z żadnymi konsekwencjami. Jest to cena, którą warto zapłacić za poprawę społeczeństwa, ale zaprzeczanie jego istnieniu, choć kojące duszę i poprawne politycznie, nie jest uzasadnione naukowo. W debacie politycznej często używa się heurystyki afektu: zasady, które lubimy, nie powinny wiązać się z żadnymi kosztami, a te, których nie lubimy, rzekomo nie przynoszą żadnych korzyści. Musimy umieć więcej.

Rozdział 17: Regresja do średniej

Uczyłam psychologii skutecznego szkolenia instruktorów izraelskich sił powietrznych. Wyjaśniłem im ważną zasadę treningu umiejętności: nagradzanie za doskonalenie działa skuteczniej niż karanie za błędy. Po wysłuchaniu moich wyjaśnień jeden z najbardziej doświadczonych instruktorów w grupie powiedział: „Wielokrotnie chwaliłem kadetów za ich czyste akrobacje. Przy kolejnej próbie wykonania tej samej figury wypadają gorzej. A kiedy karcę ich za słabe wyniki, następnym razem zwykle radzą sobie lepiej. Jego wniosek na temat skuteczności nagrody i kary okazał się całkowicie błędny. Instruktor zaobserwował efekt regresji do średniej, który następuje w wyniku przypadkowych wahań jakości wykonania. Chwalono oczywiście tylko tych, którzy wykonali manewry znacznie lepiej niż przeciętnie. Ale kadet prawdopodobnie miał po prostu szczęście w tej próbie i dlatego następna próba byłaby gorsza, niezależnie od tego, czy został pochwalony, czy nie. I odwrotnie: instruktor karcił kadeta, jeśli wykonał wyjątkowo złe zadanie i dlatego przy kolejnej próbie poradziłby sobie lepiej, niezależnie od działań instruktora. Okazało się, że nieuniknione fluktuacje procesu losowego otrzymały interpretację przyczynową.

Talent i szczęście. Kilka lat temu John Brockman poprosił naukowców o podzielenie się swoimi ulubionymi równaniami. Zasugerowałem te:

  • sukces = talent + szczęście
  • duży sukces = trochę więcej talentu + dużo szczęścia

Fakt, że regresja ma miejsce również przy próbie przewidzenia wcześniejszego zdarzenia na podstawie późniejszego, powinien cię przekonać, że nie ma ona żadnego wyjaśnienia przyczynowego.

Zjawisko regresji jest obce ludzkiemu umysłowi. Zjawisko to po raz pierwszy opisał Sir Francis Galton, drugi kuzyn Karola Darwina, posiadający wiedzę prawdziwie encyklopedyczną. W artykule zatytułowanym „Regression to the Mean in Inheritance” opublikowanym w 1886 roku doniósł, że mierzył kilka kolejnych pokoleń nasion i porównywał wzrost dzieci ze wzrostem ich rodziców. Kilka lat zajęło Francisowi Galtonowi zrozumienie, że korelacja i regresja to nie dwa różne pojęcia, ale dwie perspektywy w jednym. Ogólna zasada jest dość prosta, ale ma zaskakujące konsekwencje: w przypadkach, gdy korelacja nie jest doskonała, następuje regresja do średniej.

Aby zilustrować odkrycie Galtona, przyjrzyjmy się twierdzeniu, które wielu uważa za dość ciekawe: inteligentne kobiety często poślubiają mniej inteligentnych mężczyzn. Ponieważ korelacja między inteligencją kobiet i mężczyzn nie jest idealna, z matematycznego punktu widzenia jest nieuniknione, że inteligentne kobiety wyjdą za mąż za mężczyzn, którzy są przeciętnie mniej inteligentni (i odwrotnie). Zaobserwowana regresja do średniej nie może być bardziej interesująca i łatwiejsza do wyjaśnienia niż korelacja nieidealna.

Dobrze płacimy tym, którzy wymyślają dla nas interesujące wyjaśnienia efektów regresji. Komentator kanału wiadomości biznesowych, który słusznie zauważa, że ​​„ten rok był lepszy dla biznesu, ponieważ poprzedni był zły”, prawdopodobnie nie utrzyma się długo na antenie.

Rozdział 18: Jak radzić sobie z intuicyjnymi przewidywaniami

Badani proszeni są o przewidzenie, ale na podstawie szacunków podają dane, nie zauważając, że odpowiadają na pytanie inne niż zadane. Proces ten gwarantuje systematyczne wytwarzanie obciążonych prognoz, które całkowicie ignorują regresję do średniej.

Aby dokonać niezniekształconej prognozy, wykonaj następujące czynności:

  1. Zacznij od oszacowania swojego typowego GPA.
  2. Określ średni wynik odpowiadający Twoim wrażeniom na temat dostępnych informacji.
  3. Oceń korelację między swoimi danymi a średnią ocen.
  4. Jeśli korelacja wynosi 0,3, przesuń się o 30% odległości od typowego GPA w stronę GPA dopasowanego do wyświetleń.

Moje procedury korygujące są cenne, bo zmuszają do przemyślenia ilości informacji, które znasz.

Spojrzenie na regresję z perspektywy dwóch systemów. Ekstremalne przewidywania i chęć przewidywania mało prawdopodobnych zdarzeń na podstawie niewystarczających dowodów to przejawy Systemu 1. Naturalne jest, że mechanizmy asocjacyjne dopasowują skrajność przewidywań do skrajności danych, na których są oparte – tak działa substytucja. To naturalne, że System 1 generuje zbyt pewne szacunki, ponieważ pewność jest określana przez spójność najlepszej historii, jaką można skonstruować na podstawie dostępnych dowodów. Pamiętaj, że intuicja ma tendencję do formułowania niezwykle ekstremalnych przewidywań, a Ty zwykle w nie wierzysz. Regresja jest również trudna dla Systemu 2. Sama idea regresji do średniej jest trudna do wyjaśnienia i zrozumienia. Galton rozumiał to z wielkim trudem. Wielu nauczycieli statystyki nie lubi prowadzić wykładów na ten temat, a uczniom często pozostaje jedynie niejasne zrozumienie tego ważnego pojęcia. Aby ocenić regresję, System 2 wymaga specjalnego przeszkolenia. Nie tylko intuicyjnie dopasowujemy prognozy do danych wejściowych, ale wydaje się to również rozsądne. Nie da się zrozumieć regresji na podstawie osobistego doświadczenia. Nawet jeśli zostanie zidentyfikowana, jak w przypadku instruktorów pilotażu, otrzymuje interpretację przyczynową, która prawie zawsze jest błędna.

CZĘŚĆ III. ZBYTNIA PEWNOŚĆ SIEBIE
Rozdział 19. Iluzja zrozumienia

Nassim Taleb – handlowiec, matematyk, filozof – słusznie można uznać za psychologa. W swojej pracy „” wprowadza tę koncepcję zniekształcenia narracji(narracje), aby wyjaśnić, w jaki sposób błędne interpretacje przeszłości kształtują nasze poglądy i oczekiwania na przyszłość. Zniekształcenia narracji powstają w wyniku naszych niezliczonych prób zrozumienia praw życia. Narracje interpretacyjne, które uważamy za przekonujące, są zazwyczaj proste i konkretne, a nie abstrakcyjne. Mieliby to O Większą rolę przypisuje się talentowi, głupocie i kalkulacji niż szczęściu. Jednocześnie narrator podkreśla wyjątkowe wydarzenia, które miały miejsce, zapominając o wielu innych, które nie miały miejsca. Zasadniczo każde zauważalne wydarzenie daje początek narracji przyczynowej. Taleb uważa, że ​​w ten sposób nieustannie jesteśmy oszukiwani: na podstawie przeszłości wyciągamy marne wnioski i uważamy je za niepodważalne.

Fakt, że w wielu przypadkach wybór poprzedzał zakończenie wydarzenia, prowadzi do przeceniania roli umiejętności uczestników i niedoceniania wpływu przypadku. Istota tego błędnego przekonania jest następująca: wierzymy, że możemy zrozumieć przeszłość i dlatego można poznać przyszłość; Jednak w rzeczywistości rozumiemy przeszłość mniej, niż nam się wydaje.

„Widzenie z perspektywy czasu” i jego koszt dla społeczeństwa. Głównym ograniczeniem ludzkiego umysłu jest to, że powrót do przeszłości, przyjęcie tej samej pozycji, wiedząc o przyszłych zmianach, jest prawie niemożliwe. Gdy tylko zbudujesz nowy obraz świata lub jego części, stary zostaje wymazany - nie pamiętasz już, jak i w co wierzyłeś wcześniej.

Niemożność odtworzenia wcześniejszych poglądów nieuchronnie pociąga za sobą przecenianie nieoczekiwaności zaistniałych wydarzeń. Baruch Fischhoff, jeszcze będąc studentem, jako pierwszy pokazał rozwój zniekształcenia retrospektywnego, czyli efektu „wiedziałem o tym”. Tendencja do rewizji historii własnych poglądów w świetle tego, co się wydarzyło, rodzi utrwaloną iluzję poznawczą.

Wyobraź sobie taką sytuację: w wyniku drobnej interwencji chirurgicznej dzieje się coś nieoczekiwanego i pacjent umiera. Podczas rozprawy przysięgli częściej uwierzą, że interwencja faktycznie wiąże się z większym ryzykiem, niż przewidywano, i że lekarz, który ją przepisał, powinien był to przewidzieć. Z powodu takiego błędu (odchylenie od wyniku) prawie

nie da się prawidłowo ocenić decyzji ze względu na fakt, że opinia, która wydawała się zasadna w momencie jej wydawania, uległa zmianie.

Odchylenie od wyniku. Kiedy wynik jest zły, klient karci agenta - mówią, że nie przeczytał ostrzeżenia na ścianie, ale on sam zapomina, że ​​napis został wykonany niewidzialnym atramentem i pojawia się dopiero po fakcie. Posunięcie, które w prognozach wydawało się rozważne, z perspektywy czasu może wydawać się rażąco nieostrożne.

Im gorsze konsekwencje, tym bardziej jesteśmy podatni na uprzedzenia wynikające z perspektywy czasu. Biorąc pod uwagę tragedię 11 września, szczególnie chętnie wierzymy, że urzędnicy, którym udało się temu zapobiec, okazali się niechlujami lub ślepymi.

Przepisy na sukces. Mechanizm tworzenia znaczeń Systemu 1 pomaga nam postrzegać otaczający nas świat jako prostszy, bardziej spójny i bardziej przewidywalny niż rzeczywistość. Złudzenie, że przeszłość można zrozumieć, rodzi złudzenie, że przyszłość jest przewidywalna i możliwa do kontrolowania. Urojenia nas uspokajają, redukują niepokój, który nieuchronnie pojawiłby się wraz ze świadomością niepewności naszego istnienia.

Czy styl przywództwa i osobowość lidera wpływają na zyski przedsiębiorstw? Oczywiście! Zostało to potwierdzone przez systematyczne badania, które obiektywnie oceniły cechy dyrektorów, ich decyzje i związane z tym zmiany w zarobkach. Polityka dyrektora rzeczywiście wpływa na wyniki firmy, ale efekt tego wpływu nie jest tak duży, jak twierdzi prasa biznesowa. Badacze oceniają siłę związku na podstawie wartości współczynnika korelacji, która waha się od 0 do 1. W rozdziale poświęconym regresji do średniej współczynnik ten zdefiniowano jako miarę względnej wagi czynników wspólnych dla obu wartości ​porównywane. Najbardziej hojny szacunek współczynnika korelacji pomiędzy sukcesem przedsiębiorstwa a jakością przywództwa sięga 0,3, co wskazuje na 30% zgodność kryteriów. Korelacja na poziomie 0,3 oznacza, że ​​silny lider prowadzi firmę odnoszącą sukcesy w około 60% przypadków — tylko o 10% więcej niż w przypadku rozkładu losowego. Wiedząc o tym, łatwo zauważyć, że zasługi przywódców nie są tak wielkie, jak ich wychwalanie.

Jednak z punktu widzenia większości analityków biznesowych dyrektor, od którego tak niewiele zależy, nawet jeśli firma odniesie sukces, nie może liczyć na uznanie. Trudno uwierzyć, że ludzie staną w kolejce po książkę opisującą metody lidera, którego wysiłki przynoszą sukces niewiele większy niż przypadkowy. Konsument pragnie jasnych porad na temat czynników składających się na sukces i porażkę w biznesie; potrzebuje historii, które dają mu poczucie zrozumienia, nawet jeśli iluzoryczne. Philip Rosenzweig, profesor szwajcarskiej szkoły biznesu, pokazuje w swojej pracy, „w jaki sposób tę potrzebę złudnej pewności zaspokajają dwa popularne gatunki literatury biznesowej: opowieści o powstaniu (rzadziej upadku) wybranych firm i przedsiębiorców, a także analityczne porównania firm odnoszących większe i mniejsze sukcesy

Rosenzweig doszedł do wniosku, że przykłady sukcesów i porażek konsekwentnie wyolbrzymiają wpływ stylu zarządzania i praktyk biznesowych na dochody firmy, dlatego jest mało prawdopodobne, aby takie przykłady niczego nauczyły. Aby zrozumieć, co się dzieje, wyobraź sobie, że ekspert biznesowy spośród dyrektorów jest proszony o komentarz na temat reputacji szefa określonej firmy. Eksperta żywo interesuje, czy firma w ostatnich latach prosperowała, czy też podupadała. Ta wiedza tworzy aurę: ekspert wolałby nazwać dyrektora dobrze prosperującej firmy metodycznym, elastycznym i zdecydowanym. A teraz wyobraźcie sobie, że minął rok i sytuacja się pogorszyła. Ten sam reżyser zostanie oceniony jako zamknięty, zagubiony i autorytarny.

W rzeczywistości efekt aureoli jest tak potężny, że sam jesteś zniesmaczony pomysłem, że te same działania mogą być zarówno dobre, jak i złe, w zależności od sytuacji, a ta sama osoba może być jednocześnie elastyczna i bezwładna. Przez efekt aureoli wypaczamy porządek przyczyny i skutku: wierzymy, że firma cierpi z powodu bezwładu zarządzania, podczas gdy w rzeczywistości zarząd wydaje nam się bezczynny z powodu upadku firmy. Tak się rodzi iluzje zrozumienia. Efekt aureoli w połączeniu z tendencją do wyników wyjaśnia zwiększone zainteresowanie książkami, których autorzy próbują wyciągać wnioski z systematycznych badań firm odnoszących sukcesy i udzielają przydatnych porad. Ideą tych książek jest to, że można zidentyfikować i przestudiować „dobre praktyki zarządzania”, a następnie zastosować je w celu osiągnięcia sukcesu. Obydwa założenia są jednak zbyt odważne. Porównywanie mniej lub bardziej udanych firm to przede wszystkim porównywanie szczęścia. Mając na uwadze rolę przypadku, należy zachować sceptycyzm wobec „stałych wzorców”, które wynikają z obserwacji przedsiębiorstw odnoszących sukcesy i mniej udanych. Przy odrobinie chaosu wzory okazują się mirażami. Biorąc pod uwagę duży wpływ przypadku, nie można wnioskować o jakości praktyk przywództwa i zarządzania na podstawie obserwowanych sukcesów firm.

Rozdział 20. Iluzja znaczenia

Pewność siebie to uczucie, które odzwierciedla spójność informacji i łatwość poznawczą ich przetwarzania. W związku z tym rozsądniej jest poważnie traktować czyjeś wyznanie niepewności. Z drugiej strony stwierdzenia absolutnej pewności sugerują, że dana osoba skonstruowała spójną narrację mentalną, która może nie być prawdziwa.

Co sprawia, że ​​jedna osoba sprzedaje, a inna kupuje? Dlaczego sprzedawcy uważają się za bardziej kompetentnych niż kupujący i jakie informacje posiadają? Moje pytania dotyczące funkcjonowania giełdy połączyły się w jedną wielką zagadkę: wygląda na to, że duży przemysł gospodarki istnieje tylko dzięki iluzje umiejętności. Większość kupujących i sprzedających wie, że mają te same informacje; papiery wartościowe są kupowane i sprzedawane głównie ze względu na różnice poglądów. Sprzedający uważają, że cena jest za wysoka i wkrótce spadnie, a kupujący uważają, że cena jest za niska i powinna wzrosnąć. Tajemnicą jest to, dlaczego obaj są pewni, że cena na pewno się zmieni. Dlaczego głęboko wierzą, że wiedzą najlepiej, jaka powinna być cena? W rzeczywistości pewność siebie większości traderów jest tylko iluzją.

Wśród badaczy panuje powszechna zgoda co do tego, że prawie wszyscy analitycy finansowi, świadomie lub nieświadomie, polegają na przypadku. Subiektywne odczucie przedsiębiorcy jest takie, że dokonuje rozsądnego i świadomego wyboru w bardzo niepewnej sytuacji; jednakże na wysoce efektywnych rynkach świadome wybory nie są dokładniejsze niż ślepe wybory.

Co wzmacnia iluzję umiejętności i ważności? Umiejętność oceny perspektyw biznesowych firmy nie wystarczy do udanego inwestowania, gdzie głównym pytaniem jest, czy cena akcji zawiera informację o kondycji firmy. Złudzenia co do ważności i umiejętności są wspierane przez potężną kulturę zawodową. Wiemy, że ludzie mają tendencję do niezachwianej wiary w każde stwierdzenie, bez względu na to, jak absurdalne może ono być, jeśli przekonanie to podziela społeczność osób o podobnych poglądach.

Iluzje ekspertów. Nassim Taleb zauważył w swoim Czarnym Łabędziu, że nasza tendencja do wymyślania jest spójna narracje(tj. spójnych, konsekwentnych narracji o przeszłości), a wiara w nie jest utrudniona poprzez zaakceptowanie faktu, że nasza zdolność przewidywania jest ograniczona. Iluzja zrozumienia przeszłości daje nam nadmierną pewność co do naszej zdolności przewidywania przyszłości. (Udane historie często budowane są na zmienności przeszłości, jak na przykład słynna trylogia filmowa „Powrót do przyszłości” lub powieść Stephena Kinga „22.11.63”).

„Szybko dotarliśmy do punktu, w którym wartość przewidywań opartych na wiedzy staje się niezwykle mała” – pisze Philip Tetlock, psycholog z Uniwersytetu Pensylwanii. – W dobie nadmiernej specjalizacji nauki nie ma sensu wierzyć, że ci, którzy publikują w wiodących publikacjach – wybitni politolodzy, regionaliści, ekonomiści itd. – są w jakikolwiek sposób lepsi od zwykłych dziennikarzy lub po prostu uważnych czytelników Nowego York Times, jeśli chodzi o I radzenie sobie z pojawiającymi się sytuacjami.” Jak odkrył Tetlock, im bardziej znany prognostyk, tym bardziej fantazyjne są jego prognozy. „Eksperci, na których jest zapotrzebowanie” – pisze – „zachowują się z większą pewnością siebie w porównaniu do kolegów, którzy nie są w centrum uwagi”.

Należy zdać sobie sprawę, że po pierwsze błędy przewidywania są nieuniknione, ponieważ życie jest nieprzewidywalne. Po drugie, nadmiernej subiektywnej pewności nie należy uważać za wskaźnik trafności przewidywań (niepewność da lepszy wynik). Daremnie jest oczekiwać, że zachowanie podchorążego na torze przeszkód będzie wskazywało, jaki będzie w szkole oficerskiej i na polu walki – w każdej sytuacji bierze udział zbyt wiele szczególnych czynników. Usuń najbardziej asertywnego z ośmiu kandydatów w grupie, a reszta odkryje nową stronę siebie. Nie przeczę, jak ważne są testy – jeśli pozwala się przewidzieć ważny wynik z pewnością 0,2 lub 0,3, to należy z niego skorzystać. Ale nie oczekuj więcej.

Rozdział 21. Intuicja i formuły – kto wygrywa?

Paul Meehl, jeden z najbardziej wszechstronnych psychologów XX wieku, próbował zrozumieć, dlaczego eksperci przegrywają z formułami? Meehl zasugerował, że jednym z powodów jest to, że starają się być mądrzejsi, myśleć niezależnie i brać pod uwagę złożone kombinacje czynników. W innych przypadkach złożoność pomaga, ale najczęściej zmniejsza wiarygodność przewidywań. Lepiej jest postępować od prostych kombinacji czynników. Innym powodem, dla którego eksperci przegrywają z formułami, jest niewybaczalna niekonsekwencja ludzkich uogólnień podczas przetwarzania złożonych informacji. Jeśli dwukrotnie przekażesz ekspertom ten sam zestaw danych, często udzielą oni różnych odpowiedzi. Być może niespójne oceny są tak powszechne, ponieważ System 1 jest tak zależny od kontekstu.

Badania prowadzą nas do nieoczekiwanego wniosku: aby zmaksymalizować dokładność przewidywań, ostateczne decyzje należy opierać na wzorach, zwłaszcza w obszarach „o niskim poziomie pewności”. Na przykład w przypadku aplikowania do szkół medycznych ostateczną decyzję pozostawia się nauczycielom, którzy przeprowadzają rozmowę kwalifikacyjną z kandydatami. Ograniczone dowody sugerują, że rozmowa kwalifikacyjna prawdopodobnie zmniejszy dokładność procedury selekcji, ponieważ ankieterzy mają tendencję do nadmiernego zaufania własnej intuicji i zbyt często polegają na własnych obserwacjach, wykluczając inne źródła informacji.

W naukach społecznych przeważającą praktyką statystyczną jest przypisywanie wag każdemu z elementów predykcyjnych zgodnie z algorytmem zwanym regresją wielokrotną. Robin Dawes odkrył, że złożoność algorytmu statystycznego niewiele wpływa na poprawę jego efektywności. Co więcej, formuły przyznające jednakową wagę wszystkim predyktorom często mają lepsze wyniki niż inne, ponieważ nie ma na nie wpływu losowość próbkowania.

Krótkoterminowe prognozowanie w kontekście zadawania pytań terapeutycznych to umiejętność, którą terapeuci doskonalili latami. Dlatego takie prognozy są bardzo dobre. Długoterminowe prognozowanie przyszłości konkretnego pacjenta okazuje się dla specjalistów zadaniem niemożliwym do wykonania. Ponadto klinicyści nie mają praktycznej możliwości zdobycia umiejętności prognozowania długoterminowego – zbyt wiele lat potrzeba, aby informacja zwrotna potwierdziła ich hipotezy.

Uparty opór wobec demistyfikacji umiejętności zawodowych dał się wyraźnie ukazać w reakcji europejskich winiarzy na formułę Ashenfeltera. Odchylenie od algorytmu wzrasta, gdy decyzje mają ważne konsekwencje. Na szczęście wrogość wobec algorytmów prawdopodobnie osłabnie wraz ze wzrostem ich roli w życiu codziennym. Kiedy szukamy książek czy muzyki, pomagają nam tylko rekomendacje ze specjalnych programów.

Załóżmy, że chcesz zatrudnić przedstawiciela handlowego do swojej firmy. Jeśli poważnie myślisz o znalezieniu najlepszego kandydata na dane stanowisko, zacznij od wybrania kilku cech osobowości niezbędnych do pomyślnego wykonywania pracy (na przykład biegłości technicznej, ujmującej osobowości, niezawodności itp.). Nie przesadzaj – wystarczy sześć cech. Upewnij się, że cechy się nie pokrywają i że można je ocenić, zadając kilka prostych pytań opartych na faktach.

Zrób listę takich pytań dla każdej cechy i wprowadź skalę, powiedzmy pięciopunktową. Zdefiniuj, co oznaczają wyrażenia „silnie wyrażone” i „słabo wyrażone”. Aby uniknąć efektu aureoli, zbieraj i przetwarzaj dane osobno dla każdej jakości, a następnie przejdź do następnej. Aby uzyskać wynik ogólny, należy dodać wyniki dla wszystkich sześciu parametrów. Zatrudnij tego, którego ocena końcowa jest najwyższa, nawet jeśli bardziej podobał Ci się drugi kandydat. Stosując opisaną procedurę, osiągniesz lepsze rezultaty, niż zachowując się jak większość ludzi i ufając swojej intuicji („Od razu go polubiłem”).

Rozdział 22. Ekspercka intuicja: kiedy warto jej zaufać?

Jak ocenić prawdopodobne znaczenie sądu intuicyjnego? Kiedy takie sądy odzwierciedlają prawdziwe doświadczenie i profesjonalizm, a kiedy są jedynie przykładem iluzji znaczenia? Odpowiedź można uzyskać w oparciu o dwa główne warunki zdobycia mistrzostwa:

  • obecność kontekstu i na tyle stała, że ​​staje się przewidywalna;
  • możliwości uczenia się tych stałych kontekstowych poprzez długoterminową praktykę.

Kiedy oba te warunki są spełnione, intuicja jest nabywana jako umiejętność. Szachy są skrajnym przykładem niezmiennego kontekstu lub środowiska, chociaż brydż i poker również mają trwałe wzorce statystyczne, które pozwalają doskonalić swoje umiejętności. Lekarze, pielęgniarki, sportowcy i strażacy również mają do czynienia ze złożonymi, ale wewnętrznie logicznymi sytuacjami. Intuicyjne oceny strażaków opisane przez Gary’ego Kleina wynikały z bardzo znaczących sygnałów, z których System 1 eksperta nauczył się korzystać, nawet jeśli System 2 nie znalazł dla nich nazwy. W przypadku analityków finansowych i politologów stało się odwrotnie: działają oni w kontekście zerowej pewności. Ich niepowodzenia odzwierciedlają wrodzoną nieprzewidywalność wydarzeń, które ci eksperci próbują przewidzieć.

Nie można winić kogoś za złe rokowania w nieprzewidywalnym świecie. Zamiast tego powinniśmy winić profesjonalistów za wiarę w to, że poradzą sobie z tym niemożliwym zadaniem. Wywyższanie własnych domysłów na temat nieprzewidywalnych sytuacji jest w najlepszym razie oszukiwaniem samego siebie. W przypadku braku znaczących sygnałów środowiskowych, takie „spostrzeżenia” są albo szczęściem, albo fałszem. Jeśli ten wniosek wydawał Ci się nieoczekiwany, to nadal wierzysz w magię intuicji. Pamiętaj: nie możesz polegać na intuicji w kontekście, w którym brakuje stabilnych wzorców.

Informacje zwrotne i praktyka. Zdolność profesjonalisty do rozwijania intuicji zależy głównie od jakości i szybkości informacji zwrotnej, a także możliwości ćwiczenia. Dobra opinia towarzyszy pracy anestezjologów, gdyż rezultaty ich działań są szybko zauważalne. Natomiast radiologowie otrzymują niewiele informacji na temat trafności swoich diagnoz i przeoczonych patologii. Dzięki temu anestezjolodzy mają większą szansę na rozwinięcie intuicji. Jeśli anestezjolog powie: „Coś jest nie tak”, wszyscy na sali operacyjnej powinni przygotować się na nagły przypadek.

W jakich przypadkach warto zaufać intuicji eksperta? Biorąc pod uwagę względną niezmienność kontekstu i możliwość identyfikacji jego wzorców, mechanizm skojarzeniowy rozpoznaje sytuację i szybko opracowuje trafną prognozę (decyzję). Jeśli te warunki zostaną spełnione, można zaufać intuicji eksperta. W mniej stabilnym, zawodnym kontekście aktywowana jest heurystyka oceny. System 1 może zapewnić szybkie odpowiedzi na trudne pytania, zastępując koncepcje i zapewniając spójność tam, gdzie jej nie powinno być. W rezultacie otrzymujemy odpowiedź na pytanie, które nie zostało zadane, ale jest szybkie i całkiem prawdopodobne, a zatem może wymknąć się łagodnej i leniwej kontroli Systemu 2. Załóżmy, że chcesz przewidzieć sukces komercyjny produktu firmę i myślisz, że to właśnie oceniasz, podczas gdy tak naprawdę jesteś pod wrażeniem energii i kompetencji kierownictwa firmy?

Rozdział 23. Widok z zewnątrz

Na początku mojej kariery przekonałem kiedyś urzędników izraelskiego Ministerstwa Edukacji, że w szkolnictwie wyższym potrzebny jest kurs poświęcony podejmowaniu decyzji. Aby opracować kurs i napisać do niego podręcznik, skompletowałem zespół doświadczonych nauczycieli. W pewnym momencie zdecydowaliśmy, że ukończenie projektu zajmie nam około dwóch lat. Zadałem pytanie Seymourowi, jednemu z uczestników projektu, który znał statystyki podobnych projektów, jakie miały inne grupy. Seymour podał, że przeciętny projekt trwa 7 lat, a 40% projektów pozostaje niedokończonych. Tak naprawdę ukończenie podręcznika zajęło kolejne osiem (!) lat.

Ten nieprzyjemny epizod stał się być może najbardziej pouczającym w mojej karierze zawodowej. Z biegiem czasu wyciągnąłem z tego trzy wnioski. Pierwsze stało się dla mnie od razu jasne: rozpoznałem różnicę między dwoma radykalnymi podejściami do prognozowania, które później z Amosem nazwaliśmy „widokiem wewnętrznym” i „widokiem zewnętrznym”. Druga lekcja była taka, że ​​nasza początkowa wizja – dwa lata pracy nad ukończeniem projektu – zawierała błąd w planowaniu. W naszych szacunkach uwzględniliśmy sytuację idealną, a nie rzeczywistą. I dopiero po długim czasie nauczyłem się trzeciej lekcji – lekcji „irracjonalnej wytrwałości”. Właśnie dlatego tłumaczę naszą niechęć do porzucenia oczywiście nierentownego projektu. Stojąc przed wyborem, poświęciliśmy racjonalność, ale nie inicjatywę.

Spojrzenie od środka i jego zalety. Wewnętrznym okiem zaczęto oceniać przyszłość projektu. Skupiliśmy się na konkretnych okolicznościach, w jakich się znaleźliśmy i zaczęliśmy szukać analogii w przeszłości. Tego dnia nie mogliśmy przewidzieć, że jakiś wypadek sprawi, że projekt będzie przeciągał się tak długo. Pytanie, które zadałem Seymourowi, zwróciło jego uwagę z naszej konkretnej sytuacji na kategorię podobnych sytuacji. Seymour oszacował wcześniejsze prawdopodobieństwo sukcesu w tej kategorii na 40% niepowodzenia i 7–10 lat do zakończenia projektu. Prognoza bazowa powinna być kotwicą – punktem wyjścia dla przyszłych korekt. Jeśli wyjściowa kategoria zostanie wybrana prawidłowo, osoba z zewnątrz podpowie, gdzie szukać odpowiedzi lub, jak w naszym przypadku, da do zrozumienia, że ​​wewnętrzne prognozy nawet się do niej nie zbliżają.

Prognoza Seymoura „od środka” nie była korektą podstawowej – nawet mu to nie przyszło do głowy – ale w całości opierała się na konkretnych okolicznościach, czyli na naszych wysiłkach. Podobnie jak uczestnicy eksperymentu Toma W., Seymour znał ważne statystyki, ale nie myślał o ich zastosowaniu. Typowym scenariuszem jest to, że osoby posiadające informacje na temat konkretnej sprawy rzadko czują potrzebę posiadania statystyk dotyczących kategorii, do której należy dana sprawa. Kiedy napotkaliśmy spojrzenie z zewnątrz, wspólnie je zignorowaliśmy.

Błąd planowania. Kiedy uwzględnimy prognozę osoby z zewnątrz i jej wynik, nasze wstępne szacunki dotyczące czasu realizacji projektu wydają się niemal urojeniowe. Myślę, że nie jest to zaskakujące: wszędzie można spotkać zbyt optymistyczne prognozy. Amos i ja ukuliśmy to określenie błąd planowania, opisujący prognozy i plany, które: są nadmiernie zbliżone do najlepszych możliwych scenariuszy; można skorygować, patrząc na statystyki podobnych przypadków.

Łagodzenie skutków błędów w planowaniu. Bent Flyvbjorg, analityk systemowy i profesor na Uniwersytecie Oksfordzkim: „Być może głównym źródłem błędów w prognozach jest dominująca tendencja do niedoceniania lub ignorowania informacji dystrybucyjnych. Dlatego planiści powinni zadać sobie trud zdefiniowania problemu prognostycznego, a tym samym ułatwić gromadzenie i rejestrowanie informacji dystrybucyjnych.

Wykorzystanie informacji dystrybucyjnych uzyskanych z innych projektów podobnych do tego, dla którego sporządzana jest prognoza, nazywane jest wykorzystaniem „widoku z zewnątrz”. Teraz ta profilaktyka ma techniczną nazwę - przewidywanie na podstawie oryginalnej kategorii. Dobrze zarządzana organizacja będzie nagradzać planistów za dokładną pracę i karać planistów za nieprzewidzianie trudności i zaniedbanie uwzględnienia nieprzewidzianych zakłóceń – „nieznanych niewiadomych”.

Rozwiązania i błędy. Jeśli chodzi o przewidywanie ryzykownych przedsięwzięć, menedżerowie łatwo padają ofiarą „błędu planowania”. Pod jego wpływem podejmują decyzje oparte nie na racjonalnej ocenie ewentualnych strat, zysków i perspektyw, ale na złudnym optymizmie. Przeceniają korzyści i niedoceniają koszty. Odgrywają w myślach scenariusze sukcesu i omijają trudne miejsca, w których mogą popełnić błąd lub stracić skuteczność. W rezultacie podejmują się projektów, które kończą się przekroczeniem budżetu, opóźnieniami, brakiem zwrotu środków lub pozostają niedokończone.

Rozdział 24. Silnik kapitalizmu

Błąd planowania to tylko jeden z przejawów wszechobecnego nastawienia do optymizmu. Większość z nas postrzega świat jako bardziej przyjazny, nasze własne cechy jako przyjemniejsze, a nasze cele jako bardziej osiągalne niż w rzeczywistości. Mamy również tendencję do wyolbrzymiania własnej zdolności przewidywania przyszłości, co sprawia, że ​​jesteśmy zbyt pewni siebie. Badania założycieli małych firm wykazały, że przedsiębiorcy mają bardziej pozytywne nastawienie do życia niż menedżerowie średniego szczebla. Optymistyczne nastawienie wpływa na wydarzenia zawsze, gdy osoba lub organizacja podejmuje poważne ryzyko. Osoby podejmujące ryzyko często nie doceniają roli czynników losowych. Kiedy trzeba działać, optymizm (nawet w formie złudzeń) może się przydać.

Przedsiębiorcy się mylą: korzyści finansowe z prowadzenia własnej firmy są niewielkie – przy tych samych kwalifikacjach ludzie osiągają b O większe zyski sprzedając swoje umiejętności pracodawcom. Dowody wskazują, że optymizm jest wszechobecny, nie do wykorzenienia i kosztowny. Prezesi dużych firm czasami wiele ryzykują, dokonując kosztownych fuzji i przejęć, kierując się błędnym przekonaniem, że będą lepiej zarządzać aktywami drugiej firmy niż jej byli właściciele. Aby wyjaśnić bezsensowne przejęcia, wysunięto „hipotezę arogancji”. Według niej kierownictwo spółki przejmującej jest po prostu mniej kompetentne, niż się wydaje.

Lekceważenie konkurencji. Błędy poznawcze odgrywają ważną rolę w optymizmie przedsiębiorców, zwłaszcza zasada „widzisz to, co widzisz” (WYSIATI) nieodłącznie związana z Systemem 1:

  • Koncentrujemy się na jednym celu, skupiamy się na naszym planie i zaniedbujemy wcześniejsze prawdopodobieństwa, popełniając przy tym błędy w planowaniu.
  • Koncentrując się na tym, czego chcemy i możemy zrobić, ignorujemy umiejętności i plany innych.
  • Zarówno w wyjaśnianiu przeszłości, jak i przewidywaniu przyszłości skupiamy się na przyczynowej roli umiejętności, a zaniedbujemy rolę szczęścia, popadając w iluzję kontroli.
  • Koncentrując się na tym, co wiemy, odrzucamy nieznane i stajemy się zbyt pewni swoich osądów.

Ekspert, który w pełni przyznaje się do ograniczeń swoich kompetencji, może spodziewać się zwolnienia – prawdopodobnie zastąpi go bardziej pewny siebie współpracownik, który łatwiej będzie mógł zdobyć zaufanie klientów. Bezstronne uznanie własnej niepewności jest kamieniem węgielnym zdrowego rozsądku, ale większość ludzi i organizacji szuka czegoś zupełnie innego. Łącznie czynniki emocjonalne, poznawcze i społeczne sprzyjające nadmiernemu optymizmowi tworzą niestabilną mieszaninę, która czasami zmusza ludzi do podejmowania ryzyka.

Główną zaletą optymistycznego nastawienia jest to, że zwiększa ono Twoją odporność na porażki. Zasadniczo styl optymistyczny oznacza, że ​​dana osoba uważa sukces za coś oczywistego i nie zamartwia się zbytnio błędami.

„Epickryzys życiowy” jest częściowym rozwiązaniem problemu. Organizacje mogą mieć większe szanse na ograniczenie optymizmu i jego nośników niż jednostki. Gary Klein nazwał swoją technikę epikryzys życia. Procedura jest prosta – jeśli organizacja jest o krok od podjęcia ważnej decyzji, ale jeszcze nie zobowiązała się do jej wdrożenia, należy wezwać na spotkanie osoby wtajemniczone w plan i powiedzieć im: „Wyobraź sobie, że jesteś w przyszłości . Wdrożyliśmy plan w obecnej formie. Konsekwencje były katastrofalne. Prosimy o krótkie opisanie w ciągu 5-10 minut historii katastrofy – jak do tego doszło.” Pierwszą zaletą epikryzysu na całe życie jest to, że legitymizuje wątpliwości.

CZĘŚĆ IV. WYBÓR
Rozdział 25. Błędy Bernoulliego

Kiedyś przeczytałem u szwajcarskiego ekonomisty Bruno Freya: „Agent teorii ekonomicznej jest racjonalny, samolubny i jego gusta się nie zmieniają”. Dla psychologa jest oczywiste, że człowiek nie jest ani całkowicie racjonalny, ani całkowicie samolubny i że jego upodobania nie są w żadnym wypadku stałe. Wydawało się, że nasza nauka badała przedstawicieli dwóch różnych gatunków; ekonomista behawioralny Richard Thaler nazwał później te typy „ekonomi” i „ludźmi”. W przeciwieństwie do Ekonów, humaniści badani przez psychologów mają System 1. Ich pogląd na świat jest ograniczony dostępnymi w danej chwili informacjami (zasada WYSIATI), dlatego nie mogą być tak spójni i logiczny jak Ekoni.

Każdy znaczący wybór, jakiego dokonujemy w życiu, wiąże się z pewnym stopniem niepewności, dlatego badacze decyzji mają nadzieję, że wnioski wyciągnięte z badania symulowanych sytuacji można zastosować w ciekawszych sytuacjach codziennych.

Matematyk John von Neumann, jeden z największych myślicieli XX wieku, oraz ekonomista Oscar Morgenstern wyprowadzili swoją teorię racjonalnego wyboru między grami z kilku aksjomatów. Ekonomiści postrzegają teorię oczekiwanej użyteczności jako mającą dwa zastosowania: jako logikę określającą, w jaki sposób należy dokonywać wyborów, oraz jako opis sposobu, w jaki ekonomiści dokonują wyborów. Amos i ja, będąc psychologami, zaczęliśmy badać, w jaki sposób humaniści dokonują ryzykownych wyborów, nie przyjmując żadnych założeń na temat ich racjonalności. Pięć lat po rozpoczęciu badań nad grami napisaliśmy esej zatytułowany „Teoria perspektywy: analiza podejmowania decyzji w warunkach ryzyka”. Nasza teoria była bardzo podobna do teorii użyteczności, ale odeszła od niej w swej istocie. Co najważniejsze, nasz model miał charakter czysto opisowy; jego celem było udokumentowanie i wyjaśnienie systematycznych naruszeń aksjomatów racjonalności przy wyborze między grami.

W ciągu pierwszych pięciu lat studiowania podejmowania decyzji ustaliliśmy kilkanaście faktów na temat wyboru pomiędzy ryzykownymi opcjami. Niektóre ustalenia zaprzeczają teorii oczekiwanej użyteczności. Aby wyjaśnić zebrane obserwacje, stworzyliśmy teorię modyfikującą teorię oczekiwanej użyteczności i nazwaliśmy ją teorią perspektywy.

Pomysł Bernoulliego był prosty: decyzje opierają się nie na wartości pieniężnej, ale na psychologicznej wartości wyników, na ich użyteczności. Wartość psychologiczna gry nie jest zatem równa średniej ważonej jej wyników w kategoriach pieniężnych; jest to średnia użyteczności wyników gry, ważona ich prawdopodobieństwem (ryc. 6).

Bernoulli zaproponował, że malejąca wartość krańcowa bogactwa wyjaśnia awersję do ryzyka. Rozważ następujący wybór. Masz taką samą szansę na zdobycie 1 miliona lub 7 milionów - użyteczność: (10 + 84)/2 = 47 lub gwarantowane zdobycie 4 milionów - użyteczność: 60. Oczekiwana wartość gry i „kwota gwarantowana” są równe w kategoriach pieniężnych (4 miliony), ale użyteczność psychologiczna tych opcji jest inna ze względu na malejącą użyteczność bogactwa. Odkrycie Bernoulliego polegało na tym, że osoba podejmująca decyzję w ramach malejącej użyteczności krańcowej bogactwa będzie miała awersję do ryzyka.

Bernoulli wykorzystał nową koncepcję – oczekiwanej użyteczności – aby obliczyć, ile kupiec w Petersburgu zgodziłby się zapłacić za ubezpieczenie ładunku przypraw z Amsterdamu, gdyby „wiedział, że o tej porze roku spośród stu statków wypływających z Amsterdamu do Petersburga zginęło pięciu”. Funkcja użyteczności wyjaśniała, dlaczego biedni ludzie kupują ubezpieczenia i dlaczego bogaci sprzedają je biednym. Jak widać z tabeli, utrata miliona oznacza utratę 4 punktów użyteczności (od 100 do 96) dla kogoś, kto ma 10 milionów, a znacznie większą stratę - 18 punktów (od 48 do 30) - dla kogoś który ma 3 miliony (więcej informacji w artykule , ).

Rozdział 26. Teoria perspektywy

Badanie kontrastujących poglądów na temat ryzyka w przypadku korzystnych i niekorzystnych perspektyw pozwoliło nam zrobić znaczący krok naprzód: znaleźliśmy sposób na wykazanie głównego błędu modelu wyboru Bernoulliego. Spójrz:

  • Opcja 1: Oprócz swojego majątku otrzymałeś 1000 dolarów. Teraz wybierz jedną z opcji: 50% szans na wygraną 1000 $ LUB gwarantowane 500 $.
  • Opcja 2: Oprócz swojego majątku otrzymałeś 2000 dolarów. Teraz wybierz jedną z opcji: 50% szans na utratę 1000 dolarów LUB gwarantowana strata 500 dolarów.

Łatwo zauważyć, że z punktu widzenia ostatecznej wielkości majątku (zgodnie z teorią Bernoulliego jest to jedyny ważny wskaźnik) opcje są identyczne. Możesz mieć gwarancję, że będziesz bogatszy o 1500 dolarów, lub możesz podjąć ryzyko, w którym masz równe szanse na wzbogacenie się o 1000 lub 2000 dolarów. Zatem zgodnie z teorią Bernoulliego oba zadania powinny dawać takie same preferencje. Sprawdź swoją intuicję – spróbuj odgadnąć, co wybrali inni:

  • W pierwszym przypadku większość respondentów preferowała pieniądze gwarantowane.
  • W drugim przypadku zdecydowana większość badanych preferowała grę.

Teoria Bernoulliego jest zbyt prosta i nie uwzględnia dynamiki. Brakuje jednej zmiennej – punktu odniesienia, stanu poprzedniego, względem którego oceniane są zyski i straty. Według teorii Bernoulliego wystarczy znać wielkość majątku, aby określić jego użyteczność, ale według teorii perspektywy konieczna jest także znajomość stanu początkowego. Zatem teoria perspektywy jest bardziej złożona niż teoria użyteczności. W nauce komplikacje uznawane są za koszt, który należy uzasadnić odpowiednio szeroką gamą nowych i (o ile to możliwe) ciekawych przewidywań faktów nie wyjaśnionych dotychczasową teorią.

W centrum teorii perspektywy znajdują się trzy właściwości poznawcze. Można je uznać za cechy operacyjne Systemu 1.

  • Oceny dokonuje się względem neutralnego punktu odniesienia, zwanego czasem „poziomem przystosowania”. Zasadę tę łatwo wykazać. Postaw przed sobą trzy miski z wodą. Do lewego wlej lodowatą wodę, a do prawego ciepłą wodę. W średniej misce woda powinna mieć temperaturę pokojową. Trzymaj lewą i prawą rękę w zimnej i ciepłej misce przez około minutę, a następnie opuść obie ręce do środkowej. Poczujesz tę samą temperaturę jedną ręką jako gorącą, a drugą jako zimną. W przypadku wyników finansowych punktem odniesienia jest zwykle status quo, ale czasami może to być wynik oczekiwany lub taki, który wydaje się zasłużony, np. podwyżka lub premia otrzymana przez współpracowników. Wyniki przekraczające punkt odniesienia to zwycięstwa; poniżej punktu odniesienia – straty.
  • Zasada desensytyzacji sprawdza się zarówno w sferze doznań, jak i w ocenie zmian w majątku. Pojawienie się słabego światła będzie miało świetny efekt w ciemnym pomieszczeniu. Ta sama zmiana oświetlenia pozostanie niezauważona w jasno oświetlonym pomieszczeniu. Podobnie różnica między 900 a 1000 dolarów jest subiektywnie znacznie mniejsza niż różnica między 100 a 200 dolarów.
  • Trzecią zasadą jest niechęć do strat. Przy bezpośrednim porównaniu straty wydają się większe niż zyski. Ta asymetria pomiędzy siłą pozytywnych i negatywnych oczekiwań lub doznań powstała w trakcie ewolucji. Organizm, który silniej reaguje na zagrożenie niż na przyjemną perspektywę, ma większe szanse na przeżycie i reprodukcję.

Wykres (ryc. 7) przedstawia psychologiczną wartość zysków i strat, które są „nośnikami” wartości w teorii perspektywy (w odróżnieniu od modelu Bernoulliego, gdzie nośnikami wartości jest wielkość majątku). Wykres jest wyraźnie podzielony na dwie części – na prawo i na lewo od punktu odniesienia. Kształt litery S jest uderzający, wykazując zmniejszoną wrażliwość zarówno na zyski, jak i straty. Wreszcie dwie połówki litery S nie są symetryczne. Krzywa funkcji zmienia się gwałtownie w punkcie odniesienia: reakcja na straty jest silniejsza niż reakcja na odpowiadające im zyski. To jest niechęć do strat.

Niechęć do straty można zmierzyć zadając sobie pytanie: Jaki jest minimalny zysk, który zrównoważyłby moje szanse na utratę 100 dolarów? W większości przypadków odpowiedź brzmi około 200 dolarów, czyli dwukrotność straty. „Współczynnik niechęci do strat” był wielokrotnie oceniany eksperymentalnie i zazwyczaj mieści się w zakresie od 1,5 do 2,5.

Oczywiście nie może być mowy o jakimkolwiek hazardzie, jeśli ewentualne straty przerodzą się w katastrofę lub Twój sposób życia będzie zagrożony. W takich przypadkach współczynnik awersji do strat jest ogromny i często dąży do nieskończoności.

Sama teoria perspektywy zawiera sprzeczności. Weźmy na przykład założenie teorii perspektywy, że punkt odniesienia – zwykle status quo – ma wartość zero. Przyjrzyjmy się bliżej następującym perspektywom:

  1. Jedna na milion szansa na wygranie 1 miliona dolarów.
  2. Istnieje 90% szans na wygranie 12 dolarów i 10% szans na wygranie niczego.
  3. Istnieje 90% szans na wygranie 1 miliona dolarów i 10% szans na wygranie niczego.

Opcja „nic nie wygrana” występuje we wszystkich trzech grach, a teoria perspektywy we wszystkich trzech przypadkach przypisuje temu wynikowi tę samą wartość. Punktem wyjścia jest nie wygranie czegokolwiek, a jego wartość wynosi zero. Czy te stwierdzenia odpowiadają Twoim odczuciom? Oczywiście nie. W pierwszych dwóch przypadkach wygrana niczego nie jest bzdurą, a wartość zerowa ma sens. I odwrotnie, brak wygranej w trzecim przypadku oznacza przeżycie poważnego rozczarowania. Podobnie jak obiecana za kulisami podwyżka wynagrodzenia, tak wysokie prawdopodobieństwo wygrania dużej sumy wyznacza nowy punkt odniesienia. W porównaniu z Twoimi oczekiwaniami zerowy zysk jest postrzegany jako poważna strata. Teoria perspektywy nie jest w stanie wyjaśnić tego faktu. Jednak zarówno rozczarowanie, jak i oczekiwanie na rozczarowanie są realne, a nieumiejętność ich wyjaśnienia jest wadą równie oczywistą, jak kontrprzykłady, którymi krytykowałem teorię Bernoulliego.

Rozdział 27. Efekt wyposażenia

Wszystkie punkty na krzywej obojętności mają tę samą atrakcyjność. To właśnie oznacza „obojętność”. Wypukłość wykresu odzwierciedla malejącą użyteczność krańcową. Istnieją dwa aspekty wyboru, których nie przewiduje standardowy model krzywej obojętności. Po pierwsze, smaki nie pozostają w stagnacji; zmieniają się wraz z punktem odniesienia. Po drugie, szkody spowodowane zmianami wydają się większe niż korzyści, co powoduje chęć utrzymania status quo.

Tradycyjne schematy obojętności i Bernoulliego przedstawianie wyników jako ilości bogactwa opierają się na błędnym założeniu: że użyteczność chwili obecnej zależy tylko od samej chwili i nie jest powiązana z twoją historią. Skorygowanie tego błędu było jednym z osiągnięć ekonomii behawioralnej.

We wczesnych latach siedemdziesiątych Richard Thaler odkrył wiele przykładów tego, co nazwał „efektem wyposażenia”. Przykładowo masz bilet na koncert popularnego zespołu, który kupiłeś za symboliczną kwotę 200 dolarów. Jesteś zagorzałym fanem zespołu i z łatwością zapłaciłbyś za bilet nawet 500 dolarów. Masz bilet i czytasz w Internecie, że bogatsi lub bardziej zdesperowani fani oferują 3000 dolarów. Czy sprzedasz? Jeśli jesteś jak większość wyprzedanych widzów, nie zostaniesz sprzedany. Twoja minimalna cena sprzedaży przekracza 3000 USD, a maksymalna cena zakupu wynosi 500 USD. Jest to przykład efektu wyposażenia, który wprawi w zakłopotanie badacza standardowej ekonomii. Thaler zdał sobie sprawę, że funkcja wartości niechęci do straty w ramach teorii perspektywy może również wyjaśnić efekt wyposażenia.

Pierwsze zastosowanie teorii perspektywy do zagadki ekonomicznej wydaje się być kamieniem milowym w rozwoju ekonomii behawioralnej.

Efekt wyposażenia nie jest powszechny. Jeśli zostaniesz poproszony o wymianę banknotu pięciodolarowego na dolara, oddasz pięć banknotów bez poczucia straty. W przypadku normalnej wymiany handlowej obie strony nie mają niechęci do strat. Czym te transakcje rynkowe różnią się od niechęci profesora R do sprzedaży swojego wina lub niechęci posiadaczy biletów na Super Bowl do sprzedaży ich nawet po zawyżonej cenie? Różnica polega na tym, że buty, które sprzedaje Ci sprzedawca, oraz pieniądze z Twojego budżetu, które na nie wydajesz, są „na wymianę”. Gotowe są do wymiany na inny towar. Pozostałe towary – wino czy bilety na Super Bowl – są „do użytku”: do osobistego spożycia lub dla przyjemności.

Wysoka cena podana przez sprzedawców odzwierciedla niechęć do rozstania się z czymś, co już posiada, taką niechęć, jaką widzimy u dziecka, które desperacko czepia się zabawki i wścieka się, gdy zostanie jej zabrana. Niechęć do strat jest wbudowana w strukturę automatycznej oceny Systemu 1.

Myśl jak trader. Istnienie punktu odniesienia oraz fakt, że straty wydają się większe niż odpowiadające im zyski, uważa się za podstawowe idee teorii perspektywy. Nie należy spodziewać się efektu wyposażenia, jeśli właściciel uważa, że ​​jego towary mają wartość do przyszłej wymiany – jest to powszechny pogląd na rynkach komercyjnych i finansowych.

Rozdział 28. Awarie

Mózgi ludzi i zwierząt posiadają mechanizm, który pozwala im priorytetowo traktować złe wieści. Przyspieszenie przekazywania impulsu nawet o kilka setnych sekundy zwiększa szanse zwierzęcia na przeżycie w zderzeniu z drapieżnikiem i późniejszy rozród. Automatyczne działania Systemu 1 odzwierciedlają naszą ewolucyjną historię. Co dziwne, nie odkryto żadnych stosunkowo szybko działających mechanizmów rozpoznawania „dobrych wiadomości”.

To, co negatywne, w większości przypadków zabija to, co pozytywne, a niechęć do strat to tylko jeden z przejawów takiej przewagi tego, co negatywne. Niechęć do straty powstaje na skutek rywalizacji przeciwstawnych aspiracji: chęci uniknięcia straty (jest silniejsza) i uzyskania korzyści. Punktem odniesienia jest czasem status quo, czasem cel na przyszłość. Osiągnąć to znaczy wygrać, a nie osiągnąć to znaczy przegrać. Przewaga negatywu oznacza, że ​​motywy te mają różną siłę. W tym sensie chęć uniknięcia porażki w osiągnięciu celu jest silniejsza niż chęć „przekroczenia planu”.

Utrzymaj status quo. Uważny obserwator niemal wszędzie dostrzeże brak równowagi w natężeniu motywów niechęci do strat i zysków. Są one niezmiennie nieodłącznym elementem wszelkich negocjacji, a zwłaszcza powtarzających się dyskusji na temat warunków zawieranych umów. Zwierzęta bardziej desperacko walczą o zachowanie tego, co posiadają, niż o zysk. Pewien biolog zauważył: „Kiedy właściciel jakiegoś terytorium spotyka obcego, ten prawie zawsze się wycofuje — zwykle w ciągu kilku sekund”.

Rozdział 29. Schemat czteroczęściowy

Ilekroć dokonujesz ogólnej oceny złożonego obiektu – nowego samochodu, przyszłego zięcia, niepewnej sytuacji – przypisujesz wagę każdej z jego cech. To fantazyjny sposób na powiedzenie, że niektóre z nich wpływają na Twój osąd bardziej niż inne. Różnicowanie właściwości ze względu na stopień ważności następuje niezależnie od tego, czy jesteśmy tego świadomi, czy nie – to jedna z funkcji Systemu 1.

Korekta kursów. Przed Bernoullim gry oceniano na podstawie oczekiwanych korzyści. Bernoulli zastosował tę metodę, aby przypisać wagę wygranym (zasadę tę nazwano odtąd „zasadą oczekiwań”), ale zastosował ją do psychologicznej wartości wyniku. W jego teorii korzyść z gry to średnia arytmetyczna korzyści wynikających z jej wyników, oceniana według ich prawdopodobieństwa. Zasada oczekiwań nie opisuje, jak myślisz o prawdopodobieństwie w ryzykownych projektach. W czterech poniższych przykładach Twoje szanse na wygranie 1 miliona dolarów rosną stopniowo o 5%. Czy byłbyś równie szczęśliwy, gdyby prawdopodobieństwo wzrosło:

A. od 0 do 5%

B. od 5 do 10%

B. od 60 do 65%

D. od 95 do 100%?

Zasada oczekiwań mówi, że Twoje świadczenie wzrasta w każdym przypadku dokładnie o 5%. Czy to jednak opisuje, co czujesz? Nie, oczywiście nie. Każdy zgodzi się, że pary 0-5% i 95-100% robią znacznie większe wrażenie niż pary 5-10% czy 60-65%. Wzrost szans z zera do pięciu procent zmienia sytuację, stwarza szansę, jakiej wcześniej nie było i daje nadzieję na zdobycie nagrody. Tutaj widzimy zmianę jakościową, natomiast w parze 5–10% mówimy jedynie o ilościowej. I chociaż w parze 5-10% prawdopodobieństwo wygranej podwójnej, korzyść psychologiczna z takiej perspektywy nie wzrasta proporcjonalnie - wielu się z tym zgodzi. Przykładem jest wrażenie wywołane zwiększeniem prawdopodobieństwa od zera do 5%. efekt okazji, co sprawia, że ​​mało prawdopodobne wyniki wydarzeń wydają się bardziej znaczące i otrzymują większą wagę, niż „na to zasługują”.

Wraz ze wzrostem prawdopodobieństwa o 95–100% obserwuje się kolejną zmianę jakościową o silnym wpływie - efekt pewności. Ze względu na efekt szansy mamy tendencję do przeceniania małych ryzyk i przepłacania więcej niż to konieczne, aby je całkowicie wyeliminować. Przecenianie słabych możliwości zwiększa atrakcyjność zarówno umów hazardowych, jak i ubezpieczeniowych.

Zasada oczekiwania, zgodnie z którym wartość jest ważona według prawdopodobieństwa, jest psychologicznie nie do utrzymania. Co więcej, sprawa staje się jeszcze bardziej zagmatwana – dzięki mocnemu argumentowi, że każda jednostka, która chce racjonalnie podejmować decyzje, musi kierować się zasadą oczekiwań. Jest to główna teza znanej teorii użyteczności, zaprezentowanej w 1944 roku przez von Neumanna i Morgensterna. Udowodnili, że jakakolwiek ocena niepewnych wyników, która nie jest wprost proporcjonalna do prawdopodobieństwa, prowadzi do sprzeczności i innych problemów.

Kiedy Amos i ja zaczęliśmy pracować nad teorią perspektywy, szybko doszliśmy do dwóch wniosków: ludzie cenią zyski i straty, a nie ogólne dobro, a waga decyzji przypisanych do wyników zdarzeń różni się od prawdopodobieństwa ich wystąpienia. Obydwa pomysły nie były nowe, ale po połączeniu wyjaśniły charakterystyczny wzór preferencji, który nazwaliśmy schematem czteroczęściowym (ryc. 9). Pierwszy wiersz każdej komórki pokazuje zdarzenia alternatywne (dla przejrzystości). Poniżej opisano podstawowe emocje wywołane przez alternatywę. Poniżej opisano, jak większość ludzi zachowuje się w obliczu wyboru pomiędzy hazardem a określoną wygraną (stratą) odpowiadającą oczekiwanej wartości (na przykład pomiędzy 95% szansą na wygraną 10 000 dolarów a gwarantowaną wygraną w wysokości 9500 dolarów). Mówi się, że awersja do ryzyka pojawia się, gdy preferowana jest kwota gwarantowana, a poszukiwanie ryzyka wiąże się z preferencją dotyczącą hazardu. Na koniec opisano oczekiwane stanowiska pozwanego i powoda przy omawianiu rozstrzygnięcia sprawy cywilnej.

Ryż. 9. Czteroczęściowy schemat teorii perspektywy

Czteroczęściowy schemat preferencji uważany jest za jedno z głównych osiągnięć teorii perspektywy. Trzy z czterech cel były nam znane, czwarta (prawy górny róg) była dla nas niespodzianką. Lewa górna komórka opisuje założenie Bernoulliego – ludzie mają awersję do ryzyka, jeśli rozważają alternatywy, które dają znaczną szansę na osiągnięcie dużego zysku. Są bardziej skłonni zadowolić się mniejszym jackpotem, aby mieć pewność, że wygrane będą prawidłowe. Efekt okazji w lewej dolnej komórce wyjaśnia dużą popularność loterii. Kiedy nagroda osiąga duże rozmiary, kupujący los zapomina, że ​​szansa na wygraną jest minimalna. Bez biletu nie da się wygrać, ale dzięki niemu masz szansę – niezależnie od tego, jak małą czy znikomą. Oczywiście dzięki biletowi człowiek zyskuje coś więcej niż możliwość wygranej - prawo do marzeń o bogactwie do woli. Dolna prawa komórka opisuje zakup ubezpieczenia. Ludzie są skłonni zapłacić więcej niż oczekiwana wartość za pewność; Dzięki tej chęci firmy ubezpieczeniowe istnieją i prosperują. Tutaj znowu zyskuje się coś więcej niż tylko ochronę przed nieoczekiwanymi nieprzyjemnościami - eliminację niepokoju i spokój ducha. W prawej górnej komórce szukamy ryzyka w obszarze strat w złudnej nadziei na utrzymanie status quo; jesteśmy gotowi zaryzykować większą kwotę, aby uniknąć odnotowania strat.

Rozdział 30. Rzadkie zdarzenia

Ludzie przeceniają prawdopodobieństwo wystąpienia mało prawdopodobnych zdarzeń. Ludzie przywiązują dużą wagę do takich wydarzeń. O większą wagę przy podejmowaniu decyzji.

Craig Fox zaprosił fanów koszykówki do obstawiania zakładów na zwycięzcę mistrzostw. Do każdego zakładu przypisywali równowartość pieniężną (kwotę odpowiadającą atrakcyjności uczestnictwa w grze). Wypłata zwycięzcy wyniosła 160 dolarów. Łączna wartość gotówkowa dla ośmiu poszczególnych zespołów wyniosła 287 dolarów. Wyniki tego eksperymentu rzucają w nowe światło błąd planowania i inne przejawy optymizmu. Obraz pomyślnie wykonanego planu jest bardzo konkretny i łatwy do wyobrażenia, gdy próbujemy przewidzieć wynik projektu. I odwrotnie, alternatywa w postaci porażki wydaje się niejasna, ponieważ wszystko może przeszkodzić w sukcesie. Przedsiębiorcy i inwestorzy oceniając swoje perspektywy mają tendencję zarówno do przeceniania szans, jak i przywiązywania nadmiernej wagi do swoich szacunków.

W teorii użyteczności waga decyzji jest równa prawdopodobieństwu. Waga decyzji dla zdarzenia, które ma pewność, że nastąpi, wyniesie 100, a prawdopodobieństwo 90% odpowiada 90, czyli 9-krotności wagi prawdopodobieństwa 10%. W teorii perspektywy zmiany prawdopodobieństwa mają mniejszy wpływ na wagę decyzji. Wspomniany eksperyment pokazał, że waga decyzji dla 90% szansy wyniosła 71,2, a dla 10% szansy 18,6. Współczynnik prawdopodobieństwa wyniósł 9,0, natomiast współczynnik wag decyzji zaledwie 3,8, co wskazuje na brak wrażliwości na prawdopodobieństwo w tym zakresie.

Jasne prawdopodobieństwo. Uczestnicy jednego znanego eksperymentu zostali poproszeni o wybranie jednego z dwóch naczyń i wyciągnięcie z niego kuli. Czerwone kulki uznawano za nagrody. W tym przypadku: Naczynie A zawierało 10 kul, z czego 1 była czerwona; Pojemnik B zawierał 100 kulek, z czego 8 było czerwonych. Który byś wybrał? Twoje szanse na wygraną wynoszą 10% w przypadku statku A i 8% w przypadku statku B, więc prawidłowa odpowiedź wydaje się prosta. W rzeczywistości okazało się inaczej: 30–40% badanych wybrało naczynie z b O więcej zwycięskich piłek, preferując w ten sposób mniejsze szanse na wygraną.

Na określenie tego błędu ukuto kilka nazw. Nazwę to, za Paulem Slovikiem zaniedbanie mianownika. Pomysł pominięcia mianownika pomaga wyjaśnić, dlaczego różne sposoby przekazywania informacji o ryzyku tak bardzo różnią się pod względem wpływu. Jeśli przeczytasz, że „szczepionka zapobiegająca rozwojowi śmiertelnej choroby u dzieci powoduje niepełnosprawność w 0,001% przypadków”, ryzyko wydaje się niewielkie. A teraz wyobraźcie sobie inny opis tego samego ryzyka: „Jedno na 100 000 dzieci zaszczepionych tą szczepionką pozostanie niepełnosprawne na całe życie”. Drugie zdanie uderza inaczej niż pierwsze: przywołuje obraz dziecka okaleczonego przez szczepionkę, podczas gdy 99 999 bezpiecznie zaszczepionych dzieci schodzi w cień. Jak wynika z zaniedbania mianownika, zdarzenia o niskim prawdopodobieństwie nabierają znacznie większego znaczenia, gdy mówimy o nich w kategoriach względnej częstotliwości (ile ich jest), a nie w kategoriach abstrakcyjnych, takich jak „szanse”, „ryzyko” czy „prawdopodobieństwo”. (jak prawdopodobne). Jak widzieliśmy w poprzednich rozdziałach, System 1 lepiej radzi sobie ze szczegółami niż z kategoriami.

Teraz, wiele lat po sformułowaniu teorii perspektywy, jesteśmy w stanie lepiej zrozumieć warunki, w których rzadkie zdarzenia są ignorowane lub przypisuje się im większą wagę. Rzadkie wydarzenie nabierze dodatkowej wagi, jeśli przyciągnie szczególną uwagę. Uwagę taką gwarantuje jednoznaczny opis perspektyw („99% szans na wygranie 1000 dolarów i 1% szans na wygranie niczego”). Obsesyjny niepokój (autobus w Jerozolimie), żywy obraz (róże), jasna interpretacja (jedna na tysiąc) i szczegółowe przypomnienie (jak przy wyborze według opisu) - wszystko to „przeciąża” wydarzenie. Gdzie nie ma nadwagi, będzie jej brak, niewiedza. Nasze umysły nie są przygotowane na zrozumienie rzadkich wydarzeń, a dla mieszkańca planety, która stoi w obliczu nieznanych kataklizmów, jest to smutna wiadomość.

Rozdział 31. Polityka ryzyka

Idea logicznej stałości jest nieosiągalna dla naszych ograniczonych umysłów. Ponieważ jesteśmy podatni na WYSIATI i niechętnie podejmujemy wysiłki umysłowe, mamy tendencję do podejmowania decyzji w miarę pojawiania się problemów, nawet jeśli nauczono nas, jak postrzegać je zbiorowo. Nie mamy ani skłonności, ani zasobów umysłowych, aby utrzymać stałość preferencji; nie możemy w cudowny sposób stworzyć spójnego zestawu preferencji na wzór modelu racjonalnego aktora.

Paul Samuelson zapytał kiedyś swojego przyjaciela Sama, czy zagrałby w rzut monetą, gdyby mógł stracić 100 dolarów i wygrać 200 dolarów. Przyjaciel odpowiedział: „Nie postawię, ponieważ radość z wygrania 200 dolarów nie przewyższa bólu związanego z utratą 100 dolarów. Ale jeśli pozwolisz mi zrobić sto takich zakładów, zgodzę się. Powiedziałbym Samowi: rozumiem Twoją niechęć do przegrywania, ale to Cię dużo kosztuje. Rozważ to pytanie: Czy jesteś już na łożu śmierci? Czy to ostatni raz, kiedy zostaniesz poproszony o grę na szczęście? Oczywiście jest mało prawdopodobne, że zaoferowana zostanie Ci dokładnie taka gra, ale będziesz miał wiele okazji, aby spróbować szczęścia w inny sposób, za niewielką opłatą (w stosunku do Twojego stanu). Wzmocnisz swoją pozycję finansową, jeśli każdą taką grę potraktujesz jako część zbioru małych gier.

Ta rada nie jest aż tak niemożliwa do wdrożenia. Doświadczeni traderzy na rynkach finansowych żyją tym na co dzień, chowając się przed bólem strat niezawodną tarczą – zasadą szerokich ram. Połączenie niechęci do straty i ograniczonych poglądów jest przekleństwem prowadzącym do ubóstwa.

Polityka ryzyka. Podejmując decyzje, ludzie o ograniczonych umysłach określają swoje preferencje, gdy stają przed ryzykownym wyborem. Ich pracę ułatwiłoby posiadanie polityki ryzyka, której należy przestrzegać w takich przypadkach. Przykłady polis ryzyka są znane każdemu: „Kupując polisę ubezpieczeniową, zawsze wybieraj najwyższe możliwe odliczenie” i „Nigdy nie kupuj przedłużonej gwarancji”. Polityka ryzyka zakłada ustanowienie szerokich ram. Polityka ryzyka, która kumuluje decyzje, jest podobna do punktu widzenia osoby z zewnątrz w kwestiach planowania opisanych powyżej. Perspektywa osoby z zewnątrz przenosi uwagę z okoliczności konkretnej sytuacji na statystyki skutków podobnych sytuacji. Perspektywa zewnętrzna i polityka ryzyka są środkami zwalczania uprzedzeń wpływających na wiele decyzji: nadmiernego optymizmu wynikającego z błędów w planowaniu i nadmiernie ostrożnej niechęci do ryzyka.

Richard Thaler wspomina dyskusję decyzyjną, którą odbył z szefami 25 oddziałów dużej korporacji. Poprosił ich o zaproponowanie ryzykownej opcji, w przypadku której firma z równym prawdopodobieństwem straci dużą część kapitału lub zyska dwukrotnie więcej. Żaden z wykonawców nie odważył się wejść w tak ryzykowną grę. Thaler zapytał wówczas o opinię dyrektora firmy, który był obecny na eksperymencie. Reżyser bez wahania odpowiedział: „Chciałbym, żeby wszyscy podejmowali ryzyko”. W kontekście rozmowy naturalne było, że lider postawił szerokie ramy, które połączyły wszystkie 25 stawek. Podobnie jak Sam, który musiał rzucić monetą sto razy, reżyser mógł liczyć na grupowanie statystyczne, aby wyrównać ogólne ryzyko.

Rozdział 32. Rachunkowość

Efekt dyspozycji- przykład wyznaczania wąskich granic. Inwestor otwiera rachunek na każdą zakupioną akcję i chce zamknąć konto na czarno. Racjonalny agent patrzy na swój portfel jako całość i sprzedaje te akcje, które nie przyniosą niczego w przyszłości, niezależnie od tego, czy są zwycięzcami, czy przegranymi.

Uwzględnianie nieodwracalnych strat często prowadzi do błędnych decyzji. Powinieneś zamknąć beznadziejny projekt i zacząć inwestować w coś wartościowego. Ta sytuacja znajduje się w prawej górnej komórce czteroczęściowego diagramu, gdzie musisz wybrać pomiędzy gwarantowaną stratą a niekorzystną grą. Niestety, gra jest często (i nierozsądnie) wybierana. Koncentrowanie się na nieudanej próbie jest błędem z punktu widzenia firmy, ale niekoniecznie z punktu widzenia dyrektora realizującego nieudany projekt. Anulowanie projektu pozostawi niezatartą plamę w historii menedżera.

Zarządy firm nie boją się takich konfliktów: często muszą zmienić lidera, który uparcie trzyma się pierwotnych decyzji i nie spieszy się z odpisywaniem strat. Członkowie zarządu niekoniecznie uważają, że nowy lider jest bardziej kompetentny, ale wiedzą, że nowy lider nie jest obciążony tą samą arytmetyką mentalną, co ułatwia zapominanie o utopionych kosztach przeszłych inwestycji przy ocenie dzisiejszych możliwości.

Żal to jedna ze sprzecznych emocji, które pojawiają się, gdy dostępne są alternatywy dla rzeczywistości. Ludzie mają tendencję do odczuwania silniejszych emocji (w tym żalu) w sytuacji wynikającej z działania niż w tej samej sytuacji, która jest wynikiem bierności. Asymetria ryzyka żalu wymaga nawyku wyboru i niechęci do ryzyka. To nastawienie pojawia się w wielu kontekstach. Kupujący, świadomi możliwego żalu w przypadku złego wyboru, uparcie trzymają się tradycyjnych wyborów, przedkładając produkty markowe nad mało znane.

Odpowiedzialność. W wielu przepisach i regulacjach dotyczących bezpieczeństwa można znaleźć utrzymującą się niechęć do podejmowania zwiększonego ryzyka w zamian za inną korzyść. Jak zauważyła prawniczka Cass Sunstein, zasada ostrożności jest kosztowna, a jeśli jest ściśle stosowana, może całkowicie wyniszczać. Wspomina imponującą listę innowacji, które nie uzyskały zgody, włączając „samochody, antybiotyki, klimatyzację, operacje na otwartym sercu…”. Zbyt rygorystyczna wersja zasady ostrożności jest oczywiście nie do utrzymania. Dylemat pomiędzy moralnością niechęci do strat a skutecznym zarządzaniem ryzykiem nie ma prostego ani przekonującego rozwiązania.

Rozdział 33. Inwersje

Otrzymałeś zadanie ustalenia odszkodowania dla ofiar brutalnych przestępstw. Przeglądasz przypadek mężczyzny, którego ręka została uszkodzona w wyniku rany postrzałowej. Został zastrzelony podczas napadu na pobliski dom towarowy. W pobliżu domu ofiary znajdują się dwa sklepy, z czego do jednego chodził częściej niż do drugiego. Rozważmy dwa scenariusze. 1. Do napadu doszło w częściej odwiedzanym sklepie. 2. Zwykły sklep został zamknięty z powodu żałoby, a ofiara poszła do innego, gdzie otrzymała ranę postrzałową. Czy rodzaj sklepu, w którym doszło do wypadku, ma wpływ na wysokość odszkodowania?

Prawie każdy, kto widział dwa scenariusze jednocześnie (eksperyment „w obrębie kategorii”), twierdzi, że goryczy nie należy brać pod uwagę. Niestety zasada ta działa tylko wtedy, gdy oba scenariusze są rozpatrywane łącznie; To nie zdarza się w życiu. Zwykle działamy w trybie „cross-category”, gdzie nie ma kontrastujących alternatyw, które mogłyby wpłynąć na Twoją decyzję i oczywiście w grę wchodzi efekt WYSIATI (widzisz to, co widzisz). W rezultacie zasady, których się trzymasz, myśląc o moralności, niekoniecznie rządzą twoimi reakcjami emocjonalnymi, a osądy moralne pojawiające się w różnych sytuacjach nie są wewnętrznie spójne. Rozbieżność pomiędzy pojedynczą i skumulowaną oceną scenariusza napadu dotyczy szerokiej rodziny napadów odwrócenie sądu i wyboru.

Kategorie. Oceny i preferencje są spójne w ramach kategorii, ale mogą być niespójne, jeśli oceniane obiekty należą do różnych kategorii. Spróbuj na przykład odpowiedzieć na trzy pytania. Co wolisz bardziej - jabłka czy brzoskwinie? Co wolisz – stek czy gulasz? Co lubisz bardziej - jabłka czy stek? Pierwsze i drugie pytanie odnoszą się do obiektów z tej samej kategorii, dzięki czemu od razu możesz odpowiedzieć, które lubisz bardziej. Co więcej, otrzymasz te same wyniki porównawcze z pojedynczych ocen („Jak bardzo lubisz jabłka?” i „Jak bardzo lubisz brzoskwinie?”), ponieważ zarówno jabłka, jak i brzoskwinie kojarzą Ci się z owocami. Nie będzie odwrócenia preferencji, ponieważ różne owoce porównywane są z tą samą normą i pośrednio między sobą, zarówno w ocenie pojedynczej, jak i zbiorczej. W przeciwieństwie do pytań w ramach danej kategorii, na pytanie jabłka czy stek nie ma spójnej odpowiedzi. Można założyć, że ocena zagregowana, wymagająca zaangażowania Systemu 2, jest bardziej stabilna niż ocena pojedyncza, która często odzwierciedla siłę reakcji emocjonalnych Systemu 1.

Rozdział 34. Ramy i rzeczywistość

Amos i ja nazywaliśmy nieuzasadnionym wpływem języka na przekonania i preferencje efekt kadrowania(ustalanie limitów). Oto jeden z przykładów, z których korzystaliśmy. Czy zgodziłbyś się na grę, w której masz 10% szans na wygranie 95 dolarów i 90% szans na utratę 5 dolarów? Czy zapłaciłbyś 5 dolarów za grę na loterii, w której masz 10% szans na wygranie 100 dolarów i 90% szans na wygranie niczego? Druga wersja spotyka się ze znacznie większą liczbą pozytywnych odpowiedzi. O wiele łatwiej jest zaakceptować niefortunny wynik, patrząc na niego w kategoriach wartości losu na loterię, który nie wygrał, niż wtedy, gdy negatywny wynik jest przedstawiany jako przegrana w grze. „Przegrana” wywołuje silniejsze negatywne emocje niż „koszty”.

Lekarze biorący udział w eksperymencie przeprowadzonym przez Amosa otrzymali statystyki dotyczące wyników dwóch opcji leczenia raka płuc: chirurgii i radioterapii. Jedna grupa uczestników została wprowadzona w statystyki przeżywalności, druga grupa otrzymała te same informacje w zakresie śmiertelności. Tak wyglądały dwa opisy krótkoterminowych wyników operacji. Miesięczny wskaźnik przeżycia wynosi 90%. Śmiertelność w pierwszym miesiącu wynosi 10%. Wyniki już znacie: operacja wydawała się atrakcyjniejsza w pierwszym preparacie (wybrało ją 84% lekarzy) niż w drugim (50% preferowało radioterapię).

Amos i ja rozpoczęliśmy dyskusję na temat ramowania od przykładu zwanego problemem choroby azjatyckiej. Wyobraźcie sobie, że kraj przygotowuje się na epidemię dziwnej azjatyckiej choroby, która według przewidywań zabije 600 osób. Zaproponowano dwa alternatywne programy zwalczania choroby. Załóżmy, że dokładne naukowe szacunki konsekwencji każdego programu są następujące: Jeśli program A zostanie przyjęty, uratuje się 200 osób. Jeżeli zostanie przyjęty program B, prawdopodobieństwo uratowania 600 osób wynosi 1/3, a prawdopodobieństwo, że nikt nie zostanie uratowany, wynosi 2/3. Zdecydowana większość respondentów wybrała program A: wolała gwarantowany wynik od gry. W drugiej wersji wyniki programu sformułowane są w innych ramach. Jeśli zostanie przyjęty program A', umrze 400 osób. Jeżeli zostanie przyjęty program B', prawdopodobieństwo, że nikt nie umrze, wynosi 1/3, a prawdopodobieństwo, że umrze 600 osób, wynosi 2/3. Przyjrzyj się bliżej i porównaj obie wersje: konsekwencje programów A i A’ są identyczne, podobnie jak konsekwencje programów B i B’. Jednak w granicach wyznaczonych przez drugie sformułowanie większość uczestników wybrała „grę”.

Preferencje między obiektywnie równymi wynikami zmieniają się ze względu na różnice w sformułowaniu.

Poznajemy działanie Systemu 1, który zapewnia natychmiastową odpowiedź na każde pytanie dotyczące biednych i bogatych: wszelkie wątpliwości są rozstrzygane na korzyść biednych. Zaskakujące w problemie Schellinga jest to, że na tę pozornie prostą regułę moralną nie można polegać. Daje sprzeczne odpowiedzi na to samo pytanie, w zależności od ram ustalonych w opisie problemu. Nasze sądy moralne dotyczą opisów, a nie treści. Szersze ramy i wspólne konta prowadzą do bardziej racjonalnych decyzji.

CZĘŚĆ V. DRUGA „Ja”
Rozdział 35. Dwa „ja”

Nie została opublikowana w języku rosyjskim.

Wstęp

W 2002 roku Nagrodę Nobla w dziedzinie ekonomii przyznano dwóm amerykańskim naukowcom: psychologowi Danielowi Kahnemanowi i ekonomiście Vernonowi Smithowi. Tym, co połączyło prace tych dwóch bardzo różnych badaczy, było wykazanie, że ludzie w sferze ekonomicznej postępują mniej inteligentnie i mniej samolubnie, niż zakładają klasyczne teorie ekonomiczne. Komitet Noblowski przyznał Kahnemanowi nagrodę „za wzbogacenie nauk ekonomicznych o wyniki badań psychologicznych, zwłaszcza w zakresie ludzkiej oceny sytuacji i podejmowania decyzji w warunkach niepewności”. Jeśli przełożymy to sformułowanie na język potoczny, brzmiałoby to tak: „Kahneman otrzymał Nagrodę Nobla za pokazanie, jak psychologiczne błędy, które ludzie popełniają, wpływają na ludzkie działania w dziedzinie ekonomii i biznesu”. Vernon Smith otrzymał Nagrodę Nobla za opracowanie nowego narzędzia analizy ekonomicznej – eksperymentów laboratoryjnych. To właśnie przeprowadzając takie eksperymenty, które doprowadziły do ​​wniosków znakomicie potwierdzonych w praktyce, zwolennik klasycznej teorii ekonomii Vernon Smith doszedł do wniosku o irracjonalności ludzkich zachowań. To, że człowiek podejmując decyzje, ma tendencję do postępowania nie racjonalnego (rozsądnego), ale irracjonalnego, popełniając błędy, a błędy te nie są przypadkowe, ale ściśle określone, systematyczne, psychologowie ustalili już wiele lat temu. Badanie natury tych błędów doprowadziło do powstania nowego kierunku interdyscyplinarnego – psychologii ekonomicznej, czyli ekonomii behawioralnej.

Eksperymenty psychologiczne D. Kahnemana w ekonomii

9 października 2002 roku Komitet Noblowski ogłosił przyznanie swojej Nagrody Pamięci w dziedzinie ekonomii dwóm wybitnym naukowcom: Danielowi Kahnemanowi z uniwersytetów Princeton (USA) i Jerozolimy (Izrael) „za włączenie wyników badań psychologicznych do nauk ekonomicznych, zwłaszcza w obszarach oceny i akceptacji decyzji w warunkach niepewności” oraz Vernon Smith z George Mason University (USA) – „za ustanowienie eksperymentów laboratoryjnych jako narzędzia analizy empirycznej w ekonomii, zwłaszcza w badaniu alternatywnych mechanizmów rynkowych”.

Nominacja Kahnemana i Smitha, choć oczekiwana już kilka lat temu, stanowiła formalne uznanie faktu, że w ramach dyscypliny ekonomicznej wyłoniły się i ukształtowały tak niezależne dziedziny, jak ekonomia eksperymentalna, psychologia ekonomiczna czy ekonomia behawioralna. Nominacja z 2002 roku oznacza jednak coś więcej. Po pierwsze, Nagroda Nobla w dziedzinie ekonomii, przyznana przedstawicielowi nauk psychologicznych, w sposób oczywisty potwierdza zasadniczy kurs światowego środowiska naukowego w kierunku integracji programów badawczych różnych nauk humanistycznych. Po drugie – i to jest może nawet ważniejsze – samo uznanie przez zawodowych ekonomistów znaczenia psychologicznych cech indywidualnych zachowań zaznaczyło i odnotowało znaczącą zmianę w podejściu i problematyce całej nauki ekonomicznej. W istocie fakt ten oznacza uznanie nie tylko celowości, ale także konieczności wyjścia poza formalne modele aksjomatyczne, które są słabo powiązane z rzeczywistymi zachowaniami, które modele te mają opisywać. Nauki ekonomiczne wkraczają w erę stopniowej rewizji ustalonych metod i doktryn, zaczynając od podstaw – modelu Noto oesopoticusa, racjonalnego człowieka ekonomicznego. Podstawowy materiał empiryczny do tej rewizji pochodzi z badań psychologicznych, w których główną rolę odgrywa Daniel Kahneman; a głównym narzędziem gromadzenia takiego materiału był eksperyment jako szczególna metoda poszerzania wiedzy naukowej, który wszedł do arsenału nauk ekonomicznych dzięki pionierskiej pracy Vernona Smitha.

W tradycji ekonomii neoklasycznej w jakiś sposób podświadomie przyjmowano przekonanie, że badania empiryczne (a zwłaszcza eksperymenty na prawdziwych ludziach) są zajęciem mniej „poważnym” niż „wysoka” teoria. Ekonomiści neoklasyczni woleli zajmować się sprawami „poważniejszym”, coraz bardziej rozumiejąc wraz z postępem nauki coraz bardziej wyrafinowane konstrukcje formalne w ramach swojej tradycji naukowej, oparte na modelu Homo eosopoticus z punktu widzenia teorii standardowej, ten racjonalny podmiot gospodarczy musiał podporządkować wszystkie uczucia i emocje precyzyjnej kalkulacji, posiadać absolutną pamięć i zdolności obliczeniowe, zawsze być świadomym swoich zainteresowań (preferencji) i postępować zgodnie z nimi. Formalny opis racjonalnego zachowania w teorii został poprzedzony szeregiem założeń (takich jak wypukłość, ciągłość, monotoniczność i przechodniość indywidualnych preferencji), które umożliwiły przedstawienie preferencji jednostek w postaci funkcji użyteczności o wartości rzeczywistej oraz skorzystaj z potężnego narzędzia analitycznego jakim jest analiza matematyczna i funkcjonalna. Co więcej, w pełnej zgodzie z metodologią pozytywistyczną, teoria głosiła, że ​​nawet jeśli agent nie rozwiązuje świadomie problemu maksymalizacji, to nadal zachowuje się tak, jakby go rozwiązywał. Dzieje się tak choćby dlatego, że systematyczne odstępstwa od takiego zachowania nieuchronnie prowadzą do strat wyrażonych w pieniądzu, a jeśli będą systematycznie powtarzane, do bankructwa „irracjonalnego” podmiotu.

Rzeczywistość jednak uparcie nie chciała wpasować się w „prokrustowe łoże” kanonicznych schematów, niezależnie od tego, jak wygodne były one analitycznie. Już w latach pięćdziesiątych amerykański ekonomista i psycholog Herbert Simon przekonująco pokazał, że prawdziwi ludzie podejmujący decyzje zachowują się zupełnie inaczej, niż opisują to podręczniki ekonomii. Ograniczone możliwości poznawcze nie pozwalają w praktyce prawdziwym ludziom na znalezienie rozwiązań optymalnych z teoretycznego punktu widzenia. Jeżeli tak, to koncepcja racjonalności materialnej, przyjęta w modelach standardowych, powinna ustąpić miejsca koncepcji racjonalności ograniczonej, jako bardziej poprawnej z opisowego punktu widzenia.

Praca Simona, nagrodzona Nagrodą Nobla w 1978 r. „za pionierskie badania procesów decyzyjnych w organizacjach gospodarczych”, nie mogła jeszcze zostać włączona do arsenału naukowego i prawdopodobnie była postrzegana przez większość ekonomistów jako poboczna i nieistotna dziedzina nauki. Jednak w ciągu ostatnich dwudziestu lat przedmiot i metoda ekonomii zmieniły się, jeśli nie radykalnie, to dość znacząco. Programy uniwersyteckie zdecydowanie uwzględniają tak podstawowe zjawiska empiryczne, jak paradoksy Allaisa czy „efekt kadrowania” w teorii indywidualnego zachowania w warunkach ryzyka.

W tych samych latach ekonomia eksperymentalna ostatecznie ukształtowała się jako niezależna dziedzina badań ekonomicznych, posiadająca własne metody, zasady i tradycje. Eksperyment ekonomiczny, będący ciałem i krwią teorii ekonomii, służy przede wszystkim testowaniu konkretnych modeli w teoretycznie jednoznacznych okolicznościach, a także gromadzeniu nowych informacji o właściwościach znanych instytucji gospodarczych. Okazało się, że wiele założeń modeli ekonomicznych – takich jak doskonała lub niedoskonała konkurencja, niepełna informacja czy wstępna komunikacja (tania rozmowa) – można odtworzyć w klasie lub lokalnej sieci komputerowej. Preferencje można również kształtować dość ostrożnie, płacąc uczestnikom eksperymentów określoną nagrodę w zależności od ich wyników. Opracowano także zasady doboru uczestników (najczęściej są to studenci), sporządzania instrukcji i przeprowadzania eksperymentu. Wreszcie ważne jest również, aby eksperymenty ekonomiczne były zwykle przeprowadzane z prawdziwymi pieniędzmi. Choć fakt ten nie zawsze wpływa na wyniki, zwiększa ich siłę przekonywania dla ekonomistów, którzy są przyzwyczajeni do eksperymentalnych obaleń swoich teoretycznych osiągnięć z pewnym stopniem sceptycyzmu.

W rezultacie eksperyment ekonomiczny stał się powszechnie akceptowanym, jeśli nie jedynym, sposobem testowania najszerszej klasy teorii ekonomii behawioralnej: od zachowań indywidualnych po teorię wyboru publicznego, od teorii gier po teorię rynków finansowych. Społeczność naukowa w końcu przypomniała sobie, że ekonomia nie ma być niczym innym jak nauką o ludzkich zachowaniach w prawdziwym życiu i człowieku w interakcjach z innymi. Jeśli jednak tak jest, to samo empiryczne badanie takich zachowań należy uznać nie za dziwactwo marginalnej grupy naukowców, ani nawet za jeden ze sposobów sprawdzania istniejących teorii, ale także za najważniejszą metodę gromadzenia określonego materiału o zachowaniach ludzi, które ma opisywać i wyjaśniać. Dziś najlepsi teoretycy ekonomii coraz częściej proponują nowe koncepcje i rozszerzenia klasycznych modeli, oparte nie na wygodnych konstrukcjach matematycznych, ale na empirycznych dowodach dotyczących ludzkich zachowań, ujawnionych w drodze eksperymentu.

W konsekwencji tych wszystkich zmian liczba publikacji z zakresu ekonomii eksperymentalnej i behawioralnej w ostatnich latach wzrosła wykładniczo – bez nich nie obejdzie się żaden tom światowych czasopism ekonomicznych, w tym takie jak Econometrica, American Economic Review, Journal of Economic Perspectives „, „Journal of Political Economy”, „Quarterly Journal of Economics”, „Economic Journal”. Ukazało się szereg specjalistycznych publikacji naukowych - np. „Journal of Behavioral Decision Making”, „Journal of Economic Behaviour and Organisation”, „Journal of Risk and Uncertainty”, „Journal of Economic Psychology”, „Experimental Economics”, „ Journal of Psychology” i „Markets”, a najlepsze uniwersytety na świecie uważają za dobrą formę mieć wśród swoich pracowników jednego lub dwóch ekonomistów eksperymentalnych (1).

Przejściowe wyniki rozwoju ekonomii eksperymentalnej podsumowano w podstawowej publikacji referencyjnej, Handbook of Experimental Economics, opublikowanej w 1995 r. pod redakcją Johna Kagela i Alvina Rotha. Książka ta, która natychmiast stała się biblią ekonomii eksperymentalnej, nadała nowy impuls badaniom w tej dziedzinie na całym świecie.

W świetle tych zmian przyznanie Nagrody Nobla dwóm wybitnym przedstawicielom ekonomii psychologicznej i behawioralnej było jedynie formalnym uznaniem zasadniczej i stale rosnącej roli, jaką praca empiryczna odgrywa w zwiększaniu wiedzy człowieka o własnej naturze i zdolnościach poznawczych w życiu człowieka. związku z zachowaniami ekonomicznymi (i nie tylko). Swoją decyzją Komitet Nobla w dziedzinie Ekonomii po raz kolejny potwierdził nie tylko pryncypialną linię przyznawania nagrody prawdziwym pionierom, ale także umiejętność odpowiedniego uwzględnienia gromadzenia wiedzy naukowej, a nawet rewiduje utarte idee, które kiedyś uważano za niezmienne postulaty nauk ekonomicznych.

Informacje biograficzne. Daniel Kahneman urodził się w Tel Awiwie w 1934 roku. Psycholog izraelsko-amerykański, jeden z twórców teorii ekonomii psychologicznej (behawioralnej). Życie D. Kahnemana wyraźnie pokazuje kosmopolityzm współczesnych naukowców. Rozpoczynając studia na Uniwersytecie Hebrajskim w Jerozolimie (1954 - tytuł licencjata z psychologii i matematyki), Kahneman ukończył je na Uniwersytecie Kalifornijskim w Berkeley (1961 - doktorat z psychologii). Przez kolejne 17 lat wykładał na Uniwersytecie Hebrajskim w Jerozolimie, łącząc to z pracą na szeregu uniwersytetów w USA i Europie (Cambridge, Harvard, Berkeley). Od końca lat 70. Kahneman tymczasowo wycofał się z pracy w Izraelu, angażując się we wspólne projekty naukowe z naukowcami amerykańskimi i kanadyjskimi w ośrodkach badawczych w tych krajach. Od 1993 roku pracuje jako profesor na Uniwersytecie Princeton w USA, a od 2000 roku równolegle wykłada ponownie na Uniwersytecie Hebrajskim w Jerozolimie (13).

Pierwszym ekonomistą, który naprawdę odkrył i zademonstrował ogromny potencjał metod eksperymentalnych do testowania hipotez nauk społecznych, był słynny francuski naukowiec Maurice Allais, laureat Nagrody Nobla w 1988 r. za „pionierski wkład w teorię rynków i efektywne wykorzystanie zasobów”. Jednak już na początku lat pięćdziesiątych jako pierwszy podał swoim kolegom szereg prostych przykładów, które obalały nową wówczas teorię wyboru w warunkach ryzyka, sformułowaną przez Johna von Neumanna i Oskara Morgensterna. Ta teoria oczekiwanej użyteczności stwierdza, że ​​racjonalna jednostka, wybierając najbardziej pożądaną z ryzykownych alternatyw (loterie, czyli rozkłady prawdopodobieństwa zbioru wygranych pieniężnych), stara się maksymalizować wartość oczekiwaną swojej funkcji użyteczności.

W przypadku skończonego zbioru wyników zmaksymalizowany funkcjonał zapisuje się jako U(p) = Ui(x)p x, gdzie x to wygrane (wartości pieniężne), a p x to prawdopodobieństwa ich otrzymania. Ta prosta forma funkcjonalna pozwala nam przedstawić użyteczność wszelkich niepewnych perspektyw w postaci matematycznych oczekiwań pewnych dobrze zdefiniowanych funkcji, to znaczy opisać zachowanie w obliczu ryzyka przy użyciu standardowych metod analizy matematycznej i teorii prawdopodobieństwa. Ponadto istnienie samej funkcji użyteczności u(x) wynika z szeregu prostych aksjomatów, które w rzeczywistości posiadają status normatywny i służą jako kryterium „racjonalnego” zachowania. Podstawowym wymogiem tego rodzaju jest aksjomat niezależności, który można zapisać następująco:

Aksjomat ten oznacza, że ​​jakakolwiek liniowa kombinacja loterii p i jakiejś loterii r musi być lepsza od tej samej kombinacji loterii q i loterii r wtedy i tylko wtedy, gdy samo p jest lepsze od q.

Przykład podobny do tego sformułowanego przez Allaisa był badany eksperymentalnie przez Daniela Kahnemana i Amosa Tversky'ego. Respondenci zostali poproszeni o wybranie najbardziej preferowanej w każdej z dwóch par loterii opisanych w tabeli 1:

Tabela 1. Pary loterii oferowane respondentom

Łatwo zauważyć, że loterie z drugiej pary (C i D) są liniową kombinacją loterii z pierwszej pary (A i B) o wadze a = 0,25 oraz loterii (zdegenerowanej) [O, 1]. Oznacza to, że zgodnie z aksjomatem niezależności jednostka, która wybrała loterię A (odpowiednio B) z pierwszej pary, musi wybrać loterię C (odpowiednio D) z drugiej. Eksperyment Kahnemana i Tversky'ego pokazał, że 88% respondentów wybrało A w pierwszej parze, a 83% wybrało D w drugiej, naruszając tym samym aksjomat niezależności i uniemożliwiając uniwersalną reprezentację użyteczności w formie von Neumanna-Morgensterna.

Kahneman i Tversky zaproponowali także jedno z pierwszych wyjaśnień paradoksu Allais i innych udokumentowanych empirycznie zjawisk. W przeciwieństwie do szeregu innych uogólnień teorii oczekiwanej użyteczności (których jest obecnie już dziesiątki), swoją teorię perspektyw wyprowadzili bezpośrednio z empirycznie zidentyfikowanych i udokumentowanych cech zachowań realnych respondentów w warunkach ryzyka. Zamiast liniowej funkcjonału von Neumanna-Morgensterna w prawdopodobieństwach p zaproponowali zastosowanie nieliniowej funkcji wag probabilistycznych, reprezentujących użyteczności loterii w postaci i jednocześnie zmieniającej interpretację użyteczności wyników, reprezentowanej przez funkcję wartości v( x i). To ostatnie definiowano nie w kategoriach bezwzględnych wartości pieniężnych, ale w kategoriach odchyleń od punktu początkowego majątku jednostki. Dodatkowo założono, że jest on wklęsły (wypukły w górę) dla wygranych i wypukły (wypukły w dół) dla przegranych, co oznacza awersję do ryzyka w przypadku wygranych i awersję do ryzyka w przypadku strat. Czytelnik może pogodzić te fakty z własną intuicją: jeśli loteria wygląda mniej atrakcyjnie niż loteria zdegenerowana, czyli pewna wygrana o wartości równej jej matematycznym oczekiwaniom, to jednostka nie jest skłonna do podejmowania ryzyka w przypadku wygranej. Jednak w obliczu lustrzanego przykładu strat [-10, 0,5; 0, 0,5], jednostki z reguły wolą grać na loterii niż na pewno rozstać się z kwotą równą 5, czyli wykazują skłonność do ryzyka. Ponadto badania Kahnemana i Tversky'ego sugerują, że funkcja wartości ma bardziej strome nachylenie w przypadku strat niż w przypadku wygranych. Typową funkcję wartości spełniającą te warunki pokazano na rys. 1.

Prawdziwie nowatorska rola Kahnemana i Tversky'ego polegała na odmiennym, nietypowym dla ekonomistów, sposobie konstruowania teorii: nie od wygodnej konstrukcji formalnej do aksjomatów racjonalności, ale od zaobserwowanych cech zachowania do jego formalnego opisu, a następnie do aksjomaty. Najwyraźniej z tego powodu praca z 1979 roku stała się nie tylko kanonicznym przykładem eksperymentalnych badań nad zachowaniami jednostek, ale także, zdaniem samych ekonomistów, najczęściej cytowaną pracą, jaką kiedykolwiek opublikowano w jednym z najbardziej prestiżowych czasopism ekonomicznych na świecie – Econometrica. Fakt ten jest tym bardziej uderzający, że obaj autorzy artykułu są zawodowymi psychologami, a sam artykuł wyróżnia się niezwykle niskim, jak na to czasopismo, stopniem sformalizowania, które na ogół jest bardzo „matematyczne”. Cały analityczny zestaw narzędzi „teorii perspektywy” nie wykracza poza cztery działania arytmetyki, a jej aksjomatyka została zarysowana dopiero w artykule z 1979 roku (w pełni sformułowana została ponad dziesięć lat później). Jednak to właśnie artykuł z 1979 roku był i pozostaje prawdopodobnie najważniejszym dziełem Daniela Kahnemana.

Mówiąc o tej, jak i wielu innych pracach Kahnemana, nie można nie wspomnieć osobno o wybitnej roli, jaką w rozwoju psychologii poznawczej i eksperymentalnej oraz ich zastosowaniach ekonomicznych odegrał jego starszy kolega i wieloletni współautor, profesor psychologii na uniwersytetach w Jerozolimie i Stanford, Amos Tversky. Bez przesady można powiedzieć, że pod względem potencjału twórczego, wszechstronności talentu i szerokości poglądów naukowych Tversky był jednym z najwybitniejszych psychologów ubiegłego wieku, obok takich gigantów jak Jean Piaget, Lew Wygotski czy Kurt Lewin. Oprócz wielu oryginalnych i pionierskich prac eksperymentalnych, on sam zaproponował szereg teoretycznych wyjaśnień odkrytych zjawisk indywidualnego zachowania – m.in. takich jak nieprzechodniość preferencji, teoria wykluczenia aspektowego, psychologiczna teoria podobieństw, teoria wyboru alternatyw charakteryzujących się różnym stopniem ważności (efekt wyeksponowania) i wiele innych. Na szczególną uwagę zasługuje praca dotycząca podstaw teorii pomiaru w naukach przyrodniczych i humanistycznych, napisana przez Amosa Tversky’ego we współpracy z Davidem Krantzem, R. Duncanem Luce i Patrickiem Sappsem – praca, która prawdopodobnie ma być jedną z kamieni węgielnych podstawowych badań naukowych na wiele nadchodzących lat (8).

Jednak głównym współpracownikiem Tversky'ego był Kahneman. Wspólnie opublikowali około 30 prac naukowych, które odegrały zdecydowaną rolę w upowszechnieniu wyników badań psychologicznych w dyscyplinach pokrewnych, przede wszystkim ekonomii. Po śmierci Amosa Tversky'ego w 1996 r. wiele publikacji i czasopism naukowych poświęciło jego pamięci specjalne działy i numery. Amos Tversky z pewnością miał wszelkie powody, aby podzielić się Nagrodą Nobla za rok 2002 z Danielem Kahnemanem i Vernonem Smithem, ale niestety Nagrody Nobla nie są przyznawane pośmiertnie.

Najbardziej znaczącym wkładem Kahnemana i Tversky'ego w teorię ekonomii jest oczywiście teoria perspektywy. Jednak teoria ta stanowiła tylko niewielką część imponującego programu badawczego dotyczącego eksperymentalnego badania ludzkich zachowań, który autorzy ci realizowali w ciągu prawie trzydziestu lat wspólnej pracy. Semantycznym rdzeniem ich wspólnego programu badawczego był fundamentalny i długoterminowy projekt mający na celu zbadanie heurystyki i uprzedzeń indywidualnych ocen i obserwowanych zachowań w odniesieniu do standardu normatywnego przyjętego w teorii ekonomii. Homo oeconomicus z tradycyjnych podręczników ekonomii to istota nie tylko racjonalna, ale i hiperrefleksyjna: nie tylko obdarzona jest uporządkowanymi preferencjami, fenomenalną pamięcią i innymi zaletami maszyny konsumpcyjnej, ale także organicznie niezdolna do działania „na instynkt” ”, popełniając błędy przy ocenie najbardziej pożądanej z dostępnych opcji i dokonując logicznie sprzecznych ocen. Cnoty te nie są jednak typowe dla większości żyjących ludzi, którzy mają skłonność do systematycznego podejmowania decyzji, kierując się nie racjonalnymi, lecz intuicyjnymi przesłankami, które Kahneman i Tversky nazywają heurystyką behawioralną.

Jako prosty przykład rozważmy następujący problem, który czytelnik może spróbować rozwiązać sam, ale musi go rozwiązać tak szybko, jak to możliwe: „Długopis i notatnik kosztują 1,10 dolara, a pióro kosztuje o 1 dolara więcej niż notatnik koszt notebooka?”. Jeśli respondent rzeczywiście odpowie bez zastanowienia, najprawdopodobniej poda intuicyjnie oczywistą odpowiedź w wysokości 0,10 dolara. Oczywiście ta odpowiedź jest błędna, ale łatwość, z jaką odejmowana jest 1 od 1,10, sama w sobie popycha respondenta do rozwiązania problemu w sposób intuicyjny. atrakcyjne heurystyki zamiast logicznie poprawnych obliczeń.

Od początku lat 70. Kahneman i Tversky odkryli i opisali szeroką gamę zjawisk tego rodzaju. Przytoczmy tylko jeden z nich – słynny „problem Lindy”, proponowany amerykańskim studentom: „Linda to 31-letnia, niezamężna, towarzyska i bardzo bystra młoda kobieta. Jest absolwentką Wydziału Filozofii i zawsze zajmowała się problematyką dyskryminację i sprawiedliwość społeczną. W latach studenckich brała czynny udział w demonstracjach antynuklearnych.

Respondentów, którzy otrzymali tę informację, poproszono o uszeregowanie następujących stwierdzeń na temat Lindy według prawdopodobieństwa:

1. Pracuje jako nauczycielka w przedszkolu.

2. Pracuje w księgarni i uprawia jogę.

3. Jest aktywistką feministyczną.

4. Jest pracownikiem socjalnym.

5. Jest członkinią Ligi Wyborców Kobiet.

6. Jest pracownikiem banku.

7. Jest pracownikiem firmy ubezpieczeniowej.

8. Jest pracownicą banku i działaczką feministyczną.

Ponad 80% respondentów (w tym doktoranci Uniwersytetu Stanforda specjalizujący się w teorii decyzji) uznało opcję 8 za bardziej prawdopodobną niż opcje 3 i 6. Zależność ta jest sprzeczna z zasadami teorii prawdopodobieństwa: zdarzenie 8 jest przecięciem zdarzeń 3 i 6, a dlatego prawdopodobieństwo zdarzenia 8 nie może przekraczać żadnego z prawdopodobieństw zdarzeń 3 i 6 wziętych osobno.

Psychologiczne wyjaśnienie tego zjawiska, podane przez Kahnemana i Tversky’ego, nazywa się heurystyką reprezentatywności; opis Lindy jest bardziej typowy (reprezentatywny) dla pracownika banku i feministki niż tylko pracownika banku (nie feministki) i po prostu feministki ( nie jest pracownikiem banku). Taka typowość wysuwa się na pierwszy plan przy udzielaniu odpowiedzi, jakby chcąc przekonać respondenta o bezużyteczności logicznego rozumowania w tej kwestii (1).

Inne odkryte przez nich zjawisko nazywa się heurystyką dostępności; ludzie mają tendencję do uważania zjawiska, które można zobaczyć lub usłyszeć (niezależnie od jego przyczyn), za bardziej prawdopodobne niż coś, o czym myślą lub wiedzą stosunkowo niewiele. Typowym przykładem jest subiektywna ocena zagrożenia porównawczego związanego z różnymi rodzajami gróźb śmierci. Tym samym po katastrofie w Czarnobylu europejscy respondenci najbardziej obawiali się wypadków w elektrowniach jądrowych, chociaż według statystyk prawdopodobieństwo śmierci w wyniku takiego wypadku było setki razy mniejsze niż prawdopodobieństwo śmierci w wypadku samochodowym.

Kahneman i Tversky zidentyfikowali wiele innych przykładów błędnych przekonań związanych z stronniczym postrzeganiem prawdopodobieństwa pewnych zdarzeń. Okazało się np., że z punktu widzenia normalnych (a nawet wykształconych) ludzi prawdopodobieństwo, że średni wzrost n losowo wybranych mężczyzn przekroczy średnią dla danego kraju, postrzegane jest jako takie samo dla n = 10 , 100 i 1000. Tendencja ludzi do przenoszenia cech populacji na właściwości małych próbek, które Kahneman i Tversky nazywają prawem małych liczb. Odkryli również, że ludzie systematycznie nie doceniają znaczenia wcześniejszych informacji przy szacowaniu prawdopodobieństw warunkowych.

Zatem każdy rozsądny respondent może łatwo odpowiedzieć na pytanie, jakie jest prawdopodobieństwo, że losowo wybrany respondent jest inżynierem lub prawnikiem, jeśli wiadomo, że dana próba osób składa się z 30% inżynierów i 70% prawników. Wynik się jednak zmieni, jeśli temu samemu rozsądnemu respondentowi odczytana zostanie neutralna (bez znaczenia) cecha tej losowo wybranej osoby, na przykład: „Dick ma 30 lat, jest żonaty, ale nie ma dzieci. Bez wątpienia ma dobre zdolności , jest bardzo zmotywowany i ma wspaniałe perspektywy kariery w swojej dziedzinie, jest doceniany i kochany przez swoich współpracowników”. Słysząc ten opis, typowy respondent stwierdza, że ​​istnieje 50% szans, że Dick jest prawnikiem – i to pomimo tego, że 70% próby to prawnicy! Ten i inne podobne przykłady pokazują, że całkowicie rozsądni ludzie podejmując decyzje w takich przypadkach, kierują się zwykle dostępną heurystyką, a nie prawami prawdopodobieństwa warunkowego.

Kahneman i Tversky dochodzą do wniosku, że „podstawowe pojęcia statystyki oczywiście nie należą do intuicyjnych narzędzi ludzkiego osądu”. Wniosek ten w szczególności stawia pod znakiem zapytania wykorzystanie reguły Bayesa w dynamicznym modelowaniu zachowań jednostek, które do niedawna było postrzegane jako normatywne, stanowiące niemal jedyny warunek racjonalności podmiotu gospodarczego.

Ostatni przykład pokazuje, że sądy, preferencje, a co za tym idzie decyzje realnych ludzi zależą w istotny sposób od kontekstu, czyli od konkretnego sposobu sformułowania problemu. Przykładem takiej zależności jest zjawisko odwrócenia preferencji w problemach wyboru w warunkach ryzyka. Zjawisko to, które nie zostało dotychczas w zadowalający sposób wyjaśnione w literaturze, polega na tym, że ujawniona relacja preferencji pomiędzy dwiema ryzykownymi perspektywami (loterie), ogólnie rzecz biorąc, zależy od sposobu ujawnienia tej preferencji. Na przykład, jeśli dana osoba zostanie poproszona o wybranie jednej z dwóch loterii, wówczas wybór będzie na korzyść jednej z nich; jeśli jednak poprosisz go o podanie ich wiarygodnego odpowiednika (minimalnej kwoty, za jaką ta sama osoba zgodziłaby się sprzedać prawo do grania w te loterie), to ta druga zostanie wyceniona wyżej. Innym przykładem takiej zależności jest dobrze znany efekt kadrowania (9).

W jednym z eksperymentów respondenci (klinicyści) zostali poproszeni o wybranie jednej z dwóch możliwych strategii leczenia pacjentów chorych na nowotwór:

„Formuła przetrwania”

Interwencja chirurgiczna: na 100 pacjentów poddawanych operacji operację przeżyje 90, z czego 68 będzie żyło rok po operacji, a 34 pięć lat po operacji.

Radioterapia: na 100 pacjentów poddanych radioterapii wszyscy przeżyją w trakcie leczenia, 77 pacjentów będzie żyło po roku, a 22 po pięciu latach od zakończenia leczenia.”

W przypadku tego preparatu jedynie 18% badanych opowiedziało się za radioterapią. Równolegle tym samym respondentom zaoferowano następujący opis alternatyw:

„Formuła śmiertelności”

Interwencja chirurgiczna: na 100 operowanych pacjentów 10 umrze w trakcie operacji i w okresie pooperacyjnym, łącznie w ciągu roku umrze 32 pacjentów, a 66 pacjentów umrze w ciągu pięciu lat;

Radioterapia: na 100 pacjentów, którzy przeszli radioterapię, nikt nie umrze w trakcie leczenia; w ciągu roku po leczeniu umrze łącznie 23 pacjentów, a w ciągu pięciu lat – 78 pacjentów.”

Dzięki temu preparatowi liczba zwolenników radioterapii wzrosła ponad dwukrotnie – do 44%. Jednocześnie, jak łatwo zauważyć, z formalnego punktu widzenia oba sformułowania są absolutnie identyczne.

Znaczenie obu zjawisk wykracza poza zakres psychologii poznawczej, czyli badania rzeczywistych procesów dokonywania indywidualnych sądów i decyzji. Zarówno odwrócenie preferencji, jak i efekt ramowania stwarzają poważne problemy dla teorii ekonomii – znacznie większe niż ten sam paradoks Allais. To ostatnie można wyjaśnić za pomocą uogólnionych teorii oczekiwanej użyteczności, na przykład uwzględniając nieliniowe wagi prawdopodobieństwa. Jednocześnie opisane zjawiska powodują, że w zasadzie nie da się skonstruować jednego i uporządkowanego wskaźnika preferencji (funkcji użyteczności) na każdą okazję – każdy taki wskaźnik będzie zależał od sposobu jego uzyskania. Wynika z tego, że zastosowań teorii użyteczności do konkretnych problemów ekonomicznych nie można uważać za apriorycznie bezwarunkowe.

Weźmy na przykład tak gorący temat, jak środowiskowe dobra publiczne. Jeśli przeciętnego człowieka zapytamy, jaki prezent urodzinowy by wolał – nowy magnetowid czy zamknięcie fabryki zanieczyszczającej całą okolicę – jest bardzo prawdopodobne, że wybór zostanie dokonany na korzyść tego pierwszego dobra. Jeśli jednak tego samego respondenta zapytamy, ile jest skłonny zapłacić za jedno i drugie, magnetowid wygra, jak to się mówi, z wyraźną przewagą. Rosyjski czytelnik zapewne miał do czynienia z innymi przejawami efektów projektowych, takimi jak badanie opinii publicznej czy referendum ogólnokrajowe, których wyniki można nie tylko przewidzieć, ale i zaplanować, wykorzystując „poprawnie” postawione pytania. Jeszcze przed Komitetem Noblowskim krajowi stratedzy polityczni potrafili już docenić praktyczne znaczenie dzieł Kahnemana.

Wreszcie nie sposób nie wspomnieć, że prace Kahnemana i innych psychologów ekonomicznych pozwalają spojrzeć z nowej perspektywy na cały szereg zjawisk czysto ekonomicznych. Jednym z najbardziej uderzających przykładów takich badań jest eksperymentalna weryfikacja słynnego twierdzenia Coase'a o optymalnej alokacji zasobów. Aby przetestować to twierdzenie, Kahneman i jego współpracownicy przeprowadzili następujący eksperyment. Grupę badanych (studenci Cornell University) podzielono na dwie podgrupy, z których jedna otrzymała kubki z symbolami uczelni, sprzedawane w pobliskim sklepie za 6 dolarów. Właściciele kubków mieli możliwość sprzedaży swoich kubków tym, którzy ich nie dostali. W tym celu właściciele kubków informowali organizatorów o cenie minimalnej, za jaką byli skłonni je sprzedać, a potencjalni nabywcy – cenie maksymalnej, za jaką byli skłonni je sprzedać; cena rynkowa powstała jako punkt przecięcia powstałych linii podaży i popytu. Biorąc pod uwagę, że początkowe rozmieszczenie kubków było losowe, krzywe podaży i popytu musiałyby być symetryczne, co oznacza, że ​​zgodnie z twierdzeniem Coase’a około połowa osób, które otrzymały kubki, musiałaby je wymienić na wyższe kwoty pieniędzy. W grupie kontrolnej, gdzie zamiast kubków wręczano nagrody pieniężne, dokładnie tak się stało; Jednak w przypadku kół rzeczywiste wolumeny obrotu okazały się od trzech do pięciu razy mniejsze niż przewidywała teoria ekonomii, a średnie ceny kupna i sprzedaży różniły się ponad dwukrotnie. To empiryczne obalenie twierdzenia Coase'a nazywa się efektem wyposażenia: sam fakt posiadania rzeczy zwiększa jej wartość w oczach właściciela, blokując możliwość wymiany nawet wtedy, gdy nie ma problemów ani z prawami własności, ani z kosztami transakcyjnymi.

Przesadą byłoby stwierdzenie, że te i inne prace Kahnemana, Tversky’ego i ich kolegów psychologów zrewolucjonizowały ekonomiczny pogląd na naturę ludzkich osądów i zachowań. Jednak to oni utrwalili wśród ekonomistów przekonanie, że dobra teoria nie powinna tylko być obalana faktami, jak tego wymaga podejście pozytywistyczne, ale także opierać się na podstawowych obserwowalnych właściwościach przedmiotu, który ma opisywać. Żaden ekonomista piszący o indywidualnych zachowaniach nie może dziś obejść się bez uwzględnienia psychologicznych cech procesu decyzyjnego. Sama psychologia ekonomiczna i jej zastosowania rozwinęły się już dziś w specjalną gałąź wiedzy ekonomicznej - tak zwaną ekonomię behawioralną, która z pewnością opanowała najszerszy zakres problemów ekonomicznych - od samej teorii indywidualnych zachowań po problemy wyboru publicznego i ekonomię finansową .

Nie oznacza to oczywiście, że wszystkie problemy tej młodej nauki zostały już ostatecznie rozwiązane. Ekonomia behawioralna dopiero wkracza w swoją dojrzałość, formułując program badawczy na styku ekonomii, psychologii, matematyki, a nawet filozofii. Laureat Nagrody Nobla Daniel Kahneman w dalszym ciągu wnosi znaczący wkład w rozwój tej dyscypliny: w ostatnich latach jego uwaga skupia się na problematyce użyteczności, której początki sięgają I. Benthama i D.S. Millu. W klasycznym rozumieniu termin ten oznaczał rzeczywistą przyjemność lub ból odczuwany przez jednostkę w procesie „konsumowania” danej rzeczy. Bogate dowody empiryczne zgromadzone w ostatnich latach przekonująco wskazują, że tej doświadczanej użyteczności nie można utożsamiać z użytecznością, którą jednostka przewiduje (użyteczność przewidywana), ma na myśli w momencie podejmowania decyzji (użyteczność decyzji) lub w momencie zapamiętywania przeżytych doświadczeń w momencie konsumpcji dobra (pamiętana użyteczność).

Mimo naturalności takiego rozróżnienia, do niedawna nie było ono dokonywane w literaturze ekonomicznej, a mimo to stawia badaczy ekonomii przed trudnym wyborem. Które z tych pojęć użyteczności należy zastosować, powiedzmy, przy ocenie alternatywnych programów społecznych lub środków poprawy sytuacji miejskiej? Czy można wierzyć, że użyteczność krańcowa dóbr publicznych dla osób bogatych jest rzeczywiście zauważalnie niższa niż dla osób biednych, czy też różnica ta wynika jedynie z przyzwyczajenia się tych pierwszych do wyższego poziomu konsumpcji, mimo że podstawowe użyteczności rzeczywiście są równe? Jest oczywiste, że te i podobne pytania, które „za namową” Kahnemana włączono do programu badawczego ekonomii psychologicznej i behawioralnej, nie tylko nie są oderwane od prawdziwego życia, ale mają charakter najbardziej konkretny, wręcz stosowany.

Z drugiej strony badania doświadczonej użyteczności pokazały, że w odróżnieniu od innych pojęć jest ona nie tylko mierzalna, ale także da się ją opisać matematycznie 26 . To wyraźnie dowodzi, że ekonomia psychologiczna nie ogranicza się do stwierdzania faktów eksperymentalnych, ale dąży do ich ścisłego wyjaśnienia. Przyjmując wyniki badań psychologów kognitywnych, nauki ekonomiczne nie rezygnują z zasadniczego skupienia się na opisie wzorców zachowań jednostek. Wręcz przeciwnie, wypełnia współczesne teorie nowymi treściami, opartymi bezpośrednio na danych empirycznych i wzbogaca swój arsenał metodologiczny o głębsze zrozumienie natury ludzkiej racjonalności – aż do faktycznego porzucenia modelu homo oeconomicus na rzecz bardziej realistycznego i empirycznie poprawne specyfikacje. Laureat Nagrody Nobla Daniel Kahneman i jego wieloletni współpracownik Amos Tversky odegrali kluczową rolę w tym procesie: nie tylko zbudowali mosty między eksperymentami psychologicznymi a teorią ekonomii, ale także położyli podwaliny pod przyszłą ujednoliconą teorię ludzkich zachowań, która odrzuciła wszelkie twierdzenia jakiejkolwiek doktryny nauk społecznych do bezwarunkowego monopolu na prawdę (8).

Zasadniczą treść programu badawczego psychologii ekonomicznej (i w ogóle ekonomii behawioralnej) sami z powodzeniem podsumowują: „Wyidealizowane założenie racjonalności przyjęte w teorii ekonomii jest zwykle uzasadnione na dwa sposoby. Po pierwsze, argumentuje się, że jedynie racjonalne działanie Po drugie, wydaje się prawdopodobne, że zachowanie nieoparte na tym założeniu nieuchronnie okaże się chaotyczne i niepodlegające żadnemu naukowemu wyjaśnieniu. Z jednej strony wiele dowodów empirycznych wyraźnie potwierdza, że ​​ludzie mogą przeżyć całe życie w konkurencyjnym środowisku, nie nauczywszy się nigdy stosowania wag liniowych ani omijania efektów projektu. Jednak jeszcze ważniejszy jest fakt, że ludzki wybór często okazuje się mieć charakter uporządkowany, choć niekoniecznie racjonalny w tradycyjnym znaczeniu tego słowa. Wyjaśnienie pojęcia racjonalności i jego naukowy opis powinny najprawdopodobniej stać się w dającej się przewidzieć przyszłości centralnym elementem programu badawczego psychologii ekonomicznej i ekonomii behawioralnej.

Październik 2002 Komitet Noblowski ogłosił przyznanie swojej Nagrody Pamięci w dziedzinie ekonomii dwóm wybitnym naukowcom: Danielowi Kahnemanowi z uniwersytetów Princeton (USA) i Jerozolimy (Izrael) „za włączenie wyników badań psychologicznych do nauk ekonomicznych, zwłaszcza w obszarach osądu i podejmowania decyzji w warunkach niepewności” oraz Vernon Smith z George Mason University (USA) – „za ustanowienie eksperymentów laboratoryjnych jako narzędzia analizy empirycznej w ekonomii, zwłaszcza w badaniu alternatywnych mechanizmów rynkowych”.

Nominacja Kahnemana i Smitha, choć oczekiwana już kilka lat temu, stanowiła formalne uznanie faktu, że w ramach dyscypliny ekonomicznej wyłoniły się i ukształtowały tak niezależne dziedziny, jak ekonomia eksperymentalna, psychologia ekonomiczna czy ekonomia behawioralna. Nominacja z 2002 roku oznacza jednak coś więcej. Po pierwsze, Nagroda Nobla w dziedzinie ekonomii, przyznana przedstawicielowi nauk psychologicznych, w sposób oczywisty potwierdza zasadniczy kurs światowego środowiska naukowego w kierunku integracji programów badawczych różnych nauk humanistycznych. Po drugie – i to jest może nawet ważniejsze – samo uznanie przez zawodowych ekonomistów znaczenia psychologicznych cech indywidualnych zachowań zaznaczyło i odnotowało znaczącą zmianę w podejściu i problematyce całej nauki ekonomicznej. W istocie fakt ten oznacza uznanie nie tylko celowości, ale także konieczności wyjścia poza formalne modele aksjomatyczne, które są słabo powiązane z rzeczywistymi zachowaniami, które modele te mają opisywać. Nauki ekonomiczne wkraczają w erę stopniowej rewizji ustalonych metod i doktryn, zaczynając od podstaw – modelu Noto oesopoticusa, racjonalnego człowieka ekonomicznego. Podstawowy materiał empiryczny do tej rewizji pochodzi z badań psychologicznych, w których główną rolę odgrywa Daniel Kahneman; a głównym narzędziem gromadzenia takiego materiału był eksperyment jako szczególna metoda poszerzania wiedzy naukowej, który wszedł do arsenału nauk ekonomicznych dzięki pionierskiej pracy Vernona Smitha.

W tradycji ekonomii neoklasycznej w jakiś sposób podświadomie przyjmowano przekonanie, że badania empiryczne (a zwłaszcza eksperymenty na prawdziwych ludziach) są zajęciem mniej „poważnym” niż „wysoka” teoria. Ekonomiści neoklasyczni woleli zajmować się sprawami „poważniejszym”, coraz bardziej rozumiejąc wraz z postępem nauki coraz bardziej wyrafinowane konstrukcje formalne w ramach swojej tradycji naukowej, oparte na modelu Homo eosopoticus z punktu widzenia teorii standardowej, ten racjonalny podmiot gospodarczy musiał podporządkować wszystkie uczucia i emocje precyzyjnej kalkulacji, posiadać absolutną pamięć i zdolności obliczeniowe, zawsze być świadomym swoich zainteresowań (preferencji) i postępować zgodnie z nimi. Formalny opis racjonalnego zachowania w teorii został poprzedzony szeregiem założeń (takich jak wypukłość, ciągłość, monotoniczność i przechodniość indywidualnych preferencji), które umożliwiły przedstawienie preferencji jednostek w postaci funkcji użyteczności o wartości rzeczywistej oraz skorzystaj z potężnego narzędzia analitycznego jakim jest analiza matematyczna i funkcjonalna. Co więcej, w pełnej zgodzie z metodologią pozytywistyczną, teoria głosiła, że ​​nawet jeśli agent nie rozwiązuje świadomie problemu maksymalizacji, to nadal zachowuje się tak, jakby go rozwiązywał. Dzieje się tak choćby dlatego, że systematyczne odstępstwa od takiego zachowania nieuchronnie prowadzą do strat wyrażonych w pieniądzu, a jeśli będą systematycznie powtarzane, do bankructwa „irracjonalnego” podmiotu.

Rzeczywistość jednak uparcie nie chciała wpasować się w „prokrustowe łoże” kanonicznych schematów, niezależnie od tego, jak wygodne były one analitycznie. Już w latach pięćdziesiątych amerykański ekonomista i psycholog Herbert Simon przekonująco pokazał, że prawdziwi ludzie podejmujący decyzje zachowują się zupełnie inaczej, niż opisują to podręczniki ekonomii. Ograniczone możliwości poznawcze nie pozwalają w praktyce prawdziwym ludziom na znalezienie rozwiązań optymalnych z teoretycznego punktu widzenia. Jeżeli tak, to koncepcja racjonalności materialnej, przyjęta w modelach standardowych, powinna ustąpić miejsca koncepcji racjonalności ograniczonej, jako bardziej poprawnej z opisowego punktu widzenia.

Praca Simona, nagrodzona Nagrodą Nobla w 1978 r. „za pionierskie badania procesów decyzyjnych w organizacjach gospodarczych”, nie mogła jeszcze zostać włączona do arsenału naukowego i prawdopodobnie była postrzegana przez większość ekonomistów jako poboczna i nieistotna dziedzina nauki. Jednak w ciągu ostatnich dwudziestu lat przedmiot i metoda ekonomii zmieniły się, jeśli nie radykalnie, to dość znacząco. Programy uniwersyteckie zdecydowanie uwzględniają tak podstawowe zjawiska empiryczne, jak paradoksy Allaisa czy „efekt kadrowania” w teorii indywidualnego zachowania w warunkach ryzyka.


Psycholog Daniel Kahneman jest jednym z twórców teorii ekonomii psychologicznej i być może najsłynniejszym badaczem tego, w jaki sposób ludzie podejmują decyzje i jakie błędy popełniają na podstawie zniekształceń poznawczych. Za badania nad ludzkim zachowaniem w warunkach niepewności Daniel Kahneman otrzymał w 2002 roku Nagrodę Nobla w dziedzinie ekonomii (jest to jedyny raz, kiedy psycholog otrzymał Nagrodę Nobla w dziedzinie ekonomii). Co udało się odkryć psychologowi? W ciągu wielu lat badań, które Kahneman prowadził ze swoim kolegą Amosem Tverskym, naukowcy odkryli i eksperymentalnie udowodnili, że ludzkimi działaniami kieruje nie tylko i nie tyle umysł ludzi, ale ich głupota i irracjonalność .

I, jak widać, trudno z tym polemizować. Dziś zwracamy uwagę na 3 wykłady Daniela Kahnemana, w których po raz kolejny przybliży on irracjonalną naturę człowieka, opowie o zniekształceniach poznawczych uniemożliwiających nam podjęcie trafnych decyzji oraz wyjaśni, dlaczego nie zawsze powinniśmy ufać ocenom ekspertów.

Daniel Kahneman: „Tajemnica dychotomii doświadczenie – pamięć”

Na przykładach, począwszy od naszego podejścia do wakacji po doświadczenia z kolonoskopią, laureat Nagrody Nobla i pionier ekonomii behawioralnej Daniel Kahneman pokazuje, jak odmiennie postrzegamy szczęście przez nasze doświadczające „ja” i nasze zapamiętujące „ja”. Ale dlaczego tak się dzieje i jakie są konsekwencje takiego rozszczepienia naszego „ja”? Odpowiedzi znajdziesz w tym wykładzie.

Teraz wszyscy mówią o szczęściu. Kiedyś poprosiłam mężczyznę, żeby policzył wszystkie książki ze słowem „szczęście” w tytule wydane w ciągu ostatnich 5 lat, a on po 40. poddał się, ale oczywiście było ich jeszcze więcej. Wzrost zainteresowania szczęściem jest wśród badaczy ogromny. Jest wiele szkoleń na ten temat. Każdy chce czynić ludzi szczęśliwszymi. Ale pomimo tak bogatej literatury istnieją pewne zniekształcenia poznawcze, które praktycznie nie pozwalają nam poprawnie myśleć o szczęściu. Moje dzisiejsze wystąpienie skupi się głównie na tych pułapkach poznawczych. Dotyczy to zarówno zwykłych ludzi myślących o swoim szczęściu, jak i w tym samym stopniu naukowców myślących o szczęściu, gdyż okazuje się, że wszyscy jesteśmy tak samo zdezorientowani. Pierwszą z tych pułapek jest niechęć do uznania, jak złożona jest ta koncepcja. Okazuje się, że słowo „szczęście” nie jest już tak przydatne, ponieważ używamy go do zbyt wielu różnych rzeczy. Myślę, że istnieje jedno konkretne znaczenie, do którego powinniśmy się ograniczyć, ale ogólnie rzecz biorąc, jest to coś, o czym będziemy musieli zapomnieć i wypracować sobie pełniejszy pogląd na to, czym jest dobrostan. Drugą pułapką jest pomieszanie doświadczenia i pamięci, czyli stanu szczęścia w życiu i poczucia szczęścia w związku z życiem lub poczuciem, że życie Ci odpowiada. To dwa zupełnie różne pojęcia, jednak oba zazwyczaj łączy się w jedno pojęcie szczęścia. Trzecia to iluzja skupienia. Smutnym faktem jest to, że nie możemy myśleć o żadnej okoliczności wpływającej na nasze samopoczucie bez zniekształcania jej znaczenia. To prawdziwa pułapka poznawcza. I po prostu nie ma sposobu, żeby to wszystko naprawić.

© Konferencje TED
Tłumaczenie: Firma Audio Solutions

Przeczytaj materiał na ten temat:

Daniel Kahneman: „Badanie intuicji” ( Eksploracje intuicji umysłu)

Dlaczego intuicja czasem działa, a czasem nie? Z jakiego powodu większość prognoz ekspertów się nie sprawdza i czy w ogóle można ufać intuicji ekspertów? Jakie złudzenia poznawcze uniemożliwiają dokonanie właściwej oceny eksperckiej? Jak to się ma do specyfiki naszego myślenia? Jaka jest różnica między „intuicyjnym” a „myślącym” typem myślenia? Dlaczego intuicja może nie działać we wszystkich obszarach ludzkiej działalności? O tym i o wiele więcej mówił Daniel Kahneman w swoim wykładzie wideo Eksploracje intuicji umysłu.

*Tłumaczenie rozpoczyna się od 4:25 minuty.

© Berkeley Wykłady podyplomowe
Tłumaczenie: p2ib.ru

Daniel Kahneman: „Refleksje na temat nauki o dobrym samopoczuciu”

Rozszerzona wersja wykładu TED Daniela Kahnemana. Wykład publiczny psychologa na III Międzynarodowej Konferencji Nauk Kognitywistycznych poświęcony jest także problemowi dwóch „ja” – „pamiętającego” i „obecnego”. Ale tutaj psycholog rozważa ten problem w kontekście psychologii dobrostanu. Daniel Kahneman opowiada o współczesnych badaniach nad dobrostanem i wynikach, jakie udało mu się ostatnio uzyskać wraz z kolegami. W szczególności wyjaśnia od jakich czynników zależy subiektywny dobrostan, jak wpływa na nas nasze „prawdziwe ja”, czym jest pojęcie użyteczności, które wpływa na podejmowanie decyzji, jak bardzo ocena życia wpływa na doświadczane szczęście, jak uwaga i przyjemność są ze sobą powiązane, czego z czegoś doświadczamy i jak bardzo wyolbrzymiamy znaczenie tego, o czym myślimy? I oczywiście pytanie, jakie znaczenie dla społeczeństwa mają badania nad doświadczanym szczęściem, nie pozostaje niezauważone.


Ludzie są głupi.
Za to odkrycie izraelski naukowiec Daniel Kahaneman, który pracuje, jak się domyślacie, w Stanach Zjednoczonych, otrzymał Nagrodę Nobla w dziedzinie ekonomii za rok 2002.

(Nie dotyczy to jednak Ciebie, drogi czytelniku. Tu chodzi o innych. :)
Poprzez serię precyzyjnych eksperymentów naukowych Kahneman był w stanie udowodnić, że większość ludzi nie kieruje się zdrowym rozsądkiem w życiu codziennym. Nawet profesorowie matematyki rzadko uciekają się do elementarnych operacji arytmetycznych w życiu codziennym.

Kahneman jako pierwszy wprowadził do ekonomii koncepcję czynnika ludzkiego i połączył psychologię i ekonomię w jedną naukę. Przed nim ekonomiści zastanawiali się, dlaczego obliczone przez nich modele dawały nagłe awarie, dlaczego ludzie nie zachowywali się tak, jak zgodnie z teorią powinni? Dlaczego giełda nagle spada lub dlaczego ludzie nagle pędzą do banku, aby wycofać depozyty i wymienić jedną walutę na drugą?

Najciekawsze jest to, że laureat Nagrody Nobla w dziedzinie ekonomii nigdy nie studiował ekonomii, lecz całe życie spędził na studiowaniu psychologii. W tym przypadku psychologia podejmowania codziennych decyzji ekonomicznych.

Wszyscy ekonomiści przed Kahnemanem, począwszy od Adama Smitha, popełniali ten sam błąd – zakładali, że człowiek kieruje się elementarną logiką i własną korzyścią – kupuje tam, gdzie jest taniej, pracuje tam, gdzie płaci więcej i wybiera to z dwóch dóbr tej samej jakości, co jest tańsze.

Badania Kahnemana pokazały, że sprawa nie jest taka prosta. Okazuje się, że ludzie nie chcą myśleć. Kierują się nie logiką, ale emocjami, przypadkowymi impulsami; to co usłyszeliśmy wczoraj w telewizji lub od sąsiada, utrwalone uprzedzenia, reklamy itp.

Oto przykład. Okazuje się, że jeśli obniżysz cenę, produkt niekoniecznie zacznie się szybciej wyprzedać. Niektórzy pomyślą, że jest to po prostu przecena towaru ze względu na jego złą jakość. To samo - jeśli cena wzrośnie, ludzie będą myśleć, że oferuje im się lepszy produkt niż wcześniej.

Ekonomiści przed Kahnemanem naiwnie wierzyli, że jeśli płace pracownika akordowego wzrosną, będzie on wykonywał lepszą pracę. Okazuje się, że nie zawsze tak jest. Niektórzy – tak, naprawdę lepiej. Inni robią to samo: po co dawać z siebie wszystko, skoro przy tej samej wydajności i tak dostaną więcej niż wcześniej? Jeszcze inni zaczną pracować wolniej, aby zarobić tyle samo, co wcześniej, przy mniejszym nakładzie pracy.

Rozumowanie ekonomistów przed Kahnemanem przypominało rozumowanie naukowców przed Galileuszem. Przecież przez tysiące lat wszystkie wielkie umysły zakładały, że ciężki przedmiot zrzucony z dużej wysokości dotrze do ziemi szybciej niż lekki. Dzisiejsze dzieci też tak myślą. Przez tysiące lat uważano to za coś oczywistego i nikomu przed Galileuszem nie przyszło do głowy, aby to sprawdzić. Wyobraźcie sobie zdziwienie Galileusza, gdy ustalił, że drewniana i żelazna kula zrzucone z Krzywej Wieży w Pizie spadły na ziemię w tym samym czasie.

Zatem zdaniem Kahnemana w życiu codziennym ludzie nie kierują się elementarną logiką i elementarną arytmetyką.

Postanowiłem to sprawdzić. Podążać, że tak powiem, drogą Galileusza.

Ulica Agrypasa w Jerozolimie. Po jednej stronie jest bazar Mahane Yehuda. Po drugiej stronie rząd sklepów.

Sklep sprzedaje jajka. Opakowanie 10 jaj kosztuje 12 szekli.

Wręcz przeciwnie, na targu sprzedają też jajka. Opakowanie 30 jaj kosztuje 18 szekli.

Problem ucznia pierwszej klasy polega na tym, że jajko w sklepie kosztuje 1,20, a na targu 0,60. Dokładnie dwa razy taniej. Kupując jedną tacę jajek w sklepie, osoba traci 6 szekli. Kupując dwie tace - 12.

Stałem przed sklepem i zadałem to samo pytanie kupującym jajka – dlaczego to zrobiliście? Nie widzisz, że po drugiej stronie ulicy jest o połowę taniej?

Odpowiedzi zostały rozdzielone w następujący sposób:

1. Pierdol się... - 75%

2. Czym się zajmujesz? Gdzie chcę, tam kupuję - 75%

3. Jajka w sklepie są lepsze. (Jajka są takie same, sprawdzałem) - 8%

4. Jaka jest różnica? Czy będę niepoważny? — 6%

5. Zawsze kupuję wszystko w tym sklepie. Jest to dla mnie wygodniejsze - 9%

Suma odpowiedzi przekraczająca 100% oznacza, że ​​jedna osoba mogła udzielić więcej niż jednej odpowiedzi.

Tym, którzy odpowiedzieli na punkt 4, zaproponowałem:

— Kupując w sklepie dwie tace jajek, straciłeś 12 szekli. Jeśli ta kwota nie ma dla Ciebie znaczenia, daj mi taką samą kwotę. Odpowiedź na tę propozycję – patrz ust. 1

Oto więcej przykładów potwierdzających, z mojego punktu widzenia, teorię Kahnemana.

Mężczyzna idzie do restauracji i płaci 100 szekli za stek. Natomiast kilogram dokładnie takich samych steków w sklepie kosztuje 25 szekli. Pięć sztuk. Różnica jest 20-krotna! Zakupiony stek wystarczy włożyć do piekarnika. Dla wielu najwyraźniej jest to za dużo pracy. Ludzie stoją w kolejce w restauracji. Z tej restauracji wynoszą jedzenie na tacach do jadłodajni po drugiej stronie ulicy. Gdzie dają to samo za darmo...

Kahneman ma rację.

Okazuje się, że żart brzmi: „Kupiłeś ten krawat za 100 dolarów? Idiota, za rogiem są podobne za 200!” - ma całkowicie trafne uzasadnienie ekonomiczne. Ludzie wierzą, że jeśli produkt jest droższy, to znaczy, że jest lepszy.

Osoba stara się pozbyć pieniędzy. I idzie do restauracji, gdzie nieznajomy przyniesie mu jedzenie przygotowane z nieznanych produktów w nieznany sposób przez inną nieznaną osobę, nie znającą gustów i życzeń klienta. Zapłaci za to 10 razy więcej niż koszty jedzenia i będzie też niegrzeczny.

Restauracja to miejsce chuligaństwa gospodarczego i kulinarnego. Zadaniem restauracji jest „promowanie” klienta. Dlatego kuchnie restauracyjne stosują najbardziej nieekonomiczne i szkodliwe metody gotowania. Najważniejsze, że danie wygląda pięknie po podaniu. Chociaż za sekundę całe to piękno zniknie.

Przy wyjściu z supermarketu sprzedają gorące kiełbaski po 5 szekli za sztukę, które na tym samym targu kosztują 10 szekli za 20 sztuk. Różnica jest 10-krotna!

Czy Kahneman nie ma racji?

Najlepsi psychologowie na świecie głowią się, jak dać komuś coś, czego nie potrzebuje. 98% obrotów Pepsi-Coli przeznaczane jest na reklamę. Człowiek nie kupuje słodkiego syropu, ale styl życia, który został mu wbity w głowę.

Zegarek za 50 szekli pokazuje godzinę dokładnie tak samo, jak zegarek za 10 tys. Człowiek nie kupuje zegarka, garnituru, mebli - kupuje szacunek do samego siebie.

Kahneman ma rację. Z jakiegoś powodu ludzie nie chcą przyznać się do prostych i oczywistych rzeczy:

Wszelkiego rodzaju partie, „Fora” i „Stowarzyszenia Pomocowe” pomagają tylko tym, którzy je tworzą i w nich pracują. Po to są tworzone.

Oto proste zasady dla tych, którzy nie chcą dać się oszukać (rozumiem, że tysiące agentów różnych firm, którzy zarabiają na życie ciężką pracą, mogą się na mnie obrazić)...

Każdy, kto do Ciebie dzwoni lub zatrzymuje się na ulicy w nadziei, że coś Ci sprzeda, jest oszustem.
Każdy, kto próbuje wejść do Twojego domu w nadziei, że coś Ci sprzeda, jest oszustem.

Każdy, kto mówi Ci, że wygrałeś na loterii, w której nie grałeś, jest oszustem.

Każdy, kto oferuje towary i usługi „za darmo”, jest oszustem.

Każdy, kto bierze pieniądze od klienta za zatrudnienie, jest oszustem.

Każdy, kto obiecuje 100% wyzdrowienia ze wszystkich chorób, jest oszustem.

Każdy, kto wysyła e-maile z przepisami na szybkie wzbogacenie się, jest oszustem.

A teraz - o najważniejszej rzeczy.

Jeśli naprawdę chcesz nauczyć się języka angielskiego i hebrajskiego w jeden dzień, wyleczyć się ze wszystkich chorób, znaleźć dobrze płatną pracę bez specjalizacji, poznać swoją przyszłość, schudnąć 40 kg w miesiąc bez diet i tabletek - skontaktuj się tylko z autorem książki Ten artykuł. Zapłacić z góry.

Podziel się ze znajomymi lub zapisz dla siebie:

Ładowanie...