Читать книгу Pułapki myślenia - Daniel Kahneman - Страница 4
Wprowadzenie
ОглавлениеChyba każdy autor zaczyna pracę z myślą o miejscu, w którym czytelnicy jego książki będą mogli zrobić z niej najlepszy użytek. Według mnie takim miejscem jest po prostu biurowa kuchnia, gdzie pracownicy wymieniają się opiniami i plotkami. Liczę, że uda mi się wzbogacić słownictwo, którym rozmawiamy o rozumowaniu i decyzjach innych osób, o nowej polityce firmy albo inwestycyjnych decyzjach znajomych.
Po co zawracać sobie głowę plotkami? Dlatego że znacznie łatwiej i przyjemniej jest zauważać i klasyfikować cudze błędy. Trudno jest kwestionować własne pragnienia i przekonania – zwłaszcza wtedy, kiedy naprawdę by nam się to przydało – jednak każdy może skorzystać na wysłuchaniu wyważonej cudzej opinii. Często sami z siebie zadajemy sobie pytanie, jak znajomi albo współpracownicy ocenią jakąś naszą decyzję, a zatem treść i trafność ich przypuszczalnej oceny nie jest dla nas bez znaczenia. Poczucie, że nasze postępowanie będzie przedmiotem inteligentnych plotek, o wiele bardziej pomaga we wnikliwej samoocenie niż noworoczne postanowienie, że odtąd będziemy już podejmować lepsze decyzje w pracy i życiu codziennym.
Żeby móc stawiać trafne diagnozy, lekarze muszą opanować obszerną terminologię związaną z różnymi chorobami. Każdy termin łączy jakieś schorzenie z charakterystycznymi objawami, przyczynami, przypuszczalnym podłożem, spodziewanym przebiegiem, możliwymi skutkami, a także leczeniem, które pozwoli wyleczyć chorobę albo złagodzić jej przebieg. Studiowanie medycyny to częściowo nic innego jak opanowywanie medycznego języka. Tak samo nie da się lepiej zrozumieć ludzkich decyzji i osądów, o ile nie będziemy dysponowali bogatszym słownictwem niż tylko potoczne. W przypadku inteligentnych plotek możemy sądzić, że błędy ludzkie cechują się wyraźnymi prawidłowościami. Takie systemowe błędy nazywamy błędami poznawczymi (biases) – w pewnych okolicznościach pojawiają się one w sposób przewidywalny. Kiedy np. na scenę energicznym krokiem wchodzi przystojny, pewny siebie mówca, można z góry przewidzieć, że widzowie ocenią jego wypowiedź lepiej, niż na to zasługuje. Dzięki temu, że dysponujemy diagnostyczną etykietą dla tego konkretnego błędu poznawczego (nazywamy go „efektem halo”), łatwiej go przewidzieć, rozpoznać i zrozumieć.
Kiedy ktoś pyta, o czym myślisz, zwykle potrafisz odpowiedzieć. Sądzisz, że wiesz, co się dzieje w twoim umyśle, w którym jedne świadome myśli często prowadzą w uporządkowany sposób do kolejnych. Jednak nie tylko tak działa umysł. Mało tego – taki sposób działania nie jest nawet dla umysłu typowy. Większość myśli i wrażeń pojawia się w świadomości, choć nie masz pojęcia, skąd się wzięły. Nie umiesz powiedzieć, skąd wzięło się twoje przekonanie, że masz na biurku lampę; ani jak to się dzieje, że podczas telefonicznej rozmowy wykrywasz irytację w głosie bliskiej osoby; ani jak udało ci się zrobić unik kierownicą, zanim zagrożenie w ogóle pojawiło się w twojej świadomości. Umysł wykonuje milczącą pracę, z której biorą się wrażenia, domysły i wiele naszych decyzji.
W tej książce często będziemy mówić o błędach poznawczych popełnianych przez intuicję. Jednak choć skupiam się na błędach, nie próbuję podważać wartości ludzkiej inteligencji – tak samo jak teksty medyczne o chorobach nie oznaczają, że nie istnieje zdrowie fizyczne. Podobnie jak większość ludzi na ogół pozostaje w dobrym zdrowiu, tak też nasze wnioski i działania są na ogół i w większości trafne. W życiowej wędrówce najczęściej pozwalamy, żeby kierowały nami wrażenia i odczucia, i zazwyczaj takie zaufanie do intuicyjnych przekonań i preferencji jest uzasadnione. Jednak nie jest tak zawsze. Często demonstrujemy pewność nawet wtedy, kiedy nie mamy racji, a obiektywny obserwator potrafi zauważyć nasze błędy częściej niż my sami.
Stąd cel, który sobie postawiłem w stosunku do rozmów w biurowej kuchni: chciałbym sprawić, abyśmy umieli lepiej zauważać i rozumieć błędy wpływające na wnioski i decyzje – błędy cudze, ale w ostatecznym rozrachunku również własne. W tym celu oddaję czytelnikom do dyspozycji bogatsze i bardziej precyzyjne słownictwo, pozwalające o tym rozmawiać. Przynajmniej w niektórych wypadkach trafna diagnoza być może podpowie nam interwencję, która ograniczy szkody wynikające z błędnych decyzji i wniosków.
Początki
W książce przedstawiam swoje aktualne rozumienie procesów wnioskowania i podejmowania decyzji. Na mój sposób myślenia wpłynęły odkrycia psychologiczne ostatnich dziesięcioleci, jednak najważniejsze idee miały początek pewnego dnia w 1969 roku, kiedy szczęśliwym trafem zaprosiłem na prowadzone przez siebie seminarium kolegę z Wydziału Psychologii Uniwersytetu Hebrajskiego i poprosiłem, żeby powiedział kilka słów studentom. Wiedziałem, że będzie ciekawie – Amos Tversky uchodził za wschodzącą gwiazdę badań nad procesami decyzyjnymi, a także każdej innej dziedziny, której się tknął. Wielu znajomych twierdziło, że nigdy w życiu nie spotkali równie inteligentnej osoby. Amos był błyskotliwy, charyzmatyczny i elokwentny. Miał doskonałą pamięć do dowcipów, które z wyjątkowym talentem wplatał do dyskusji. W jego towarzystwie nie można się było nudzić choćby przez moment. Amos miał wtedy trzydzieści dwa lata, ja trzydzieści pięć.
Amos opowiedział studentom o programie badawczym prowadzonym na Uniwersytecie Michigan, który miał przynieść odpowiedź na pytanie, czy ludzie mają dobrą intuicję statystyczną. Było już wtedy wiadomo, że ludzie mają świetną intuicję gramatyczną: czteroletnie dziecko bez trudu przestrzega zasad gramatyki, choć nie ma bladego pojęcia o ich istnieniu. Czy ludzie mają też intuicyjne wyczucie podstawowych zasad statystyki? Amos zreferował wyniki programu, z których wynikało, że owszem, mają – choć nie do końca. Na seminarium wywiązała się żywa dyskusja i w końcu doszliśmy do wniosku, że lepszą odpowiedzią byłoby, że nie, nie mają – choć nie do końca.
I ja, i Amos uczestniczyliśmy w dyskusji z przyjemnością. Uznaliśmy, że statystyka intuicyjna to ciekawa sprawa i fajnie byłoby przyjrzeć się jej bliżej we dwóch. W piątek poszliśmy na obiad do Café Rimon, ulubionego lokalu nauczycieli akademickich i jerozolimskiej cyganerii, i tam ułożyliśmy plan badania intuicji statystycznych, które zamierzaliśmy przeprowadzić na próbie złożonej z doświadczonych badaczy. W trakcie dyskusji na seminarium doszliśmy do wniosku, że nasze własne intuicje są omylne. Choć przez długie lata wykładaliśmy statystykę i posługiwaliśmy się nią w pracy naukowej, nie wyrobiliśmy w sobie intuicyjnego wyczucia, które pozwalałoby dobrze przewidywać wyniki statystyczne otrzymywane w małych próbach. Nasze subiektywne osądy były skrzywione: byliśmy zbyt skłonni przyjmować wyniki badań niemających odpowiedniego oparcia w danych eksperymentalnych, a we własnych badaniach gromadziliśmy za mało obserwacji1. Badanie, które zaplanowaliśmy, miało sprawdzić, czy ten sam problem dotyka również innych badaczy.
Przygotowaliśmy kwestionariusz z realistycznymi scenariuszami, w których pojawiały się typowe problemy statystyczne spotykane w badaniach naukowych. Amos zgromadził odpowiedzi ekspertów należących do Towarzystwa Psychologii Matematycznej, w tym autorów dwóch podręczników statystyki. Okazało się, jak zresztą przypuszczaliśmy, że nasi doświadczeni koledzy tak samo jak my wyraźnie przeceniają prawdopodobieństwo udanego powtórzenia wyników badania przeprowadzanego na niewielkiej próbie. Wymyślonej na potrzeby badania doktorantce udzielali bardzo niedobrych rad na temat tego, ile obserwacji powinna zgromadzić do rozprawy doktorskiej. Jak się okazało, dobrej intuicji statystycznej nie mają nawet statystycy.
Pracując z Amosem nad artykułem, w którym opisaliśmy wyniki badania, odkryliśmy, że wspólna praca sprawia nam przyjemność. Amos był zawsze bardzo dowcipny, a w jego obecności i ja się rozkręciłem, więc przez długie godziny solidnej pracy nie opuszczał nas świetny nastrój. Dzięki temu, że wspólna praca była dla nas przyjemnością, nabraliśmy też wyjątkowej cierpliwości; o wiele łatwiej dążyć do perfekcji, kiedy ani przez moment nie doskwiera ci nuda. Co być może najważniejsze, przed spotkaniami zostawialiśmy w szatni broń, jaką jest krytykanctwo. Obydwaj mieliśmy krytyczne usposobienie i lubiliśmy się spierać – Amos nawet bardziej niż ja – jednak przez wszystkie lata współpracy nie zdarzyło się, żeby któryś z nas z miejsca odrzucił jakiś pomysł drugiego. Przeciwnie, jedną z najprzyjemniejszych rzeczy we współpracy było to, że Amos często dostrzegał sedno moich mglistych pomysłów o wiele wyraźniej ode mnie. Jego sposób myślenia był bardzo logiczny i silniej osadzony w teorii, nieomylnie wyczuwał też, jak rozwinie się dany pomysł. Ja miałem podejście o wiele bardziej intuicyjne, zakorzenione w psychologii percepcji, z której zapożyczyliśmy wiele pomysłów. Byliśmy na tyle podobni, żeby się w lot rozumieć, ale też na tyle różni, że potrafiliśmy się zaskakiwać. Dużą część dnia spędzaliśmy na wspólnej pracy, często połączonej z długimi spacerami. Przez kolejne czternaście lat współpraca naukowa stała się najważniejszym punktem naszego życia. Już nigdy potem praca nie szła nam tak dobrze.
Szybko wypracowaliśmy sobie metodę, której potem trzymaliśmy się przez wiele lat. Nasza praca badawcza była rozmową, w której wymyślaliśmy pytania i wspólnie przyglądaliśmy się swoim intuicyjnym odpowiedziom. Każde pytanie stawało się małym eksperymentem i codziennie przeprowadzaliśmy ich bardzo wiele. Zadając sobie nawzajem pytania statystyczne, nie próbowaliśmy dawać prawidłowych odpowiedzi. Naszym celem było znajdowanie i analizowanie odpowiedzi intuicyjnych – tych, które przyszły nam do głowy pierwsze i których mieliśmy ochotę udzielić nawet wtedy, kiedy mieliśmy świadomość, że są błędne. Byliśmy przekonani – jak się później okazało słusznie – że jeśli dana intuicja narzuca się nam obu, to będzie ją również podzielać wiele innych osób i że łatwo będzie wykazać eksperymentalnie, jakie następstwa ma ona dla naszych osądów.
Któregoś dnia z zachwytem odkryliśmy, że mamy identyczne wyobrażenia na temat przyszłych zawodów kilkorga małych dzieci, które znaliśmy obydwaj. Potrafiliśmy wskazać trzyletnią prawniczkę (zawsze mającą własne zdanie), małego intelektualistę-profesora, empatycznego i nieco wścibskiego psychoterapeutę. Nasze przewidywania były rzecz jasna absurdalne, ale i tak wydawały się nam przekonujące. Było też jasne, że dokonując intuicyjnej oceny, kierujemy się tym, do jakiego stopnia charakter dziecka pasuje do kulturowych stereotypów związanych z określonym zawodem. Dzięki temu przyjemnemu ćwiczeniu umysłowemu udało nam się rozwinąć wykluwającą się nam wtedy w głowach teorię dotyczącą roli, jaką podobieństwo odgrywa w stawianiu prognoz. Potem przetestowaliśmy i udoskonaliliśmy naszą teorię w dziesiątkach eksperymentów podobnych do zamieszczonego poniżej.
Zastanów się nad odpowiedzią na następujące pytanie, biorąc pod uwagę, że Steve został dobrany losowo spośród reprezentatywnej próby obywateli:
Pewna osoba została następująco opisana przez sąsiada: „Steve jest bardzo nieśmiały i wycofany. Zawsze jest chętny do pomocy, ale nie interesuje się zbytnio ludźmi ani rzeczywistością. Jest człowiekiem porządnym i potulnym, ma potrzebę porządku i jasno określonej struktury, jest bardzo dbały o szczegóły”.
Co jest bardziej prawdopodobne – czy to, że Steve jest bibliotekarzem, czy to, że jest rolnikiem?
Prawie każdemu rzuca się w oczy, że osobowość Steve’a pasuje do osobowości stereotypowego bibliotekarza. Jednak prawie zawsze ignorujemy przy tym równie ważne kwestie statystyczne. Na przykład, czy przyszło ci do głowy, że na każdego bibliotekarza w Stanach Zjednoczonych przypada ponad dwudziestu rolników? Biorąc pod uwagę tak ogromną przewagę liczebną rolników, jest niemal pewne, że więcej ludzi „porządnych i potulnych” znajdziemy za kierownicą traktora niż za bibliotecznym biurkiem. A mimo to okazało się, że uczestnicy naszych eksperymentów ignorowali stosowne fakty statystyczne, opierając się wyłącznie na zgodności charakteru ze stereotypem. Wysnuliśmy stąd wniosek, że przy podejmowaniu trudnych ocen ludzie używają podobieństwa (zgodności) jako upraszczającej heurystyki2, czyli czegoś w rodzaju zasady „pi razy drzwi”. Używanie tej metody heurystycznej sprawia, że prognozy są obciążone dającym się przewidzieć skrzywieniem poznawczym (błędem systemowym).
Innym razem zastanawialiśmy się z Amosem nad odsetkiem rozwodów wśród profesorów naszej uczelni. Zauważyliśmy, że kiedy zadajemy sobie takie pytanie, w pamięci uruchamia nam się proces wyszukiwania rozwiedzionych profesorów, których znaliśmy osobiście albo ze słyszenia, a następnie oceniamy liczność kategorii na podstawie tego, jak łatwo było nam sobie przypomnieć odpowiednie przykłady. To poleganie na łatwości przywołania pamięciowego nazwaliśmy „heurystyką dostępności”. W jednym z badań poprosiliśmy uczestników o odpowiedź na proste pytanie dotyczące wyrazów3 w typowym tekście angielskim:
Odpowiedz na następujące pytanie dotyczące litery K.
Co jest bardziej prawdopodobne: czy to, że litera K pojawi się jako pierwsza litera wyrazu, CZY że pojawi się jako trzecia?
Jak wiadomo każdemu, kto grał w scrabble, o wiele łatwiej wymyślić wyraz zaczynający się na daną literę niż taki, w którym ta sama litera pojawia się jako trzecia. Dzieje się tak niezależnie od litery, o którą chodzi. Dlatego spodziewaliśmy się, że respondenci przeszacują częstotliwość pojawiania się liter na początku wyrazu, nawet takich, które w języku angielskim częściej występują na trzeciej pozycji w wyrazie (np. K, L, N, R czy V). Poleganie na heurystyce dostępności w tym wypadku wprowadza przewidywalne skrzywienie ocen. Niedawno zacząłem np. powątpiewać, czy słusznie mi się od dawna wydaje, że politycy znacznie częściej dopuszczają się cudzołóstwa od lekarzy czy prawników. Zdążyłem sobie nawet wymyślić różne wyjaśnienia tego „faktu”, np. takie, że władza działa niczym afrodyzjak, a życie z dala od domu wiąże się z pokusami. W końcu uświadomiłem sobie jednak, że media częściej nagłaśniają występki polityków niż prawników czy lekarzy. Być może mój intuicyjny wniosek bierze się tylko z tego, jakie tematy wybierają dziennikarze, w połączeniu z oddziałującym na mnie efektem heurystyki dostępności.
Poświęciliśmy z Amosem kilka lat na badanie i dokumentowanie intuicyjnych błędów poznawczych dotyczących rozmaitych zadań – szacowania prawdopodobieństwa rozmaitych zdarzeń, prognozowania przyszłości, oceniania hipotez czy oceniania częstotliwości. W piątym roku współpracy przedstawiliśmy nasze główne ustalenia do publikacji w „Science”, tygodniku czytywanym przez naukowców z wielu różnych dyscyplin. Nasz artykuł (który zamieszczam w całości pod koniec książki) był zatytułowany Judgment Under Uncertainty: Heuristics and Biases [Podejmowanie decyzji w warunkach niepewności: heurystyki i błędy poznawcze]. Opisaliśmy w nim skróty i uproszczenia, którymi się posługujemy w myśleniu intuicyjnym, i wyjaśniliśmy naturę mniej więcej dwudziestu błędów poznawczych, wykazując, że są one przejawem omawianych heurystyk i ilustrują rolę, jaką heurystyki odgrywają w procesach decyzyjnych.
Historycy nauki często zwracali uwagę na fakt, że w dowolnym okresie historycznym uczeni zajmujący się określoną dyscypliną są zgodni co do pewnych podstawowych założeń dotyczących ich dziedziny. Socjolodzy nie są wyjątkiem; oni także opierają się w pracy na określonej wizji natury ludzkiej, która rzadko jest podawana w wątpliwość, a sama staje się z kolei podstawą większości badań konkretnych zachowań. W latach siedemdziesiątych XX wieku socjolodzy przyjęli dwie ogólne idee dotyczące ludzkiej natury. Pierwsza dotyczyła tego, że ludzie na ogół działają racjonalnie, a ich myślenie jest zazwyczaj prawidłowe. Druga mówiła, że za odchylenia od racjonalności w większości przypadków odpowiadają takie emocje jak strach, sympatia czy nienawiść. Nasz artykuł pośrednio podważył obydwa założenia. Udokumentowaliśmy systemowe błędy w myśleniu normalnych ludzi i wykazaliśmy, że ich przyczyny nie wynikają z zaburzenia myślenia przez emocje, lecz są wpisane w samą konstrukcję mechanizmów poznawczych.
Zainteresowanie artykułem przeszło nasze oczekiwania – do dzisiaj jest on jedną z najczęściej cytowanych prac socjologicznych (w 2010 roku powołano się na niego w ponad trzystu artykułach naukowych). Idea okazała się przydatna także w innych dyscyplinach: pojęcia „heurystyk” i „błędów poznawczych” znalazły zastosowanie m.in. w takich dziedzinach, jak diagnostyka medyczna, oceny prawne, analiza danych wywiadowczych, filozofia, statystyka oraz strategia wojskowa.
Na przykład badacze polityki społecznej zauważyli, że heurystyka dostępności pomaga wyjaśnić, dlaczego jedne zagadnienia społeczne są przez opinię publiczną odbierane jako niezwykle znaczące, a inne są lekceważone. Ludzie najczęściej oceniają ważność kwestii społecznych na podstawie tego, jak łatwo jest im przywołać z pamięci jakieś przykłady – to zaś w dużej mierze zależy od tego, ile uwagi danej kwestii poświęcają media. Często poruszane tematy tkwią w naszym umyśle, inne zaś usuwają się ze świadomości. Z kolei dobór tematów medialnych zależy od tego, co zdaniem mediów interesuje w danej chwili opinię publiczną. Nieprzypadkowo reżimy autorytarne wywierają silną presję na niezależne media. Ponieważ zainteresowanie opinii publicznej najłatwiej wzbudzają dramatyczne wydarzenia oraz celebryci, wokół chodliwych tematów często rozpętuje się medialny cyrk. Na przykład przez kilka tygodni po śmierci Michaela Jacksona praktycznie nie dało się znaleźć kanału telewizyjnego, na którym mówiłoby się o czymkolwiek innym. Za to niewiele wspomina się w mediach o kwestiach istotnych, ale mniej dramatycznych, takich jak spadająca jakość edukacji czy fakt, że największe kwoty w służbie zdrowia przeznacza się na leczenie pacjentów w ostatnim roku ich życia (nawiasem mówiąc, nawet pisząc te słowa, uświadamiam sobie, że mój dobór „przemilczanych” tematów również opiera się na umysłowej dostępności – o wspomnianych przeze mnie kwestiach mówi się często; inne kwestie, równie ważne, ale rzadziej poruszane, nawet nie przyszły mi do głowy).
Choć wtedy nie uświadamialiśmy sobie tego do końca, najważniejszą przyczyną, dla której pojęcia heurystyk i błędów poznawczych odbiły się tak szerokim echem poza psychologią, była zupełnie przypadkowa cecha naszych publikacji: otóż prawie zawsze zamieszczaliśmy pełny tekst pytań, które stawialiśmy sobie i naszym respondentom. Pytania miały pokazywać czytelnikom, jak wielką przeszkodę w myśleniu stanowią błędy poznawcze. Mam nadzieję, że sam się o tym przekonałeś, czytając pytanie na temat bibliotekarza Steve’a, które miało demonstrować, jak silnie umysłowa dostępność wpływa na szacowanie prawdopodobieństwa, a także pokazać, jak łatwo ignorujemy ważne fakty statystyczne. Dzięki temu, że używaliśmy takich właśnie demonstracji, uczeni z różnych dziedzin – zwłaszcza filozofowie i ekonomiści – mieli niecodzienną okazję zaobserwować usterki we własnym rozumowaniu. Widząc, jak często sami popełniają błędy, byli bardziej skłonni zakwestionować obowiązujący wtedy dogmat, jakoby ludzki umysł był racjonalny i logiczny. Nasz wybór metody okazał się zasadniczy: gdybyśmy zgodnie z naukową konwencją ogłosili wyłącznie wyniki eksperymentów, artykuł nie zapadałby w pamięć i nie zwróciłby na siebie większej uwagi. Co więcej, sceptyczni czytelnicy zdystansowaliby się od naszych wyników, uznając, że przyczyną błędnych osądów wśród badanych była powszechnie znana gapiowatość studentów, bo właśnie studenci biorą zwykle udział w podobnych badaniach. Oczywiście nie dlatego postanowiliśmy zamieszczać pytania badawcze w publikacji, żebyśmy pragnęli dotrzeć z wynikami do filozofów czy ekonomistów. Wybraliśmy taką formułę demonstracji dlatego, że tak było fajniej – jak to często bywa, nasz wybór metodologii był kwestią szczęśliwego trafu. W tej książce często będzie pojawiać się myśl, że w historii każdego sukcesu dużą rolę odgrywa szczęście; prawie zawsze w takiej historii łatwo wskazać drobną zmianę, która zamieniłaby osiągnięcie nadzwyczajne w po prostu mierne. Nasza historia nie jest żadnym wyjątkiem.
Nie wszyscy zareagowali na nasze publikacje pozytywnie. Zwłaszcza krytykowano nas za to, że skupiliśmy się na błędach poznawczych, co mogłoby sugerować, że mamy zbyt negatywne wyobrażenie o ludzkim umyśle4. Jak to bywa w nauce, niektórzy badacze udoskonalili nasze idee, inni przedstawili wiarygodne alternatywy5, jednak ogólna idea – że umysł ludzki jest podatny na systemowe błędy – jest obecnie przyjmowana powszechnie. Nasze badania nad osądami wpłynęły na świat nauki w znacznie większym stopniu, niż mogliśmy sobie wyobrazić.
Po wykazaniu, jak przebiega proces formowania osądów, natychmiast skupiliśmy uwagę na decyzjach podejmowanych w warunkach niepewności. Naszym celem było opracowanie psychologicznej teorii opisującej, w jaki sposób podejmujemy decyzje, kiedy podejmujemy proste zakłady hazardowe. Na przykład: czy przyjąłbyś zakład o rzut monetą, jeśli orzeł oznaczałby dla ciebie wygraną 130 dolarów, a reszka stratę 100 dolarów? Takich elementarnych wyborów używano w badaniach już dużo wcześniej; badano w ten sposób ogólne kwestie związane z podejmowaniem decyzji, na przykład jakie relatywne wagi przypisujemy rezultatom pewnym, a jakie niepewnym. Nasza metoda była taka sama: najpierw wiele dni zajmowało nam wymyślenie odpowiednio trudnych wyborów, a następnie badaliśmy, czy odpowiedź zgodna z intuicją będzie zgodna również z logiką. Nie inaczej niż w przypadku osądów, tu także zaobserwowaliśmy, że w naszych decyzjach pojawiają się systemowe błędy poznawcze, czyli że odpowiedzi intuicyjne regularnie łamią reguły racjonalnego wyboru. Pięć lat po opublikowaniu artykułu w „Science” wydaliśmy Prospect Theory: An Analysis of Decision Under Risk [Teoria perspektywy: analiza decyzji podejmowanych w warunkach ryzyka], gdzie sformułowaliśmy teorię wyborów, która pod pewnymi względami okazała się bardziej wpływowa niż nasze prace nad osądami i stała się jedną z podstaw ekonomii behawioralnej.
Dopóki odległość między naszymi miejscami zamieszkania nie uniemożliwiła dalszej współpracy, cieszyliśmy się z Amosem nadzwyczajnym uśmiechem fortuny – wspólną pracą umysłową, która przynosiła lepsze wyniki niż praca każdego z osobna, a także przyjaźnią, dzięki której wspólna praca była nie tylko produktywna, ale i przyjemna. Dzięki współpracy nad procesami oceny i podejmowania decyzji zdobyłem w 2002 roku Nagrodę Nobla6, którą otrzymałby także Amos, gdyby nie to, że w 1996 roku zmarł w wieku 59 lat.
Gdzie jesteśmy teraz
W tej książce nie próbuję prezentować wczesnych badań, które przeprowadziliśmy z Amosem – tego zadania z powodzeniem podjęli się w ostatnich latach inni. Za cel stawiam sobie głównie przedstawienie pewnej wizji funkcjonowania umysłu, która czerpie z najnowszych osiągnięć psychologii społecznej i poznawczej. Jednym z ważniejszych dokonań w tej dziedzinie jest to, że udało nam się zrozumieć niezwykłe możliwości i wady myślenia intuicyjnego. Z Amosem nie zajmowaliśmy się domysłami (intuicjami) trafnymi – stwierdziliśmy tylko ogólnie, że heurystyki osądów są „dość przydatne, choć czasem prowadzą do poważnych i systemowych błędów”. Woleliśmy się skupić na błędach poznawczych z dwóch powodów: po pierwsze uznaliśmy, że takie błędy są ciekawe same w sobie, a po drugie dostarczały nam danych na temat heurystyk osądów. Nie zadawaliśmy sobie pytania, czy każdy osąd intuicyjny podejmowany w warunkach niepewności będzie wytworem heurystyk, które badaliśmy; dzisiaj już wiadomo, że tak nie jest. Zwłaszcza trafne oceny intuicyjne ekspertów można lepiej wyjaśnić skutkami długoletniej praktyki7 niż działaniem heurystyk. Obecnie umiemy już nakreślić obraz bardziej szczegółowy i wyważony, w którym fachowe umiejętności oraz heurystyki stanowią alternatywne źródła wyborów i osądów intuicyjnych.
Psycholog Gary Klein przytacza historię załogi strażackiej interweniującej w domu, w którym płonęła kuchnia8. Strażacy zaczęli pompować do kuchni wodę, jednak po chwili dowódca, sam nie wiedząc dlaczego, wrzasnął: „Uciekamy!”. Dosłownie chwilę po tym, jak ostatni strażak opuścił budynek, zarwała się podłoga. Dopiero po fakcie dowódca uświadomił sobie, że w czasie interwencji w uszy biło mu nietypowe gorąco, a pożar był zaskakująco cichy. Te dwa wrażenia obudziły w nim coś, co nazwał „szóstym zmysłem niebezpieczeństwa”. Wiedział, że coś jest nie tak, choć nie miał pojęcia co. Jak się później okazało, ognisko pożaru znajdowało się nie w kuchni, ale w piwnicy, poniżej miejsca, w którym stali strażacy.
Wszyscy słyszeliśmy podobne opowieści na temat eksperckiej intuicji: o arcymistrzu szachowym przechodzącym obok ludzi rozgrywających partię szachów w parku, jak mimochodem rzuca: „Białe mają mata w trzech ruchach”, albo o lekarzu, który na pierwszy rzut oka postawił skomplikowaną diagnozę. Ekspercka intuicja robi wrażenie czegoś magicznego, ale nie ma nic wspólnego z magią. Przeciwnie: codziennie każdy z nas dokonuje wielu podobnych wyczynów intuicyjnej fachowości. Większość z nas ma słuch absolutny, który pozwala nam wykryć od pierwszego słowa gniew w głosie dzwoniącej do nas osoby; większość z nas, wchodząc do pokoju, potrafi się domyślić, że przed chwilą o nas rozmawiano; większość z nas szybko reaguje na subtelne oznaki sugerujące, że kierowca jadący sąsiednim pasem może stanowić zagrożenie. Takie powszednie intuicyjne zdolności są równie zdumiewające jak nagłe olśnienia doświadczonego lekarza czy strażaka – tyle tylko, że zdarzają się częściej.
Psychologia trafnych intuicji to żadne czary. Bodaj najlepiej ujął to wielki Herbert Simon, który przyglądając się mistrzom szachowym9, udowodnił, że po tysiącach godzin ćwiczeń zaczynają inaczej postrzegać figury na szachownicy. W słowach Simona wyraźnie pobrzmiewa zniecierpliwienie z powodu mitologizowania intuicji ekspertów: „Sytuacja dostarcza wskazówki; wskazówka daje ekspertowi dostęp do przechowywanych w pamięci informacji; informacje dostarczają odpowiedzi. Intuicja to ni mniej, ni więcej tylko akt rozpoznania”10.
Nie dziwi nas, że dwuletnie dziecko patrzy na psa i mówi „piesio”, bo opatrzył nam się cud dziecięcego procesu rozpoznawania i nazywania przedmiotów. Herbert Simon stwierdza, że cuda eksperckiej intuicji są tego samego rodzaju. Trafny domysł pojawia się wówczas, kiedy ekspert opanuje sztukę rozpoznawania znajomych elementów w nowej sytuacji i reaguje odpowiednim działaniem. Trafne osądy intuicyjne narzucają się umysłowi eksperta w tak samo oczywisty sposób, jak dziecku słowo „piesio”.
Niestety, w środowisku biznesu i wolnych zawodów osądy intuicyjne nie zawsze biorą się z autentycznej fachowości. Wiele lat temu odwiedziłem dyrektora inwestycyjnego w dużej instytucji finansowej, który powiedział mi, że zainwestował dziesiątki milionów dolarów w akcje spółki Ford Motor Company. Kiedy zapytałem, w jaki sposób doszedł do takiej decyzji, odpowiedział, że był niedawno na targach samochodowych i firma zrobiła na nim kolosalne wrażenie. „Słowo daję – wyjaśnił – kto jak kto, ale ci ludzie znają się na robieniu samochodów!”. Nie mogło być cienia wątpliwości, że dyrektor ufa własnemu instynktowi i jest zadowolony z siebie i z podjętej decyzji. To, co mi się wydało nadzwyczajne, to fakt, że dyrektor wydawał się nie brać pod uwagę najważniejszej kwestii, na którą powinien zwrócić uwagę ekonomista: czy akcje Forda są niedocenione w stosunku do rzeczywistej wartości? Zamiast tego dyrektor posłuchał swojej intuicji: podobały mu się samochody, podobała mu się firma i spodobał mu się pomysł, żeby kupić jej akcje. Na podstawie tego, co wiemy na temat inwestowania w akcje, mamy prawo uznać, że ten człowiek autentycznie nie wiedział, co robi.
Heurystyki, które badaliśmy z Amosem, nie za bardzo pomagały zrozumieć, jak nasz dyrektor doszedł do decyzji o zainwestowaniu w akcje Forda. Dziś istnieją jednak szersze koncepcje heurystyk, które potrafią wyjaśnić to lepiej. Ważnym odkryciem było zrozumienie, że w intuicyjnych decyzjach i osądach nieoczekiwanie dużą rolę odgrywają emocje. Dzisiaj decyzję dyrektora uznalibyśmy za przykład działania heurystyki afektu11, czyli takiej, w jakiej oceny i decyzje bezpośrednio wypływają z sympatii i antypatii, bez zbytniego namysłu czy rozumowania.
W zetknięciu z problemem – koniecznością wyboru posunięcia szachowego albo giełdowej inwestycji – maszyneria intuicyjnego myślenia robi, co może. Jeśli ktoś dysponuje odpowiednią fachową wiedzą, zdoła rozpoznać znajomą sytuację, a kiedy do głowy przyjdzie mu intuicyjne rozwiązanie, prawdopodobnie będzie ono trafne. Tak się właśnie dzieje, kiedy skomplikowanej pozycji przygląda się arcymistrz szachowy: do głowy przychodzi mu tylko parę ruchów, a każdy z nich jest silny. Kiedy stajemy przed trudnym pytaniem, nie dysponując żadnym fachowym rozwiązaniem, intuicja mimo to spróbuje udzielić odpowiedzi – być może do głowy przyjdzie nam błyskawiczna odpowiedź, jednak nie będzie to odpowiedź na pierwotne pytanie. Nasz dyrektor stanął przed trudnym pytaniem (czy inwestować w akcje Forda?), jednak do głowy najszybciej przyszła mu odpowiedź na powiązane z nim pytanie łatwiejsze (czy podobają mi się samochody Forda?) – i właśnie ta prostsza odpowiedź zadecydowała o wyborze. To zasadnicza cecha intuicyjnych heurystyk: gdy stajemy przed trudnym pytaniem, często odpowiadamy na pytanie łatwiejsze, zazwyczaj nawet sobie nie uświadamiając, że doszło do podmiany pytania12.
Czasami to spontaniczne poszukiwanie intuicyjnego rozwiązania zawodzi – do głowy nie przychodzi nam wtedy ani fachowe rozwiązanie, ani odpowiedź heurystyczna. W takich przypadkach często przerzucamy się na wolniejsze, nieśpieszne myślenie. To właśnie „myślenie wolne”, o którym mowa w tytule książki. W pojęciu myślenia szybkiego mieszczą się obydwa rodzaje myślenia intuicyjnego – czyli myślenie fachowe oraz myślenie heurystyczne – a także zupełnie automatyczne formy umysłowej aktywności, takie jak percepcja czy pamięć, a więc operacje, dzięki którym wiesz, że masz na biurku lampę albo potrafisz sobie przypomnieć, co jest stolicą Rosji.
W ostatnim ćwierćwieczu wielu psychologów badało rozróżnienie pomiędzy myśleniem szybkim i wolnym. Z przyczyn, o których więcej napiszę w następnym rozdziale, życie umysłowe opisuję za pomocą metafory dwóch czynników, które nazywam Systemem 1 (oznaczającym myślenie szybkie) i Systemem 2 (obsługującym myślenie wolne). O poszczególnych cechach myślenia intuicyjnego oraz celowego piszę tak, jakby były cechami charakteru dwóch postaci zamieszkujących twój umysł. Obraz wyłaniający się z najnowszych badań wskazuje, że intuicyjny System 1 jest znacznie bardziej wpływowy, niż ci się wydaje, i to on stoi za wieloma twoimi wyborami i osądami. Niniejsza książka poświęcona jest głównie temu, jak działa System 1 i jak oba systemy wpływają na siebie nawzajem.
Co dalej
Książkę podzieliłem na pięć części. Część pierwsza prezentuje w podstawowym zarysie dwusystemowe spojrzenie na zjawisko osądów i wyborów ludzkich. W niej przedstawiam rozróżnienie pomiędzy automatycznym funkcjonowaniem Systemu 1 i kontrolowanym działaniem Systemu 2, pokazując, w jaki sposób nasza pamięć skojarzeniowa (będąca rdzeniem Systemu 1) nieprzerwanie konstruuje spójną interpretację wszystkiego, co w danej chwili dzieje się w otaczającej nas rzeczywistości. Usiłuję ukazać złożoność i bogactwo nieświadomych procesów leżących u podstaw intuicyjnego myślenia, a także przedstawić, jak te automatyczne procesy pozwalają wyjaśnić funkcjonowanie rozmaitych heurystyk oceniania. Moim celem jest zaprezentowanie języka technicznego, który umożliwia myślenie i mówienie o ludzkiej umysłowości.
W części drugiej uzupełniam omówienie heurystyk oceniania, a także próbuję rozwikłać ważną zagadkę – mianowicie dlaczego jest tak, że myślenie statystyczne przysparza nam tak ogromnych trudności? Myślenie skojarzeniowe, metaforyczne albo przyczynowe przychodzi nam bez trudu, jednak myślenie statystyczne wymaga myślenia o wielu rzeczach równocześnie, a to jest coś, z czym System 1 nie radzi sobie z samej swojej natury.
Słabości myślenia statystycznego omawiam po to, aby przygotować grunt pod główny temat poruszany w części trzeciej. Opisuję w niej pewne zdumiewające ograniczenie ludzkiego umysłu: naszą nadmierną pewność wobec wszystkiego, co wydaje nam się, że wiemy, a także naszą niezdolność do pełnego uświadomienia sobie własnej niewiedzy i niepewności cechującej rzeczywistość. Ludzie mają skłonność do przeceniania swojego zrozumienia rzeczywistości, a niedoceniania roli, jaką w rozwoju wydarzeń odgrywa przypadek. Nadmierne zaufanie do własnej wiedzy bierze się ze złudzenia pewności, to zaś bierze się z faktu, że na wydarzenia patrzymy z perspektywy czasu. Moje poglądy w tej kwestii pozostają pod wpływem Nassima Taleba, autora książki The Black Swan: The Impact of the Highly Improbable [Czarny łabędź: o wpływie wysoce nieprawdopodobnych wydarzeń]. Liczę, że dzięki temu w biurowej kuchni będziemy mogli prowadzić rozmowy, które pozwolą nam wyciągać inteligentne lekcje z przeszłości, i nie ulegać iluzorycznej pewności siebie ani nie zakładać, że skoro coś się stało, to tak się musiało stać.
W części czwartej wchodzę w dyskusję ze szkołą ekonomii badającą procesy decyzyjne przy założeniu, że uczestnicy gospodarki działają w sposób racjonalny. Ta część książki prezentuje aktualne poglądy oparte na dwusystemowym modelu myślenia. W tym celu przedstawiam kluczowe pojęcia teorii perspektyw, czyli modelu procesów decyzyjnych, który ogłosiliśmy z Amosem w 1979 roku. W dalszych rozdziałach przedstawiam kilka przykładów sytuacji, w których nasze wybory kłócą się z zasadą racjonalności. Poruszam naszą niefortunną skłonność do badania jednych problemów w izolacji od innych, a także zajmuję się efektem framingu (framing effect), polegającym na tym, że nasze decyzje zależą od nieistotnych różnic w sformułowaniu stojących przed nami wyborów. Podobne obserwacje – które łatwo dają się wyjaśnić charakterystycznymi cechami Systemu 1 – silnie podważają obowiązujące w standardowej ekonomii założenie, że uczestnicy gospodarki działają racjonalnie.
Część piąta opisuje badania, które pomogły wprowadzić rozróżnienie pomiędzy „jaźnią doświadczającą” a „jaźnią pamiętającą”: aspektami osobowości, z których każdy kieruje się innymi interesami. Przykładowo można wziąć dwie osoby, z których każda zostanie wystawiona na dwa bolesne doświadczenia. Niech przy tym jedno z doświadczeń będzie wyraźnie przykrzejsze od drugiego (bo trwa dłużej od niego). Mimo to automatyczne powstawanie wspomnień – będące funkcją Systemu 1 – podlega pewnym zasadom, które da się zmanipulować w taki sposób, że epizod gorszy pozostawi po sobie lepsze wspomnienie. Gdy później postawimy te same osoby przed wyborem, którego z obu epizodów wolą doświadczyć ponownie, o ich wyborze będzie oczywiście decydować jaźń pamiętająca, która tym samym narazi takie osoby (to znaczy ich jaźń doświadczającą) na niepotrzebny ból. To samo rozróżnienie między dwoma aspektami jaźni jest także istotne przy mierzeniu poziomu dobrostanu (szczęścia) – tu także przekonujemy się, że coś, co daje szczęście jaźni doświadczającej, nie będzie do końca tym samym, co zadowala jaźń pamiętającą. Jeśli założymy, że celem polityki społecznej ma być dobrostan ludności, musimy sobie odpowiedzieć na wiele trudnych pytań w związku z tym, jak dwie jaźnie zamieszkujące jedno ciało mają dążyć do szczęścia, zarówno na poziomie osobistym, jak i społecznym.
W ostatnim rozdziale przyglądam się skutkom tych trzech rozróżnień, o których mowa w niniejszej książce: pomiędzy jaźnią doświadczającą i jaźnią pamiętającą, pomiędzy koncepcją uczestników gospodarki w ekonomii klasycznej i w ekonomii behawioralnej (w której część pojęć jest zapożyczona z psychologii), i wreszcie pomiędzy automatycznym Systemem 1 i wymagającym umysłowego wysiłku Systemem 2. Wracam przy tym do korzyści płynących ze świadomych i inteligentnych plotek oraz do pytania, co mogą uczynić organizacje, aby podnieść jakość osądów i decyzji podejmowanych w ich imieniu.
Do tego w załącznikach do książki znajdują się dwa artykuły, które napisaliśmy z Amosem. Pierwszy omawia osądy podejmowane w warunkach niepewności, o czym pisałem powyżej. Drugi – wydany w 1984 roku – przedstawia teorię perspektyw oraz skutki efektu framingu. Te artykuły wymieniła komisja noblowska w uzasadnieniu decyzji o przyznaniu mi Nagrody Nobla – zapewne zdziwisz się, widząc, jak proste są to prace. Czytając je, przekonasz się, ile wiedzieliśmy przed laty oraz jak wiele dowiedzieliśmy się w ostatnich dekadach.
1
gromadziliśmy za mało obserwacji: znaliśmy książkę krytykującą psychologów za prowadzenie badań na małych próbach – Jacob Cohen, Statistical Power Analysis for the Behavioral Sciences (Hillsdale, NJ: Erlbaum, 1969), jednak brakowało w niej uzasadnienia sugerowanych wyborów.
2
W terminologii Daniela Kahnemana i Amosa Tversky’ego heurystyka to uproszczona reguła wnioskowania, którą posługujemy się w sposób nieświadomy (przyp. tłum.).
3
dotyczące wyrazów: nieco zmieniłem oryginalne sformułowanie, w którym chodziło o pierwsze i trzecie litery wyrazów.
4
negatywne wyobrażenie o ludzkim umyśle: naszym najzagorzalszym krytykiem jest znany psycholog niemiecki, Gerd Gigerenzer (por. Gerd Gigerenzer, How to Make Cognitive Illusions Disappear, „European Review of Social Psychology” 2 (1991), s. 83‒115; Personal Reflections on Theory and Psychology, „Theory & Psychology” 20 (2010), s. 733‒43. Daniel Kahneman i Amos Tversky, On the Reality of Cognitive Illusions, „Psychological Review” 103 (1996), s. 582‒91.
5
przedstawili wiarygodne alternatywy: można przytoczyć wiele przykładów, w tym Valerie F. Reyna i Farrell J. Lloyd, Physician Decision-Making and Cardiac Risk: Effects of Knowledge, Risk Perception, Risk Tolerance and Fuzzy-Processing, „Journal of Experimental Psychology: Applied” 12 (2006), s. 179‒95; Nicholas Epley i Thomas Gilovich, The Anchoring-and-Adjustment Heuristic, „Psychological Science” 17 (2006), s. 311‒18; Norbert Schwarz i in., Ease of Retrieval of Information: Another Look at the Availability Heuristic, „Journal of Personality and Social Psychology” 61 (1991), s. 195‒202; Elke U. Weber i in., Asymmetric Discounting in Intertemporal Choice, „Psychological Science” 18 (2007), s. 516‒23; George F. Loewenstein i in., Risk as Feelings, „Psychological Bulletin” 127 (2001), s. 267‒86.
6
zdobyłem w 2002 roku Nagrodę Nobla: nagroda z ekonomii nosi nazwę „Nagroda Banku Szwecji im. A. Nobla w dziedzinie ekonomii” i została przyznana po raz pierwszy w 1969 roku. Niektórzy naukowcy zajmujący się naukami przyrodniczymi nie byli zachwyceni uzupełnieniem Nagrody Nobla o nauki społeczne, dlatego dla nagrody z dziedziny ekonomii kompromisowo przyjęto odrębną nazwę.
7
długoletniej praktyki: fundament pod zrozumienie zjawiska wiedzy fachowej położyli w latach osiemdziesiątych XX w. Herbert Simon i jego doktoranci w Carnegie Mellon. Istnieje doskonałe popularnonaukowe wprowadzenie do tematu: Joshua Foer, Moonwalking with Einstein: The Art and Science of Remembering (Nowy Jork: Penguin Press, 2011) [Wyd. polskie: Tańczący z Einsteinem. O sztuce i technice zapamiętywania, tłum. Krzysztof Puławski, Media Rodzina 2012]. Prace przedstawiane przez Foera są również omówione w bardziej szczegółowy i techniczny sposób w książce pod redakcją K. Andersa Ericssona i in., The Cambridge Handbook of Expertise and Expert Performance (Nowy Jork: Cambridge University Press, 2006).
8
płonęła kuchnia: Gary A. Klein, Sources of Power (Cambridge, MA: MIT Press, 1999).
9
przyglądając się mistrzom szachowym: Herbert Simon był jednym z wielkich uczonych XX w. Był autorem odkryć i wynalazków z tak różnych dziedzin jak nauki polityczne (od których zaczynał karierę), ekonomia (z której zdobył Nagrodę Nobla), informatyka (której był pionierem) i psychologia.
10
„Sytuacja […] akt rozpoznania”: Herbert A. Simon, What Is an Explanation of Behavior?, „Psychological Science” 3 (1992), s. 150‒61.
11
heurystyki afektu: Pojęcie heurystyki afektu stworzył Paul Slovic, przyjaciel Amosa i jego kolega z roku w Michigan.
12
nawet sobie nie uświadamiając, że doszło do podmiany pytania: Patrz rozdział 9.