Читать книгу Pułapki myślenia - Daniel Kahneman - Страница 11
CZĘŚĆ I
Dwa systemy
ROZDZIAŁ → 7
Maszyna do wyciągania pochopnych wniosków
ОглавлениеZnakomity komik Danny Kaye opowiadał żart, który zapamiętałem z wczesnej młodości. Mówiąc o kobiecie, której nie lubił, stwierdził: „Z każdej sytuacji widzi wyjście: wychodzi z siebie! Ale umie też wyciągać wnioski, pod warunkiem że będą pochopne”. Pamiętam, że rozmawialiśmy o tym żarcie z Amosem, kiedy po raz pierwszy poruszyliśmy temat racjonalności intuicji statystycznych. Dzisiaj uważam, że ten żart jest trafnym opisem sposobu działania Systemu 1. Na przeskakiwanie do pochopnych wniosków można sobie pozwolić, kiedy wnioski prawdopodobnie okażą się trafne, koszt ewentualnego błędu jest do przyjęcia, a odpowiedź intuicyjna zapewni dużą oszczędność czasu i wysiłku. Przeskoczenie od razu do odpowiedzi intuicyjnej jest ryzykowne, kiedy znajdujemy się w nieznanej sytuacji, kiedy stawka jest wysoka i kiedy nie ma czasu na zebranie bliższych informacji. W takich okolicznościach prawdopodobne stają się błędy intuicji, którym mogła zapobiec przemyślana interwencja Systemu 2.
Lekceważone dwuznaczności, tłumione wątpliwości
Rysunek 6
Co łączy wszystkie trzy przykłady z rysunku 6? Odpowiedź brzmi: są wieloznaczne. Przykład z lewej strony prawie na pewno odczytałeś jako „A B C”, a z prawej jako „12 13 14”, mimo że w obu przypadkach środkowy symbol jest taki sam. Równie dobrze można te przykłady odczytać jako „A 13 C” i „12 B 14”, a jednak nie zrobiłeś tak. Dlaczego nie? Ten sam kształt otoczony literami zostaje odczytany jako litera, a otoczony liczbami jako liczba. Całość kontekstu pomaga interpretować elementy składowe. Kształt jest wieloznaczny, jednak nawet tego nie zauważasz: wyciągasz pewien wniosek na temat jego znaczenia, nie zdając sobie w ogóle sprawy, że rozstrzygnąłeś jakąś wieloznaczność.
Co do Anny – pewnie wyobraziłeś sobie kobietę myślącą o rycerzach i turniejach, patrzącą na stare zamczysko. Taka interpretacja jest wiarygodna, ale nie jedyna: zdanie jest wieloznaczne. Gdyby wcześniejsze zdanie brzmiało „Przekręcany klucz nieprzyjemnie zazgrzytał”, wyobraziłbyś sobie zupełnie inną scenę. Kiedy myślisz o kluczach, słowo „zamek” nie kojarzy się z budowlą. Kiedy nie ma jasnego kontekstu, System 1 samodzielnie generuje kontekst prawdopodobny. Wiemy, że robi to System 1, bo nawet sobie nie uświadomiłeś, że masz jakiś wybór i możesz się zdecydować na inną interpretację. Jeżeli nie jesteś ślusarzem, pewnie częściej mówisz o zamkach w sensie budowli niż zabezpieczeń w drzwiach, dlatego wieloznaczność rozstrzygnąłeś w taki sposób. Kiedy System 1 ma do czynienia z niejednoznacznością, obstawia konkretną odpowiedź na podstawie doświadczenia. Wyborem kierują inteligentne zasady: podczas interpretowania najwyższa waga zostaje przypisana aktualnemu kontekstowi i niedawnym zdarzeniom. Kiedy do głowy nie przychodzi nam żadne aktualne zdarzenie, decydują wspomnienia bardziej odległe. Jednym z najwcześniejszych i najbardziej pamiętnych wspomnień w twoim życiu jest nauka alfabetu. Nigdy nie uczyłeś się frazy „A13C”.
W obydwu przykładach najważniejsze jest to, że dokonał się w nich konkretny wybór, jednak nawet sobie tego nie uświadomiłeś. Do głowy przyszła ci tylko jedna interpretacja i nie zdałeś sobie sprawy z wieloznaczności. System 1 nie pamięta odrzuconych alternatyw – a nawet nie pamięta, że w ogóle istniały. System 1 nie jest zdolny do świadomych wątpliwości – wymaga to równoczesnego przechowywania w pamięci sprzecznych interpretacji, a to z kolei wymaga wysiłku umysłowego. Niepewność i wątpliwości to domena Systemu 2.
Tendencyjna skłonność do wierzenia i potwierdzania
Psycholog Daniel Gilbert, dobrze znany jako autor książki Stumbling to Happiness [Przypadkowe szczęście] napisał esej pt. How Mental Systems Believe [Jak wierzą systemy umysłowe], w którym rozwinął teorię wiary i niewiary sięgającą korzeniami myśli siedemnastowiecznego filozofa Barucha Spinozy. Gilbert wysuwa tezę, że rozumienie zdania zaczyna się od próby uwierzenia w nie: żeby zrozumieć jakąś ideę, musisz najpierw wiedzieć, co oznaczałaby jej prawdziwość. Dopiero wtedy decydujesz, czy wierzyć w nią nadal, czy przestać wierzyć. Ta wyjściowa próba uwierzenia jest automatycznym działaniem Systemu 1 polegającym na skonstruowaniu jak najlepszej interpretacji danej sytuacji. Jak twierdzi Gilbert, nawet zdanie bezsensowne w pierwszej chwili budzi wiarę. Weź takie zdanie: „Karasie jedzą cukierki”. Zapewne miałeś świadomość, że w twoim umyśle pojawiają się mgliste idee ryb i cukierków, ponieważ automatyczne procesy pamięci skojarzeniowej zaczęły poszukiwać między oboma ideami związków, które pozwoliłyby odnaleźć sens w bezsensownym stwierdzeniu.
Tak jak to widzi Gilbert, utrata wiary w prawdziwość zdania jest wynikiem działania Systemu 2. Na potwierdzenie tej tezy przedstawił elegancki eksperyment104. Uczestnicy jego badania oglądali bezsensowne stwierdzenia w stylu „dinka to płomień”, a po kilku sekundach pojawiało się jedno słowo: „prawda” albo „fałsz”. Później sprawdzano, czy uczestnicy pamiętają, po których zdaniach pojawiło się słowo „prawda”. W jednej wersji eksperymentu uczestnicy patrzący na pojawiające się stwierdzenia mieli równocześnie przechowywać w pamięci ciągi cyfr. Wywołane tym zakłócenie Systemu 2 działało selektywnie: utrudniało tylko „utratę wiary” w prawdziwość zdań fałszywych. Test wykazał, że uczestnicy, którzy wykonywali zadanie, mając wyczerpane ego, uznawali wiele zdań „fałszywych” za „prawdziwe”. Morał jest znaczący: gdy System 2 jest zajęty, jesteśmy skłonni wierzyć prawie we wszystko. System 1 jest łatwowierny – ma skłonność do przyjmowania rzeczy na wiarę. Wątpieniem i traceniem wiary w prawdziwość zdań zajmuje się System 2, jednak czasami bywa on zajęty, a często leniwy. Istnieją nawet dane sugerujące, że ludzie łatwiej ulegają pustej perswazji – np. w reklamach – kiedy są zmęczeni i mają wyczerpane ego.
Działanie pamięci skojarzeniowej przyczynia się do zjawiska zwanego „efektem potwierdzania” lub „efektem konfirmacji” (confirmation bias). Słysząc pytanie „Czy Sam jest miły?” przypomnisz sobie inne przykłady zachowania Sama, niż gdyby pytanie brzmiało „Czy Sam jest niemiły?”. Także System 2 bada hipotezy tak, że poszukuje takich danych, które pozwoliłyby założoną tezę potwierdzić (nazywamy to „strategią pozytywnego testu”, positive test strategy). Wbrew wskazaniom filozofii nauki, która zaleca, żeby hipotezy sprawdzać, próbując je obalić, ludzie (dość często także naukowcy) poszukują danych, które będą im pasowały do przekonań. Skłonność Systemu 1 do preferowania potwierdzeń sprawia, że łatwiej jest nam bezkrytycznie przyjmować sugestie i za bardzo spodziewamy się zdarzeń ekstremalnych i nieprawdopodobnych. Gdyby cię zapytano, jakie jest prawdopodobieństwo, że w ciągu najbliższych trzydziestu lat Kalifornię nawiedzi tsunami, obrazy, które pojawią się w twoim umyśle, będą zapewne obrazami tsunami, tak jak to widzieliśmy w bezsensownym zdaniu Gilberta „Karasie jedzą cukierki”. Będziesz skłonny przecenić prawdopodobieństwo katastrofy.
Nadmierna spójność emocjonalna (efekt halo)
Jeśli odpowiadają ci poglądy polityczne premiera, zapewne podoba ci się też jego głos i wygląd. Skłonność do lubienia (lub nielubienia) wszystkich aspektów danej osoby – łącznie z tymi, których nawet nie zauważamy – nazywamy „efektem halo” (halo effect), czyli efektem poświaty105. W psychologii ten termin funkcjonuje od stulecia, jednak w mowie potocznej nie wszedł do powszechnego użytku. To wielka szkoda, bo termin „efekt halo” trafnie nazywa często spotykany błąd poznawczy, który w dużym stopniu wpływa na nasze myślenie o ludziach i sytuacjach. Między innymi ten właśnie efekt sprawia, że System 1 generuje model świata znacznie prostszy i spójniejszy od rzeczywistego.
Poznałeś na przyjęciu kobietę imieniem Joanna, która okazała się miłą osobą i ciekawie się wam rozmawiało. Po przyjęciu ktoś wspomina o niej podczas rozmowy o tym, do kogo można się zwrócić o wsparcie organizacji charytatywnej. Co wiesz na temat hojności Joanny? Poprawna odpowiedź brzmi: „w zasadzie nic”, bo nie ma powodu sądzić, że ludzie mili w towarzystwie zarazem hojnie wspierają dobroczynne przedsięwzięcia. Polubiłeś Joannę, więc myśl o niej przyniesie uczucie sympatii. Lubisz też hojność i hojnych ludzi. Za sprawą tego skojarzenia będziesz teraz skłonny sądzić, że Joanna jest hojna. A skoro już dopisałeś hojność do listy jej dobrych cech, zapewne polubisz ją jeszcze bardziej.
W twojej opowieści o Joannie nie ma rzeczywistych dowodów hojności, więc luka zostaje uzupełniona domysłem pasującym do emocjonalnej reakcji na osobę. Z kolei w innych sytuacjach dane o innych ludziach gromadzimy stopniowo, a naszą interpretację kształtują emocje związane z pierwszym wrażeniem. W znanym eksperymencie, który przeszedł do klasyki psychologii, Solomon Asch przedstawił uczestnikom opisy dwóch osób106 i zapytał, co sądzą o ich osobowości. A ty? Co sądzisz o Alanie i Benie?
Alan: inteligentny – pracowity – impulsywny – krytyczny – uparty – zazdrosny
Ben: zazdrosny – uparty – krytyczny – impulsywny – pracowity – inteligentny
Jeśli nie różnisz się od większości ludzi, wyrobiłeś sobie o wiele lepsze zdanie o Alanie niż o Benie. Cechy pojawiające się na liście w pierwszej kolejności zmieniają znaczenie dalszych. U osoby inteligentnej upór zostanie raczej usprawiedliwiony i uznany za uzasadniony, może nawet godny szacunku; jednak inteligencja u osoby zazdrosnej i upartej czyni ją jeszcze bardziej niebezpieczną. Efekt halo to także przykład wytłumiania wieloznaczności: podobnie jak słowo „zamek”, przymiotnik „uparty” jest wieloznaczny i zostanie zinterpretowany tak, żeby w spójny sposób wpisał się w kontekst.
Zjawisko to było badane w wielu pokrewnych eksperymentach. Uczestników jednego z nich poproszono, żeby zastanowili się nad trzema pierwszymi cechami z opisu Alana; następnie mieli się zastanowić nad trzema ostatnimi, przy czym wyjaśniono im, że te należą do innej osoby. Kiedy już uczestnicy wyobrazili sobie obydwie osoby, zapytano ich, czy jest prawdopodobne, żeby jedna osoba łączyła w sobie wszystkie te cechy107. Większość uznała, że jest to niemożliwe!
Kolejność, w jakiej zauważamy cechy osoby, jest często kwestią przypadku. Mimo to jest ona ważna, bo efekt halo sprawia, że pierwszym wrażeniom nadajemy większą wagę – do tego stopnia, że informacje uzyskiwane później zostają kompletnie zmarnowane. Kiedy zaczynałem pracować jako nauczyciel akademicki, prace zaliczeniowe oceniałem konwencjonalnie. Brałem arkusz egzaminacyjny i czytałem dwa wypracowania napisane przez studenta, kolejno przyznając im określoną liczbę punktów. Następnie punkty za oba wypracowania sumowałem, wyliczałem średnią i przechodziłem do arkusza kolejnej osoby. Z czasem zauważyłem, że za oba wypracowania w danym arkuszu wystawiam uderzająco zbieżne oceny. Zacząłem podejrzewać, że wystawiając oceny, pozostaję pod wpływem efektu halo, przez co ocena za pytanie pierwsze wywiera nieproporcjonalny wpływ na ocenę ogólną. Mechanizm był prosty: kiedy za pierwsze wypracowanie przyznałem dużo punktów, w drugim byłem skłonny przymknąć oko na niejasności i brak precyzji. Wydawało mi się to rozsądne. Przecież to niemożliwe, żeby osoba, która tak dobrze sobie poradziła z pierwszym pytaniem, popełniła idiotyczny błąd w drugim! Jednak taki sposób oceniania prac oznacza poważny problem. W sytuacji, kiedy ktoś napisał jedno wypracowanie dobre, a drugie słabe, jego ocena zależała od tego, które przeczytałem w pierwszej kolejności. Studentom zapowiedziałem, że pytania będą punktowane jednakowo, ale nie było to prawdą – pierwsze wpływało na ocenę końcową o wiele silniej niż drugie. Taki stan rzeczy był nie do przyjęcia.
Przyjąłem więc inny sposób oceniania. Zamiast kolejno czytać całe arkusze egzaminacyjne, najpierw czytałem i oceniałem wszystkie odpowiedzi na pierwsze pytanie, a dopiero potem przechodziłem do pytania drugiego. Przyznane punkty zapisywałem w niewidocznym miejscu arkusza, żeby nie wpływały (nawet nieświadomie) na moje wrażenie na temat drugiego wypracowania. Wkrótce po zmianie systemu zauważyłem coś deprymującego: zacząłem o wiele mniej ufać stawianym przez siebie ocenom. Stało się tak dlatego, że teraz często odczuwałem nieznany mi wcześniej dyskomfort. Kiedy byłem rozczarowany czyjąś drugą odpowiedzią i przekręcałem kartkę, żeby na odwrocie arkusza wpisać słabą ocenę, czasami stwierdzałem, że za pytanie pierwsze przyznałem tej samej osobie ocenę maksymalną. Zauważyłem też u siebie pokusę, żeby zmniejszać rozrzut ocen – miałem ochotę zmienić niewpisaną ocenę i trudno mi było przestrzegać prostej zasady, żeby nigdy nie ulegać takiej pokusie. Często zdarzało się, że jedna osoba dostawała bardzo różne oceny za każdą z dwóch odpowiedzi. Taka niekonsekwencja budziła we mnie niepewność i frustrację.
Nie byłem więc już tak zadowolony z wystawianych ocen i podchodziłem do nich bardziej nieufnie, ale miałem poczucie, że to dobry znak – wskazówka, że nowy sposób oceniania jest lepszy. Spójność, która sprawiała mi wcześniej taką przyjemność, była złudzeniem; budziła uczucie łatwości poznawczej, a mój System 2 z lenistwa chętnie przyjmował jej końcową ocenę. Pozwalając, żeby pierwsze pytanie silnie wpływało na ocenę kolejnego, oszczędzałem sobie dysonansu w sytuacji, kiedy ta sama osoba z jednym pytaniem poradziła sobie dobrze, a z drugim źle. Niepokojący rozrzut, który ujawnił nowy sposób oceniania, był czymś realnym: odzwierciedlał zarówno to, że jedno pytanie nie wystarczy do sprawdzenia wiedzy studenta, jak i to, że poprzedni sposób był zawodny.
Próbując ograniczyć efekt halo, przyjąłem procedurę zgodną z ogólną zasadą nakazującą usuwać korelację między błędami. Żeby zrozumieć jej działanie, wyobraź sobie, że dużej grupie pokazujemy słoje wypełnione drobnymi monetami i każemy oszacować, ile monet jest w poszczególnych słojach. Jak wyjaśnia James Surowiecki w bestsellerze The Wisdom of Crowds108 [Mądrość tłumu], pojedyncze osoby radzą sobie z takimi zadaniami bardzo słabo, jednak uśrednione szacunki całej grupy okazują się nadzwyczaj trafne. Część ludzi znacznie przeszacowuje liczbę monet, część niedoszacowuje, ale po uśrednieniu wielu osądów ocena okazuje się dość trafna. Mechanizm jest prosty – wszystkie osoby patrzą na jeden słój, więc wszystkie szacunki będą oparte na tej samej podstawie. Za to błędy jednej osoby będą niezależne od błędów kolejnej, dlatego przy założeniu, że nie dojdzie do jakiegoś systemowego odchylenia wskutek błędów poznawczych, błędy zwykle zmniejszają się do zera. Jednak magia redukcji błędów działa tylko wtedy, gdy obserwacje są niezależne, a błędy nieskorelowane. Jeśli wszyscy obserwatorzy pozostają pod wpływem takiego samego błędu poznawczego, uśrednienie ich oszacowań nie usunie błędu. Kiedy pozwalamy, żeby obserwatorzy wpływali na siebie nawzajem, niejako zmniejszamy rozmiar próby, a tym samym precyzję grupowego szacowania.
Kiedy chcemy uzyskać jak najużyteczniejsze informacje z wielu źródeł, zawsze należy się starać, żeby źródła danych były od siebie niezależne. Taką zasadę przewidują prawidłowe procedury policyjne. Przed złożeniem zeznań świadkowie nie mogą się porozumiewać na temat widzianego zdarzenia. Chodzi nie tylko o uniknięcie zmowy i mataczenia świadków działających w złej wierze, ale też o wyeliminowanie wzajemnego wpływania na siebie przez niezależnych świadków. W zeznaniach świadków, którzy ze sobą rozmawiali o zdarzeniu, pojawiają się zwykle te same błędy poznawcze, przez co maleje ogólna wartość dostarczanych informacji. Mając do dyspozycji wiele źródeł informacji, zawsze warto eliminować źródła dublujące się.
Zasada niezależności ocen (i usuwania korelacji błędów) przekłada się bezpośrednio na sposób prowadzenia spotkań, a więc zajęcia, które zajmują osobom na kierowniczych stanowiskach wiele czasu. Pomocna może tu być prosta zasada: zanim poruszymy jakąś kwestię, każdy uczestnik spotkania powinien krótko spisać własne stanowisko na kartce. Taka procedura pozwala dobrze wykorzystać różnorodność wiedzy i opinii w grupie. Standardowa procedura oparta na otwartej dyskusji nadaje nadmierną wagę opiniom osób, które wypowiadają się na początku oraz mówią asertywnym tonem, przez co pozostali tylko podpisują się pod ich zdaniem.
Istnieje tylko to, co widzimy
Jednym z moich ulubionych wspomnień z pierwszych lat współpracy z Amosem jest komediowa scenka, którą lubił odgrywać. Idealnie naśladując ton jednego ze swoich dawnych profesorów filozofii, Amos powarkiwał po hebrajsku z silnym niemieckim akcentem: „Proszę państwa, proszę sobie raz na zawsze zakonotować prymat jest”. Nigdy nie udało mi się zrozumieć – zresztą Amosowi chyba też nie – co właściwie miał na myśli profesor, jednak każdy żart Amosa zawierał jakąś myśl. Zwrot o „prymacie jest” zawsze przypominał się Amosowi (a z czasem również i mnie), kiedy stykaliśmy się z przedziwną asymetrią, z jaką umysł podchodzi do informacji dostępnych i niedostępnych w danej chwili.
Maszyneria skojarzeniowa ma wpisaną w naturę pewną zasadniczą cechę: podsuwa umysłowi tylko te idee, które wcześniej zostały aktywowane. Informacje, które nie zostały choćby nieświadomie przywołane z pamięci, właściwie mogą nie istnieć. System 1 po mistrzowsku konstruuje jak najlepszą opowieść z aktualnie aktywowanych idei, jednak nie pozwala – a raczej nie potrafi – uwzględnić przy tym informacji, których w danej chwili nie ma.
Miarą sukcesu Systemu 1 jest spójność opowieści, które udaje mu się stworzyć. Ilość i jakość danych, na których opiera się opowieść, jest właściwie bez znaczenia. Kiedy – jak to często bywa – informacji jest mało, System 1 działa jak maszyna do wyciągania pochopnych wniosków. Weźmy takie zdanie: „Czy Mindik będzie dobrą liderką? Jest inteligentna, silna…”. Do głowy szybko przyszła ci odpowiedź – „Tak”. Na podstawie tych bardzo ograniczonych informacji była to najlepsza odpowiedź z możliwych, ale przecież twój umysł za bardzo się pośpieszył. Co by było, gdyby następne dwa przymiotniki brzmiały „skorumpowana i okrutna”?
Zauważ, jak się nie zachował twój umysł, zastanawiając się przez chwilę nad Mindik w roli liderki. Otóż nie wyszedł od pytania: „Co muszę wiedzieć, żeby ocenić czyjś potencjał jako lidera?”. System 1 zabrał się do pracy od razu od pierwszego przymiotnika: inteligencja jest dobra, inteligencja i siła są bardzo dobre. Oto najlepsza opowieść, którą można skonstruować z dwóch przymiotników, i System 1 stworzył ją z wielką łatwością poznawczą. Jeśli pojawią się nowe informacje (np. że Mindik jest skorumpowana), opowieść ulegnie korekcie, jednak nie ma tu żadnego momentu wyczekania ani subiektywnego dyskomfortu, a w dodatku nadal będzie działać silne skrzywienie poznawcze faworyzujące pierwsze wrażenie.
Skoro poszukujący spójności System 1 łączy się z leniwym Systemem 2, należy przypuszczać, że System 2 przyjmuje na wiarę wiele intuicyjnych poglądów ściśle zbliżonych do wrażeń generowanych przez System 1. Oczywiście System 2 jest również zdolny do bardziej systematycznego i starannego badania danych empirycznych, a także ma świadomość, że przed podjęciem decyzji należy sprawdzić cały szereg różnych kwestii – za przykład weźmy kupowanie domu, czyli proces, w którym w przemyślany sposób poszukujemy brakujących informacji. Należy jednak przypuszczać, że System 1 wpływa nawet na te staranniejsze decyzje. Wrażenia przekazywane przez System 1 płyną bez żadnej przerwy.
Wyciąganie pochopnych wniosków na podstawie ograniczonych danych jest tak kluczowe dla zrozumienia myślenia intuicyjnego i tak często pojawia się w tej książce, że będę się hasłowo posługiwał zwrotem „Istnieje tylko to, co widzisz”109. System 1 jest radykalnie niewrażliwy na jakość i ilość informacji, na podstawie których buduje wrażenia i intuicyjne domysły.
W artykule napisanym we współpracy z dwoma doktorantami ze Stanford University Amos opisał badanie o bezpośrednim znaczeniu dla zasady „Istnieje tylko to, co widzisz”. Eksperyment polegał na obserwowaniu reakcji ludzi, którzy otrzymywali jednostronny materiał dowodowy110, mając przy tym świadomość jego jednostronności. Uczestnikom przedstawiano sytuacje prawne następującego rodzaju:
Trzeciego września powód (David Thornton, czterdziestotrzyletni przedstawiciel terenowy związku zawodowego) odwiedził placówkę nr 168 sieci drogerii Thrifty Drug, aby przeprowadzić rutynową kontrolę warunków pracy w sklepie. Niecałe dziesięć minut po jego przybyciu do sklepu do powoda podszedł kierownik sklepu. Zabronił powodowi rozmawiać na terenie sklepu z pracownikami należącymi do związku zawodowego oraz zażądał, żeby powód spotkał się z pracownikami na zapleczu w czasie przerwy. Umowa pomiędzy siecią Thrifty Drug i związkiem zawodowym przewiduje taką możliwość, jednak żaden kierownik sklepu dotychczas z niej nie korzystał. Kiedy powód zaprotestował, kierownik stwierdził, że jeśli powód nie zastosuje się do jego życzenia, będzie musiał opuścić sklep lub zostanie aresztowany. Pan Thornton wyjaśnił, że jeśli nie zakłócało to pracy, zawsze było mu wolno rozmawiać z pracownikami na terenie sklepu nawet do dziesięciu minut, i dodał, że woli zostać aresztowany, niż zmienić procedurę rutynowej wizyty. Kierownik wezwał policję, zgłaszając bezprawne wtargnięcie na teren sklepu. Policjanci zakuli powoda w kajdanki. Po spisaniu powoda i krótkim zatrzymaniu go w komisariacie zarzuty zostały wycofane. Powód pozywa Thrifty Drug za bezprawne aresztowanie.
Oprócz tego ogólnego wprowadzenia, które otrzymali wszyscy uczestnicy badania, różne grupy wysłuchały dodatkowo wystąpień adwokatów stron. Jedni wysłuchali wystąpienia adwokata powoda, który rzecz jasna opisał aresztowanie Davida Thorntona jako próbę zastraszenia związkowców; inni wysłuchali wystąpienia adwokata sieci, który twierdził, że rozmowa z pracownikami zakłóciłaby pracę sklepu, a kierownik postąpił właściwie. Niektórzy uczestnicy badania niczym ława przysięgłych wysłuchali obydwu wystąpień. Mowy adwokatów nie zawierały żadnych nowych i przydatnych informacji, które nie byłyby znane już wcześniej z wprowadzenia.
Uczestnicy badania mieli pełną świadomość struktury badania. Ci z uczestników, którzy wysłuchali argumentów tylko jednej strony, sami mogli bez trudu wymyślić argumenty drugiej strony. Mimo to jednostronne wystąpienia bardzo wyraźnie wpływały na ich orzeczenia. Co więcej, ci z uczestników, którzy wysłuchali tylko jednostronnych wystąpień, przejawiali większą pewność siebie wobec własnych orzeczeń niż ci, którzy wysłuchali obydwu stron. Dokładnie takiego wyniku należałoby się spodziewać, jeśli przekonanie o słuszności własnego zdania bierze się ze spójności opowieści, którą ludzie są w stanie skonstruować z dostępnych informacji. Opowieść jest dobra wtedy, kiedy informacje są spójne, a nie wtedy, kiedy są kompletne. Często bywa wręcz tak, że im mniej wiemy, tym łatwiej jest nam ułożyć sobie wszystko w spójną całość.
Zasada „Istnieje tylko to, co widzisz” ułatwia osiągnięcie spójności i łatwości poznawczej, które sprawiają, że uznajemy zdanie za prawdziwe. Zasada ta tłumaczy naszą umiejętność szybkiego myślenia i radzenia sobie z niepełnymi informacjami w złożonym świecie. W większości przypadków konstruowane przez nas spójne historie są na tyle zbliżone do rzeczywistości, że na ich podstawie możemy podejmować rozsądne działania. Jednak zasada „Istnieje tylko to, co widzisz” pomaga także zrozumieć, skąd bierze się długa lista różnych błędów poznawczych skrzywiających nasze wybory i osądy. Są to m.in.:
→ Przesadna pewność siebie: Jak sugeruje zasada „Istnieje tylko to, co widzisz”, ilość i jakość danych nie ma większego wpływu na subiektywne poczucie pewności siebie. Pewność, że mamy rację, zależy głównie od tego, czy umiemy połączyć to, co widzimy, w spójną opowieść – nawet jeśli widzimy niewiele. Często nie bierzemy pod uwagę, że być może nie znamy jakichś ważnych faktów potrzebnych do trafnego osądu: Istnieje tylko to, co widzisz. Co więcej, nasz system skojarzeniowy zwykle zadowala się spójnym schematem aktywacji i wytłumia wieloznaczność i wątpliwości.
→ Efekt ram interpretacyjnych (framing effect): te same informacje przedstawione na różny sposób mogą często budzić różne emocje w odbiorcach. Zdanie „Szansa przeżycia w miesiąc po operacji wynosi 90 procent” brzmi bardziej uspokajająco niż jej logiczny odpowiednik, „Współczynnik umieralności w ciągu miesiąca od operacji wynosi 10 procent”. Wędliny opisane jako „W 90 procentach wolne od tłuszczu” będą atrakcyjniejsze od wędlin opisanych słowami „Zawartość tłuszczu: 10 procent”. Wyraźnie widać, że obydwa sformułowania są logicznie równoznaczne, ale dana osoba zwykle styka się tylko z jednym z nich, a rzeczy, których nie zauważa, nie istnieją.
→ Ignorowanie wartości bazowej: przypomnijmy sobie Steve’a: porządną, potulną duszyczkę, którą większość ludzi uznaje za bibliotekarza. Opis osobowości Steve’a jest dobitny i wyrazisty, więc choć na pewno masz świadomość, że na świecie jest więcej rolników niż bibliotekarzy, ten statystyczny fakt prawie na pewno nie przyszedł ci do głowy przy zastanawianiu się nad odpowiedzią. Rzeczy, których nie zauważasz, nie istnieją.
Jak rozmawiać o pochopnych wnioskach
„Ona nie ma pojęcia, czy będzie z niego dobry menedżer. Opiera się wyłącznie na efekcie halo, bo wygłosił dobrą prezentację”.
„Spróbujmy się pozbyć korelacji między błędami. Zanim zaczniemy dyskusję, zbierzmy na ten temat odrębne opinie. Niezależne oceny powiedzą nam więcej”.
„Podjęli taką poważną decyzję na podstawie pozytywnego raportu jednej firmy konsultingowej? »Istnieje tylko to, co widzisz«. Chyba nawet nie zdawali sobie sprawy, jak mało mają informacji”.
„Nie chcieli wiedzieć nic więcej, bo to mogłyby im popsuć spójną opowieść. »Istnieje tylko to, co widzisz«”.
104
elegancki eksperyment: Daniel T. Gilbert, Douglas S. Krull i Patrick S. Malone, Unbelieving the Unbelievable: Some Problems in the Rejection of False Information, „Journal of Personality and Social Psychology” 59 (1990), s. 601‒13.
105
W języku polskim funkcjonuje też określenie „efekt aureoli”, będące mechanicznym tłumaczeniem słowa halo (halo to także aureola na obrazach świętych). Jednak angielskie określenie halo jest tu użyte w sensie „poświaty”, tj. lekkiego blasku otaczającego świecący przedmiot, np. księżyc lub uliczną lampę (przyp. tłum.).
106
opisy dwóch osób: Solomon E. Asch, Forming Impressions of Personality, „Journal of Abnormal and Social Psychology” 41 (1946), s. 258‒90.
107
łączyła w sobie wszystkie te cechy: tamże.
108
The Wisdom of Crowds: James Surowiecki, The Wisdom of Crowds (Nowy Jork: Anchor Books, 2005).
109
Po angielsku efekt ten opisuje się skrótem WYSIATI (what you see is all there is – „istnieje tylko to, co widzisz”), który sam Autor opisuje jako dość „nieporęczny”. W języku polskim jest on jeszcze bardziej nieporęczny, dlatego w przekładzie używam pełnego zwrotu (przyp. tłum.).
110
jednostronny materiał dowodowy: Lyle A. Brenner, Derek J. Koehler i Amos Tversky, On the Evaluation of One-Sided Evidence, „Journal of Behavioral Decision Making” 9 (1996), s. 59‒70.