Читать книгу Nabici w Facebooka - Roger McNamee - Страница 7

Оглавление

PROLOG

Technologia to użyteczny służący, ale niebezpieczny pan.

CHRISTIAN LOUS LANGE

9 listopada 2016 roku

Rosjanie wykorzystali Facebook, by wpłynąć na wynik wyborów!

Tak właśnie zacząłem rozmowę z Danem Rose’em, szefem do spraw współpracy z mediami w firmie Facebook dzień po wyborach prezydenckich w USA. Jeśli nawet zaskoczyła go moja wściekłość, nie dał tego po sobie poznać.

Może parę wyjaśnień. Przez całe życie zajmowałem się inwestowaniem w nowe technologie i głoszeniem dobrej nowiny na ich temat. Technologia to mój zawód i pasja, ale od 2016 roku zacząłem się wycofywać z pełnowymiarowego inwestowania i zacząłem myśleć o emeryturze. Kiedy powstał Facebook, doradzałem jego założycielowi, Markowi Zuckerbergowi – czyli Zuckowi, jak go nazywają współpracownicy i przyjaciele – i sam w niego inwestowałem. Przez całe dziesięciolecie wierzyłem w potencjał Facebooka. Nawet kiedy piszę te słowa, wciąż mam akcje tej firmy. Gdy chodzi o moje własne interesy, nie mam najmniejszych powodów, by atakować Facebook. Nigdy nie przyszłoby mi do głowy, by zacząć go zwalczać. Przypominałem bardziej Jimmy’ego Stewarta z filmu Okno na podwórze Hitchcocka, który zajmuje się własnymi sprawami, spogląda przez okno w salonie i dopiero wtedy dostrzega coś, co wygląda na zbrodnię, i wówczas musi zapytać sam siebie: co dalej? Przez całe życie starałem się podejmować mądre decyzje na podstawie niekompletnych informacji i pewnego dnia na początku 2016 roku zauważyłem niepokojące zmiany na Facebooku. Zacząłem się im bliżej przyglądać i stwierdziłem, że zwiastują katastrofę. Na początku założyłem, że to Facebook jest ofiarą i chciałem tylko ostrzec przyjaciół. Jednak to, czego dowiedziałem się w następnych miesiącach, rozczarowało mnie, a nawet zaszokowało. Zrozumiałem, że zaufałem Facebookowi na wyrost.

Ta książka opowiada o tym, dlaczego wbrew sobie nabrałem przekonania, że chociaż Facebook może dostarczać wspaniałych osobistych wrażeń, to stanowi poważne zagrożenie i musi albo sam się zmienić, albo też trzeba to będzie wymusić. A także o moich związanych z tym działaniach. Mam nadzieję, że opowieść o tym, jak sam się zmieniłem, pomoże innym dostrzec zagrożenie. Ja natomiast postaram się wyjaśnić, co wiem o możliwościach manipulowania informacjami przez platformy internetowe w rodzaju Facebooka. A także, jak to się dzieje, że źli aktorzy mogą wykorzystywać tego rodzaju platformy, by krzywdzić czy nawet zabijać niewinnych ludzi. Jak te platformy poprzez swoje projekty i wybory biznesowe podważają zasady demokracji, unikając jednocześnie odpowiedzialności za to, co robią. Jak stosunki panujące w tych firmach powodują, że ich pracownicy pozostają obojętni na złe skutki uboczne swoich sukcesów. I że nawet kiedy piszę te słowa, nic się w nich nie zmienia na lepsze.

Jest to opowieść o zaufaniu. Platformy internetowe, włączając w to Facebook i Google, są beneficjentami zaufania i dobrej woli, które w ciągu pięćdziesięciu lat wypracowały poprzednie firmy. Wykorzystały one to zaufanie, by za pomocą wyrafinowanych technik żerować na słabościach ludzkiej psychiki, zbierać i wykorzystywać nasze dane osobowe i opracowywać takie modele działania, które nie chronią użytkowników tych platform. Dlatego muszą oni teraz uczyć się ostrożności w stosunku do tego, co uwielbiają, zmieniać swoje zachowania w sieci i nalegać, by te firmy ponosiły odpowiedzialność za skutki swoich wyborów, a także naciskać na decydentów, by zmienili przepisy w celu ochrony interesów publicznych.

Jest to historia przywilejów. Mówi ona o tym, jak ludzie, którzy odnieśli wielki sukces, mogą do tego stopnia skupiać się na własnych celach, że zapominają o prawach innych. Jak to się dzieje, że skądinąd inteligentni ludzie zapominają, że ich klienci mają prawo do samookreślenia. Jak sukces może wywołać nadmierną pewność siebie, która nie pozwala słuchać konstruktywnych rad przyjaciół, nie mówiąc już o krytyce. Jak ciężko pracujący i bardzo produktywni ludzie mogą pozostawać ślepi na konsekwencje tego, co robią, i są gotowi narażać na szwank demokrację w imię własnych przywilejów.

Jest to również opowieść o władzy. Mówi o tym, że ludzie nawet z najlepszymi intencjami mogą wypaczyć najwspanialsze ideały. Wyobraźmy sobie połączenie dzikiego kapitalizmu, wywołującej uzależnienie technologii i autorytarnych wartości oraz bezwzględności i pychy Doliny Krzemowej, które zwalają się na miliardy niczego niepodejrzewających użytkowników Internetu. Myślę, że przyjdzie taka chwila – i to szybciej, niż wyobrażałem sobie dwa lata temu – kiedy ludzie zauważą, że za tym, co dostają od zdominowanych przez Facebook mediów – ta rewolucja, gdy chodzi o gospodarowanie uwagą – kryje się niewyobrażalna katastrofa demokracji, zdrowia publicznego, prywatności i gospodarki. A wcale nie musiało tak być. I trzeba będzie dużego wysiłku, by to zmienić.

Podejrzewam, że kiedy historycy zajmą się tym problemem, będą usprawiedliwiać kiepskie decyzje Zuckerberga i Sheryl Sandberg podejmowane z zespołem. Przynajmniej ja tak na to patrzę. Błędy stanowią część naszego życia, a rozwijanie firmy od malutkiej do takiej o zasięgu światowym stanowi nie lada wyzwanie. Winię jednak Facebook – a jak sądzę, uczyni to też historia – za to, jak firma reagowała na krytykę i świadczące przeciwko niej dowody. Zespół mógł się wykazać i wziąć odpowiedzialność za własne wybory oraz ich katastrofalne rezultaty. Jednak Zuckerberg i Sandberg wybrali inną drogę.

Ta opowieść jeszcze się nie skończyła. Napisałem tę książkę, żeby była przestrogą. Pragnę, by czytelnicy zrozumieli, skąd wziął się obecny kryzys i co można zrobić, żeby go zażegnać. Mam nadzieję, że skorzystają oni z tej okazji. Przede wszystkim chciałbym, żeby zrozumieli, że mogą mieć swój udział w rozwiązaniu tej sytuacji. I że wszyscy się do tego przyczynią.

Bardzo możliwe, że to, co najgorsze, gdy chodzi o Facebook i inne internetowe platformy, już się wydarzyło, choć eksperci byliby raczej innego zdania. Najbardziej prawdopodobne jest to, że technologia i biznesowy model Facebooka i innych podmiotów będą tak długo niszczyły demokrację, zdrowie ludzi, ich prywatność oraz innowacyjność, aż zmiany zostaną wymuszone przez interwencję rządu albo protesty użytkowników.

Na dziesięć dni przed wyborami z listopada 2016 roku wysłałem oficjalny list do Marka Zuckerberga i szefowej operacyjnej Facebooka, Sheryl Sandberg, których uważałem za przyjaciół, by podzielić się obawami, że trolle wykorzystują zarówno strukturę, jak i biznesowe funkcje Facebooka, by wpływać negatywnie na niewinne osoby, a sama firma nie wykorzystuje swego potencjału, by temu zaradzić. Na dwóch stronach wymieniałem różne przypadki sytuacji, których nie spowodowali pracownicy Facebooka, ale ich wystąpienie umożliwiały algorytmy samej platformy, jej model reklamowy, mechanizm automatyzacji, kultura i system wartości. Zwróciłem też uwagę na krzywdy, jakich doznali pracownicy i użytkownicy Facebooka z powodu jego kultury biznesowej i określonych przez firmę celów strategicznych. Treść tego listu zamieszczam jako uzupełnienie na końcu książki.

Mark Zuckerberg stworzył Facebook, by zbliżyć do siebie ludzi na całym świecie. Kiedy go poznałem, nie wiedziałem jeszcze, że jego idealizmu nie równoważą realizm czy empatia. Wydaje się, że założył, iż wszyscy będą korzystać z Facebooka tak jak on i nawet nie przyszło mu do głowy, jak łatwo można wykorzystać tę platformę do siania zamętu. Zuckerberg wcale nie chciał chronić osobistych danych i robił wszystko, by zwiększyć ich jawność i dystrybucję. Tak zarządzał firmą, jakby każdy problem dało się rozwiązać za pomocą lepszych kodów źródłowych lub ich większej liczby. Zaakceptował agresywną inwigilację, beztroskie dzielenie się osobistymi danymi i modyfikacje zachowań na niespotykaną dotąd skalę. To właśnie te działania stanowią podstawę sukcesu Facebooka. Użytkownicy są kołem napędowym rozwoju Facebooka, ale w niektórych przypadkach stają się jego ofiarami..

Kiedy kontaktowałem się z Zuckiem i Sheryl, miałem tylko hipotezę na temat trolli, którzy wykorzystywali Facebook do złych celów. Podejrzewałem też, że przykłady takiej działalności wynikają z błędów systemowych oraz błędów związanych z kulturą firmy. Nie podkreślałem zagrożenia związanego z wyborami prezydenckimi, bo nie wyobrażałem sobie wówczas, żeby można na nie było wpłynąć przez Facebook, i nie chciałem, by firma zbyła moje obawy w wypadku wygranej Hillary Clinton, czego wszyscy się wówczas spodziewali. Pisałem, że Facebook musi naprawić swoje usterki, gdyż inaczej ryzykuje swoje dobre imię i naraża się na utratę zaufania użytkowników. I chociaż sam im nie szkodził, to jednak stał się narzędziem walki, a użytkownicy mieli prawo oczekiwać od niego ochrony.

Tekst ukazał się zaraz po komentarzach redakcji na blogu „Recode”, poświeconemu nowym technologiom. Mój niepokój rósł od 2016 roku i osiągnął szczyt w momencie, kiedy okazało się, że Rosjanie próbowali ingerować w nasze wybory prezydenckie. Bardzo mnie to przeraziło, czemu dałem też wyraz w tym artykule. Moja żona Ann poradziła mi słusznie, żebym wysłał go przed publikacją do Zucka i Sheryl. W początkach Facebooka należałem do licznego grona doradców jego szefa, a także odegrałem pewną rolę przy zatrudnieniu w nim Sheryl. Nie zajmowałem się Facebookiem od 2009 roku, ale byłem jego gorącym zwolennikiem. Mój niewielki wkład w rozwój jednej z największych firm wywodzących się z Doliny Krzemowej stanowił prawdziwie jasny punkt mojej trzydziestoczteroletniej kariery. Ann zauważyła, że jeśli od razu opublikuję artykuł, może to wywołać złe reakcje prasy, przez co Facebookowi trudniej będzie przyjąć moje uwagi. Chodziło mi o to, żeby naprawić sytuację, ale nikogo nie zawstydzać. Nie sądziłem, by Zuck i Sheryl zrobili świadomie coś złego. Wyglądało to raczej na niepożądane skutki podejmowanych w dobrej wierze działań. W ciągu ostatnich siedmiu lat wymieniłem z Zuckiem tylko kilka e-maili, ale częściej kontaktowałem się z Sheryl. Zdarzyło mi się też bardzo im pomóc, więc mogłem mieć nadzieję, że potraktują poważnie moje uwagi. Chodziło mi o to, by oboje zbadali tę sprawę i podjęli odpowiednie kroki w celu naprawienia sytuacji. Mogłem zatem poczekać kilka dni z opublikowaniem artykułu.

Zarówno Zuck, jak i Sheryl odpowiedzieli na mój e-mail w ciągu kilku godzin. Uprzejmie, ale mało merytorycznie. Ich zdaniem przytoczone problemy były anomaliami, którymi firma się już zajęła, ale zaproponowali też, że skontaktują mnie z jedną z ważniejszych osób w firmie. Był to ich bliski współpracownik Dan Rose, z którym osobiście się przyjaźniłem. Rozmawiałem z nim co najmniej dwa razy przed wyborami. Za każdym razem wysłuchał mnie cierpliwie i powtórzył to, co mówili Zuck i Sheryl, z jednym ważnym dodatkiem – Dan zakładał, że Facebook jest platformą, a nie medium, więc nie odpowiada za działania stron trzecich. Jego zdaniem to powinno załatwić całą sprawę.

Dan Rose jest bardzo inteligentny, ale nie odpowiada za politykę Facebooka. Tym zajmuje się sam Mark Zuckerberg. Dan natomiast wykonuje jego polecenia. Dlatego byłoby lepiej, gdybym rozmawiał z samym Zuckiem, ale nie dano mi takiej szansy. Skorzystałem więc z tego, co miałem. Szefowie Facebooka nie chcieli oczywiście, bym upublicznił swoje obawy, a ja z kolei uważałem, że w ten poufny sposób uda mi się więcej osiągnąć. Kiedy rozmawiałem z Danem dzień po wyborach, stało się dla mnie jasne, że nie chce słuchać moich argumentów i traktuje całą sprawę wyłącznie w kategoriach wizerunkowych. Jego zadanie polegało na tym, by mnie uspokoić i oddalić moje obawy. Nie udało mu się to, ale jednak odniósł sukces – nigdy nie opublikowałem tego artykułu. Jak zwykle potraktowałem sprawę z nadmiernym optymizmem, zakładając, że jeśli będę naciskał, to Facebook w końcu zajmie się poważnie tą sprawą.

Dzwoniłem i pisałem do Dana z nadzieją, że firma rozpocznie wewnętrzne dochodzenie. W tym czasie Facebook miał miliard siedemset milionów aktywnych użytkowników. Jego sukces zależał od ich zaufania. Gdyby uznali oni, że firma odpowiada za straty spowodowane przez osoby trzecie żadne legalne środki nie uchroniłyby jej przed katastrofą wizerunkową. Facebook położył wszystko na jednej szali. Uznałem więc, że ma tutaj szansę. Mógłby pójść za przykładem firmy Johnson & Johnson. W 1982 roku w Chicago ktoś dodał truciznę do stojących na półkach sklepowych butelek Tylenolu produkowanego przez tę firmę, a wtedy wycofała ona Tylenol ze wszystkich sklepów i wprowadziła go z powrotem na rynek dopiero w bezpiecznych opakowaniach. Z tego powodu ucierpiały jej bezpośrednie zyski, ale prawdziwą nagrodę stanowił wzrost zaufania klientów. Firma nie ponosiła żadnej odpowiedzialności za to, co się stało. Mogła więc uznać, że są to działania jakiegoś szaleńca. Jednak szefostwo Johnson & Johnson przyjęło, że odpowiada za bezpieczeństwo klientów i podjęło w tym celu odpowiednie kroki. Wydawało mi się więc, że Facebook może zrobić to samo.

Mój problem polegał wówczas między innymi na tym, że nie posiadałem odpowiednich danych, by móc udowodnić, że coś jest nie tak. Towarzyszyło mi tylko takie przeświadczenie, które wynikało z wielu lat pracy w tej branży.

Po raz pierwszy przejąłem się sytuacją Facebooka w lutym 2016 roku w czasie przygotowań do prawyborów prezydenckich. Jako człowiek uzależniony od polityki spędzałem po kilka godzin na czytaniu informacji, a także wpisów na Facebooku, gdzie zauważyłem mnóstwo niepokojących obrazów, którymi dzieliły się osoby w sposób oczywisty związane z kampanią Berniego Sandersa. Były one mizoginiczne i dotyczyły Hillary Clinton. Trudno mi było sobie wyobrazić, by ktoś z ludzi Sandersa mógł na coś takiego pozwolić. Jeszcze bardziej zaniepokoiła mnie szybkość, z jaką rozprzestrzeniały się te posty. Udostępniało je wielu moich znajomych. I codziennie pojawiały się nowe.

Wiedziałem już całkiem sporo o postach na Facebooku. Po pierwsze, gram też w zespole Moonalice i zajmuję się bardzo popularną wśród fanów stroną zespołu na Facebooku. Dlatego te posty nie wyglądały mi na oryginalne. I jak to się stało, że dotarły one do moich znajomych? Jak oni je znaleźli? Grupy na Facebooku nie tworzą się w ciągu jednej nocy. Założyłem, że ktoś musi opłacać reklamy, by moi znajomi dołączyli do tych grup. Tylko po co? Nie potrafiłem odpowiedzieć na te pytania. Te obrazy wciąż nas zalewały, a ja nie potrafiłem przejść nad tym do porządku dziennego.

Zauważyłem też coś jeszcze bardziej niepokojącego. Na przykład w marcu 2016 roku pojawiły się informacje na temat grupy, która wykorzystywała narzędzia Facebooka, by zbierać dane na temat osób, które zainteresowały się ruchem Black Lives Matter, by następnie sprzedać je policji, co wydało mi się niewłaściwe. Facebook zablokował tę grupę, ale dopiero po tym, jak wyrządziła wiele zła. I znowu jakiś troll używał Facebooka w niecnych celach.

W czerwcu 2016 roku obywatele Wielkiej Brytanii zagłosowali za brexitem. Wynik tego głosowania stanowił prawdziwy szok. Badania wskazywały, że przewagą czterech punktów zwyciężą przeciwnicy opuszczenia Unii Europejskiej, ale stało się dokładnie odwrotnie. Nikt nie potrafił zrozumieć tak dużej zmiany, mnie jednak przyszło do głowy możliwe rozwiązanie. A jeśli zawinił tu Facebook? Zwolennicy UE spodziewali się wygranej, gdyż mieli tak doskonały układ z resztą kontynentu i dodatkowo własną walutę. Londyn był niekwestionowanym centrum europejskich finansów, a obywatele Wielkiej Brytanii mogli robić interesy i swobodnie podróżować w granicach Unii. Przesłanie, by pozostać, opierało się na racjonalnych założeniach, ale brakowało mu emocjonalnego wsparcia. Zwolennicy wyjścia oparli się na dwóch bardzo emocjonalnych hasłach. Odwoływali się do nacjonalizmu, winiąc imigrantów za rzeczywiste i wymyślone problemy kraju. Obiecywali też, że dzięki brexitowi uda się zaoszczędzić olbrzymie kwoty, które można będzie przeznaczyć na poprawę opieki zdrowotnej, co pozwalało spojrzeć łagodniej na pierwszy ksenofobiczny argument.

Wynik referendum sprawił, że pojawiła się hipoteza, jakoby Facebook mógł być wykorzystywany przez tych, którzy w swej argumentacji opierają się na strachu czy złości, a nie na neutralnych lub pozytywnych emocjach. Mechanizm reklamowy Facebooka jest zależny od stopnia zaangażowania użytkowników, a to najłatwiej wzbudzić poprzez odwoływanie się do najbardziej podstawowych uczuć. W tym czasie nie wiedziałem jeszcze, że chociaż pozytywne emocje działają podobnie (i dlatego taką popularnością cieszą się posty z kotkami, psiakami czy małymi dziećmi), to jednak nie wszyscy reagują na nie w ten sam sposób. Na przykład niektórzy są zazdrośni. Emocje „mózgu jaszczurki”, takie jak strach czy złość, są bardziej jednoznaczne i działają mocniej na masowych odbiorców. Rozzłoszczona grupa wchłania więcej informacji i częściej się nimi dzieli. Facebook nie ceni obojętnych użytkowników i dlatego tak bardzo stara się pobudzać ich gadzie instynkty. Firma wykorzystywała inwigilację, żeby stworzyć dokładne profile swoich odbiorców i dostarczyć im ich własny Truman Show, podobny do tego z filmu, w którym bohater grany przez Jima Carreya przeżył całe swoje życie jako gwiazda własnego telewizyjnego programu. Facebook zaczyna więc dawać użytkownikom „to, czego chcą”, wykorzystując jednocześnie algorytmy, które będą ich popychały w stronę, o której decyduje sama firma. Algorytmy wybierają takie posty, które podnoszą emocje, bo osoba wzburzona albo przestraszona spędzi w sieci więcej czasu. Tego rodzaju reakcje Facebook nazywa „zaangażowaniem”, ale tak naprawdę chodzi o modyfikację zachowań użytkowników, tak aby ułatwić sobie reklamę. Żałuję, że nie rozumiałem tego w 2016 roku. Kiedy piszę te słowa, Facebook, mimo że istnieje zaledwie od piętnastu lat, jest czwartą co do wartości firmą w Ameryce, co zawdzięcza mistrzowskiej formie inwigilacji i umiejętności modelowania zachowań użytkowników w sieci.

Kiedy po raz pierwszy pojawia się jakaś nowa technologia, zaskakuje nas jak magiczna sztuczka. Nadajemy jej specjalne znaczenie i traktujemy jak nowo narodzone dziecko. Najpopularniejsze produkty wykorzystujące jej zdobycze wpasowują się stopniowo w naszą codzienność. Szybko też zapominamy, jak wyglądało nasze wcześniejsze życie. Większość z nas „zintegrowała się” ze smartfonami czy platformami internetowymi, takimi jak Facebook czy Google. Korzyści z tym związane są tak duże, że trudno nam sobie wyobrazić, iż moglibyśmy się bez nich obejść. Mniej oczywiste jest to, jak te produkty nas zmieniają. Proces ten powtarza się w kolejnych generacjach, poczynając od telefonu, poprzez radio, telewizję, aż po komputery osobiste. Do plusów należy to, że technologia otwiera nam świat i daje dostęp do wiedzy, która była nieosiągalna dla wcześniejszych pokoleń. Dzięki niej stworzyliśmy wspaniałe rzeczy. Ale wiąże się z tym pewien koszt. Poczynając od telewizji, technologia zmieniała nasz model zaangażowania społecznego, zastępując postawy obywatelskie bierną konsumpcją treści i idei, zaś żywy dialog wyparła komunikacja cyfrowa. Powoli i niezauważalnie zmienialiśmy się z obywateli w konsumentów. Obywatel jest aktywny, konsument już nie. Ta przemiana, która trwała ponad pięćdziesiąt lat, przyspieszyła znacznie pod wpływem platform internetowych. Byliśmy przygotowani na ich dobrodziejstwa, ale nie ciemne strony. Niestety, to samo można powiedzieć o czołowych firmach z Doliny Krzemowej, których wynalazki umożliwiły te wszystkie zmiany.

Jeśli ktoś, tak jak ja, wspiera demokrację, powinien się w tej chwili przerazić. Facebook stał się poważnym źródłem informacji w większości demokratycznych krajów. W dużym stopniu stanowi też pole wymiany doświadczeń, tworzenia opinii i przedwyborczych debat w tych krajach. Ale Facebook to więcej niż forum. Jest to nastawiony na zyski biznes kontrolowany przez jedną osobę. Jest to olbrzymia sztuczna inteligencja, która ma wpływ na wszelkie aspekty – zarówno polityczne, jak i inne – działalności swoich użytkowników. Nawet mało istotne decyzje na Facebooku niosą się echem po stworzonej przez firmę przestrzeni publicznej, wpływając na ludzi, których one dotyczą. To, że użytkownicy nie są tego świadomi, wzmacnia jeszcze ten efekt. A jeśli Facebook wspomaga kontrowersyjne kampanie, cierpi na tym demokracja.

W sierpniu 2016 roku dowiedzieliśmy się o kolejnych bulwersujących sprawach. Raporty prasowe potwierdziły, że to Rosjanie stali za hakerskimi włamaniami do serwerów Krajowego Komitetu Partii Demokratycznej (DNC) i Komitetu Wyborczego do Kongresu Partii Demokratycznej (DCCC). E-maile wykradzione z DNC rozpowszechniał WikiLeaks, co uderzyło w kampanię Hillary Clinton. Przewodniczący DCCC prosił republikanów, żeby nie wykorzystywali wykradzionych danych w kampanii do Kongresu. Zastanawiam się, czy Rosjanie nie odegrali też jakiejś roli we wcześniejszych działaniach Facebooka, które tak mnie zaniepokoiły.

Tuż przed tym, jak napisałem mój artykuł, ProPublica ujawniła, że mechanizm reklamowy Facebooka umożliwiał właścicielom nieruchomości dyskryminację rasową, co stoi w sprzeczności z ustawą o równym dostępie do mieszkań (Fair Housing Act). Badał to Urząd Mieszkalnictwa i Rozwoju Miast (The United States Department of Housing and Urban Development), ale zamknął dochodzenie, które otworzył ponownie w kwietniu 2018 roku. I znowu struktura i model biznesowy Facebooka pozwalały trollom na to, by krzywdzić niewinnych.

Podobnie jak Jimmy Stewart w filmie, nie miałem odpowiednich informacji i danych, by zrozumieć wszystko, co widziałem, dlatego starałem się dowiedzieć jak najwięcej. W czasie kolejnych dni i tygodni po wyborach Dan wykazywał w stosunku do mnie niezwykłą cierpliwość. Zachęcał, bym przedstawił mu więcej dowodów na szkodliwość Facebooka, co robiłem. Niczego to nie zmieniało. Dan nie ustępował. W lutym 2017 roku, ponad trzy miesiące po wyborach, uznałem w końcu, że nie da się go przekonać. Potrzebowałem innej strategii. Facebook wciąż stanowił oczywiste zagrożenie dla demokracji. Te same narzędzia, które przyniosły mu popularność wśród reklamodawców, mogły zostać wykorzystane w szkodliwych celach. W dodatku z dnia na dzień rósł w siłę. Sztuczna inteligencja Facebooka wiedziała coraz więcej o użytkownikach tej platformy. Jego algorytmy radziły sobie coraz lepiej z manipulowaniem ich emocjami. Wciąż doskonalił się też mechanizm reklamowy. W niewłaściwych rękach Facebook mógł stawać się coraz potężniejszą bronią. A wielkimi krokami zbliżały się prawybory z 2018 roku.

Jednak wyglądało na to, że żadna z osób, które mogły zmienić tę sytuację, nie widziała zagrożenia. Na początku 2017 roku okazało się, że politycy, którzy prowadzili kampanię Trumpa, byli powiązani z członkami rosyjskiego rządu. Pojawiły się szczegóły dotyczące spotkania w czerwcu 2016 w Trump Tower między ludźmi Trumpa a podejrzanymi o szpiegostwo Rosjanami. Kongres powołał komisję dochodzeniową, która miała zbadać tę sprawę.

Jednak wciąż nikt oficjalnie nie wyraził zaniepokojenia rolą, jaką odegrały media społecznościowe, a zwłaszcza Facebook, w wyborach z 2016 roku. Każdy dzień bez dochodzenia w tej sprawie wzmagał możliwość kolejnych interwencji. Jeśli ktoś nie zadziałałby odpowiednio szybko, procesy demokratyczne w naszym kraju mogły zostać zniszczone przez siły zewnętrzne. Celem ataku mogły stać się prawybory z 2018 roku i to na skalę większą niż w 2016. Nasza konstytucja uwzględnia wiele zagrożeń, ale nie takie, że obcy kraj bez żadnych konsekwencji będzie mógł ingerować w nasze wybory. Nie mogłem się spokojnie temu przyglądać. Potrzebowałem pomocy i musiałem mieć jakiś plan, choć kolejność mogła być inna.

Zapraszamy do zakupu pełnej wersji książki

Nabici w Facebooka

Подняться наверх