Internet miał być egalitarną przestrzenią wymiany informacji, pozwalającą na nieskrępowane udostępnianie i odbieranie ogromnych zasobów całkiem nowych dla użytkowników informacji i bodźców. A stał się dostarczycielem treści dokładnie zaprogramowanych pod klienta, któremu algorytmy coraz częściej mówią, co ma myśleć i chcieć. Tym, czym fast foody są dla ciała, tym media społecznościowe są dla naszych mózgów. Słodką papką, która rozleniwia i ogłupia
Dlaczego dziś już nie mówi się o surfowaniu w internecie? Bo to, co i jak robimy szczególnie w mediach społecznościowych, mniej przypomina płynięcie z szybką falą – lub czasem wbrew niej – która nas gdzieś tam niesie, a bardziej dryfowanie swoim własnym, przyjemnym strumykiem. Spotify programuje muzykę, jaką chcemy słuchać. Filmweb podpowiada nam filmy dokładnie pod nasz gust. Netflix dobiera nam programy telewizyjne. Wreszcie Facebook – a także coraz bardziej Twitter, Instagram i Snapchat – decydują, jakie treści od znajomych/obserwowanych osób widzimy. Algorytmy ułożone pod nas podają na tacy to, co nas może zainteresować, co nam się podoba i co potencjalnie oburza. Wszystko szybkie, dopasowane do odbiorcy i bezproblemowe.
I super? Nie do końca.
Nowy, bańkowy świat
„Kocham moją bańkę” – tak napisała jedna z moich znajomych na Facebooku, gdy zapytałam, czy 1 sierpnia już pokłócili się z kimś z dalszych czy bliższych znajomych z mediów społecznościowych o Powstanie Warszawskie. Czy miało sens, jak je czcić, czy wypada nosić symbole, nie będąc powstańcem? Posypały się głosy: „Oczywiście, że mam znajomych z innymi poglądami, ale nie kłócę się”, „Nie dyskutuję, bo i po co”, „To nie ma sensu, po co psuć sobie dzień”, „Mój czas i spokój są dla mnie ważniejszymi wartościami niż różnorodność poglądów, szczególnie na polityczne tematy”, „Eliminuję tych, którzy mnie irytują”.
– Podobieństwa się przyciągają. Najchętniej nawiązujemy relacje z ludźmi, którzy są do nas podobni, a związki małżeńskie są wciąż zawierane wśród ludzi z podobnych środowisk. To zjawisko nazywa się homofilią i oczywiście nie jest nowe. Media społecznościowe, w których otaczamy się podobnymi do nas, są naturalnym przedłużeniem tego trendu – tłumaczy dr Dominik Batorski, socjolog badający nowe media. – Ale ewidentnie widać, że właśnie w mediach społecznościowych ta segregacja pod względem zgodności z naszymi poglądami jest szybko i prosto wzmacniana, że trafiamy do takiej własnej „informacyjnej bańki” – dodaje.
Moja dyskusja ze znajomymi na Facebooku z Powstania Warszawskiego szybko zeszła właśnie na tę bańkę, czyli opisaną już trzy lata temu przez Eliego Parisiera koncepcję „filter bubble”. Czasem nazywa się ją też „bąblem facebookowym”. Ta bańka to efekt tego, jak dobieramy sami treści w mediach społecznościowych, ale także jak pomagają nam w tym algorytmy opracowane przez administratorów serwisów. Wybierając ciągle to, co już znamy i lubimy, budujemy sobie sieciowy mikroświat, który jest miły, wspierający i bezkonfliktowy. Taki, który naprawdę łatwo pokochać. I nic dziwnego, bo życie w bańce jest naprawdę miłe. Te wszystkie lajki, wspierające komentarze, te zabawne filmiki znajomych, ich piękne zdjęcia. Jakże uroczo, ciekawie i ogólnie fajnie.
Tak fajnie, że warto jednak by zdrapać odrobinę tej pozłoty i zajrzeć w głąb. Tak właśnie robił choćby wspomniany Parisier. W swojej książce opisywał, że już w 2013 r. Google stosował aż 57 elementów indywidualizujących wyszukiwanie pod konkretnego użytkownika. Od oczywistych, jak rodzaj urządzenia, z którego korzystamy, typ przeglądarki czy historia wyszukiwania, po bardziej zaskakujące – geolokalizację, klikalność w reklamy czy korzystanie z pewnych e-usług.
Jeszcze skuteczniej filtrujące mechanizmy wykorzystuje Facebook. Każdy lajk, każdy komentarz, każdy „share” wpływa na to, co, kogo i jak często widzimy. Serio. Jeżeli, drogi czytelniku, wydaje ci się, że dostajesz do przeczytania, obejrzenia i wysłuchania wszystko, co napiszą twoi znajomi, jesteś w głębokim błędzie. Dostajesz to, co ci zaserwuje algorytm. Oczywiście wszystko po to, by ci się przyjemniej pływało w twojej bańce. Spójrz jeszcze raz krytycznie: na Facebooku ciągle widzisz wpisy tych samych osób, mimo tego że masz teoretycznie kilkuset znajomych. Na Twitterze sypią się polubienia i retweety. Na Tinderze potencjalni partnerzy przynajmniej na pierwszy rzut oka są świetnie dopasowani.
Tak, to właśnie życie w bańce.
Katharine Viner, naczelna „Guardiana”, która bardzo krytycznie pisze o tym, jak silną rolę odegrały korporacje stojące za mediami społecznościowymi (choć sama w nich bryluje i na Twitterze ma aż 165 tys. followersów), w niedawno opublikowanym tekście „Jak technologie zburzyły to, czym jest prawda” tak opisuje to zjawisko:
„Algorytmy, takie jak ten Facebooka, zostały zaprogramowane po to, żeby dawać nam więcej tego, o czym algorytmy myślą, że chcemy. Oznacza to, że wersja świata, z jaką spotykamy się codziennie za pomocą strumieni, w jakich funkcjonujemy, jest w niewidoczny sposób ułożona tak, by wzmacniać nasze obecne przekonania.
Dostawcy tych treści, administratorzy portali społecznościowych, specjaliści od programowania treści dostarczanych np. przez Netflix (serio zatrudniają ludzi od tworzenia odpowiednich tagów i doboru tego, co i w jakiej kolejności pokazuje się konkretnym widzom na głównej stronie serwisu) mają oczywiście jak najbardziej sensowne wytłumaczenie. Liczba danych na świecie podwaja się co dwa lata, produkujemy ich więcej niż przez poprzednie 20 tys. lat naszej historii. Dostęp do informacji już dawno przestał być problemem, teraz problemem jest ich przesianie. Olbrzymia ilość informacji, która dociera do nas każdego dnia, sprawiła, że coraz trudniej uszeregować je według ważności. Nie potrafimy rozróżnić rzeczy istotnych od nieważnych. A więc takie filtrowanie jest tylko na rękę internautom. A przynajmniej powinno być”.
Społeczeństwo grubych umysłów
Owo filtrowanie nie jest niczym nowym. To przecież na odsiewaniu informacyjnego ziarna od plew polega praca mediów. To, co dziś czytelniku dostajesz w naszej gazecie, to decyzja dziennikarzy, którzy tak, a nie inaczej (czyli w oparciu o to, co uznają za ważne i ciekawe) dobrali treści do artykułów, oraz redaktorów, którzy te artykuły zamówili, przyjęli do druku, zredagowali i uszeregowali, czyli zdecydowali, że ten ukazuje się na początku gazety, a inny w jej drugiej części. I które trafią na okładkę. W końcu rolą mediów jest nie tylko opisywanie i objaśnianie rzeczywistości, ale także jej definiowanie. To one decydują, które informacje zasługują na podkreślenie i wzmocnienie, a które są nieistotne.
– Tyle że wybierając daną gazetę czy program telewizyjny, wiemy, że jego kształt to decyzja konkretnych osób. Ufamy, że starali się to zrobić tak, by dostarczyć nam naprawę dobrych i ważnych treści – tłumaczy Bartosz Filip Malinowski z fundacji i serwisu „We the Crowd”, opisującego zmiany w społeczeństwie zachodzące pod wpływem nowych mediów. – Choć wybieramy także media, które pasują do naszego światopoglądu, to jednak nawet w nich możemy trafić na artykuły czy programy, które nas zaskakują i zmuszają do myślenia. Co więcej, przynajmniej teoretycznie, wybierając takie, a nie inne treści, media robią to z ważnego powodu. Aby pokazywać prawdę. Jeżeli w to nie wierzymy, po prostu nie czytamy danej gazety, nie włączamy programu i po sprawie – dodaje Malinowski.
Z mediami społecznościowymi i serwisami 2.0 jest trudniej. Gros ludzi nie tylko nie zdaje sobie sprawy z filtrowania, ale wierzy, że wciąż jest tak, jak w początkach internetu. Są przekonani, że dzięki internetowi omijamy pośredników informacji (czyli dziennikarza i redaktora), a dostajemy bezpośredni dostęp do źródeł. – Od dawna tak nie jest. Filtry są powszechne, ale ja bym tak całkiem nie negował ich pozytywnej roli. To niewątpliwie procesy zautomatyzowane, ale ludzie za nimi stojący starają się je jak najlepiej dopracowywać. Spójrzmy choćby na politykę Facebooka. Za pomocą swojego algorytmu odsiewa nas od nadmiaru reklam i korporacyjnych wpisów – podkreśla Malinowski.
Parisier wskazuje kilka cech „filter buble”, przez które ocenia to zjawisko i jego wpływ na społeczeństwo negatywnie. Po pierwsze, jesteśmy zabańkowywani nieświadomie i uszczęśliwiani bez pytania o zdanie. Gdy decydujemy się na czytanie określonego typu gazet, oglądanie programów telewizyjnych, to wybieramy je świadomie. W sieciowej bańce nie mamy wpływu na to, co dostaniemy. A przynajmniej nie mamy go tak długo, jak sami nie zaczniemy pewnych treści wykluczać. Po drugie, każdy z nas w swojej bańce jest sam. A to dlatego, że nie ma dwóch identycznych algorytmów. W efekcie każdy dostaje – choćby nieznacznie, ale jednak – inny zestaw informacji. Po trzecie wreszcie, kreatywność ma szansę zaistnieć tylko pod wpływem nowych bodźców stymulujących mózg. Gdy dostajemy dokładnie przetrawiony i przefiltrowany e-pokarm, zaczynamy konsumować papkę, która zamiast zwiększać naszą wiedzę i świadomość, tylko nas tuczy i zaspokaja najprostszy głód.
Dyrektor ds. danych z Deutsche Bank J.P. Rangaswami oficjalnie mówi, że „informacje są jak jedzenie”. A najszybciej, najłatwiej i najprzyjemniej konsumuje się fast foody. Zdrowe rzeczy trudniej zdobyć, trzeba je przygotować i nie są aż tak smaczne. Co więc wybierzemy: zabawny filmik z YouTube’a czy długie i męczące trawienie dokumentu o Powstaniu Warszawskim? Lajk wpisu kolegi, któremu udało się przebiec maraton, czy dyskusję o tym, że 500+ spowodowało „najazd hunów” nad polskie morze?
Doktor Danah Boyd, badaczka procesów zachodzących w mediach społecznościowych, która pracuje w laboratoriach Microsoft Research, określa zjawisko wybierania łatwiejszych informacji i treści jako „psychologiczną otyłość”. Jej zdaniem w świecie ciągle powtarzających się treści nie ma nic, co mogłoby nas zaskoczyć. Nie jesteśmy w stanie wyrwać się poza wąskie (nawet jeżeli liczy kilkaset osób) grono internetowych znajomych. Informacyjny bąbel degraduje nas intelektualnie.
Twitter radykałów
Pół biedy, jeśli bańka odcina nas od hejtu, negatywnych sygnałów i trudnych tematów. Gorzej, gdy staje się wzmacniaczem skrajnych poglądów, gdy doprowadza do przekonania, że wszyscy wokół myślą tak jak ja. – Niewątpliwie algorytmy sprzyjają radykalizacji i polaryzacji środowisk o przeciwnych poglądach. W jednym z badań do kilkuosobowej grupy osób o centrowych poglądach wprowadzano jedną myślącą skrajnie. I zamiast oni nakłonić ją do zrównoważenia stanowiska, sami zradykalizowali swoje – opowiada Malinowski.
Efekt: dziś w Stanach Zjednoczonych rekordowo wiele osób odrzuca, wydawać by się mogło, niepodważalne ustalenia nauki: nie uznają ewolucji ani skuteczności szczepionek. W internecie natrafiają na wiele opinii i dowodów potwierdzających prawdziwość ich przekonań. Ruch antyszczepionkowców rozlał się na inne kraje, a wraz z nim wróciły zapomniane choroby, jak np. odra.
Choć zamiast terminu „prawdziwość” powinniśmy użyć innego, który w 2005 r. wprowadził Stephen Colbert (ten amerykański aktor komik, znany jako tatusiek z „Pełnej chaty”). W swoim satyrycznym programie mówił o „truthiness”, czyli po polsku powiedzmy, hm... „prawdowatos´ci” lub „prawdziwatości”. To przekonanie, że prawdziwość pewnych faktów można oceniać nie przez ich realną weryfikację, wyniki badań i analiz, ale przez to, że tak właśnie czujemy. Co nam podpowiada „common sense”, czyli nie tyle prywatny zdrowy rozsadek, ile „zbiorowy, społecznościowy”, oparty na tym, w jakiej społeczności się znajdujemy.
Świetnie ilustruje to badanie przeprowadzone przez dr. Batorskiego i Mikołaja Hnatiuka w 2010 r. – Od stycznia do końca października badaliśmy, jak i z kim komunikują się polscy polityczni blogerzy. W międzyczasie miała miejsce katastrofa smoleńska i to jej wpływ na dynamikę kontaktów pomiędzy blogerami o różnych poglądach sprawdzaliśmy – opowiada Batorski. W badaniu skupiono się na danych z platformy Salon24. – Okazało się, że poważna zmiana pod względem struktury kontaktów dotyczyła części blogerów konserwatywnych, którzy zaczęli się komunikować w swoim gronie. Co więcej, ten brak kontaktu z innymi, którzy mieliby zupełnie inny ogląd sytuacji, utwierdzał ich we własnym zdaniu – tłumaczy socjolog.
Odnosząc się do terminu Colberta, dziś widzimy, że dla zwolenników zamachu smoleńskiego „prawdowatość” ma teoria o trotylu w tupolewie, a dla przeciwników – wizja, że to prezydent Kaczyński kazał lądować mimo złych warunków atmosferycznych. Im bardziej jedni i drudzy otaczają się ludźmi myślącymi jak oni, tym mocniej wierzą w swoją prawdę. Nawet jeżeli docierają do nich sprzeczne informacje, nie powodują zmiany zdania. Wręcz przeciwnie, utwierdzają w nim. Podobnie jest i w innych wzbudzających emocje sprawach. I to na całym świecie. Badania przeprowadzone w 2013 r. na Harvardzie na użytkownikach Twittera, którzy szukają w tym serwisie politycznych treści, pokazały, że nawet jeżeli aktywnie starają się dotrzeć do różnorodnych politycznych opinii (followują polityków, publicystów i dziennikarzy z różnych opcji), to i tak kończą w bąblu, w którym wszyscy zgadzają się ze sobą. Na sprzeciw albo nie zważają, albo „eliminują zakłócających spokój i czas”.
Tylko naprawdę nielicznym twitterowcom udaje się dostać prawdziwie zniuansowany ideologicznie obraz świata. A udaje się, bo inwestują w to sporo czasu i mają naprawdę rozbudowane analityczne kompetencje.
Facebook makdonaldyzuje
Radykalizacja to jedno. Drugie zjawisko, które informacyjny bąbel wzmacnia, to makdonaldyzacja zainteresowań. Nie dość, że pochłaniane przez nas informacje są identyczne, to jeszcze często idiotyczne. Nic bowiem łatwiej nie przedostaje się do naszych baniek jak treści rozrywkowe, plotkarskie, związane z seksem, żartobliwe lub po prostu sweetaśne. Te wszystkie kotki, memy, kolejne biegowe rekordy znajomych, zdjęcia ciast (tak, sama też je robię), wrzucane masowo śmieszne filmiki są jak kolejny słodki, naładowany milionem kalorii shake, którego wypijamy i w ogóle nie czujemy się najedzeni.
Łatwiej dać im lajka niż przeczytać długi wpis o jakimś mniej lub bardziej ważnym zjawisku. Łatwiej uwierzyć i pośmiać się, że po haśle „Brexit” Brytyjczycy najczęściej szukali w Google „Co to jest Unia”, niż doczytać, że owszem, ale tylko w dosyć wąskiej grupie zapytań związanych z Europą. W końcu przecież to tl;dr (nieświadomym tłumaczymy: skrót od „too long; didn’t read”, co oznacza „za długie, nie przeczytałem”).
Jak ta makdonaldyzacja wygląda w praktyce, najlepiej czuję, prowadząc na Facebooku profil mojego bloga „Zrób to sam”. Liczba fanów rośnie, można by się cieszyć, że jest coraz więcej zainteresowanych domowym majsterkowaniem. Ale ten fan page to także ciekawa szansa na obserwację, jak zachowuje się tłum w social mediach. Przykłady? Poważny, informacyjny z dużą dawką wiedzy link do porady, jak odnowić i uratować krzesło z czasów PRL: 13 lajków, dwa komentarze, dwa udostępnienia. Zabawny mem o staniu w kolejce: 159 lajków, 12 komentarzy i 96 udostępnień.
A przecież wydawać by się mogło, że 15 tysięcy fanów, którzy zalajkowali profil, zrobiło to, bo interesują się poradami o renowacji, a nie szukają memów.
I znowu: tak długo, jak ten wybór dotyczy banalnych tematów, nie ma większego problemu. Ale co, gdy idąc za zapachem fast fooda, zaczynamy klikać w fałszywe informacje o uchodźcach, którzy drastycznie zgwałcili kobietę, czy zapisywać się do grupy, której uczestnicy dostają za darmo markowe buty? A tak właśnie działają clickbaity, czyli fałszywki zachęcające do kliknięcia bez zastanowienia. Zaś za tym fałszywym, ostrym newsem czy superokazją kryje się strona zarażająca wirusami, kradnąca dane albo po prostu akcja wynajętych trolli, których zadaniem jest sianie zamętu i podsycanie skrajnych nastrojów.
Nie ma co całej winy zwalać na same algorytmy. W końcu to przecież my sami decydujemy, w co klikamy. – Możemy przynajmniej próbować nie dać się całkowicie pochłonąć takiej mechanicznej personalizacji treści. Musimy tylko zdać sobie sprawę, że to istnieje i zacząć działać wbrew – mówi Malinowski. – Urozmaicać swoje źródła informacji. Przyglądać się treściom, którymi normalnie byśmy się nie zainteresowali, dyskutować ze znajomymi, którzy mają inne poglądy. Poświęcić trochę dobrego samopoczucia, by zmusić mózg do wysiłku.