Właściciel Facebooka sam przyznał sobie prawo, by decydować, co jest moralne w zależności od sytuacji.

Myślicie, że dla mnie to tylko źródło dochodu? To dla mnie całe życie. Moja dusza. Rzecz, z którą zasypiam i się budzę od pięciu jeb… lat” – słowa pochlipującej przed kamerką internetową rosyjskiej instagramerki obiegły w ubiegły weekend cały świat. Dziewczyna emocjonalnie żegnała się z fanami po tym, jak Rosja ogłosiła blokadę Instagrama. Medium zostało oficjalnie zablokowane na terenie Federacji od 14 marca. Dla rosyjskiego rynku to wstrząs. Instagram to drugie najważniejsze medium społecznościowe w tym kraju – w 2021 r. miał 68 mln użytkowników i 135 mln publikacji miesięcznie. Służył nie tylko jako miejsce lansu internetowych gwiazdek, lecz przede wszystkim jako podstawowy kanał komunikacji dla wielu lokalnych biznesów.
Warto podkreślić, że o ile Facebook czy WhatsApp mają lokalne odpowiedniki – serwis VKontakte i Telegram, o tyle Instagram nie ma rosyjskiego konkurenta, więc używające go organizacje odchodzą z niego w internetową próżnię.
Dlaczego Rosja zdecydowała się kompletnie zablokować serwis? I to w ekspresowym tempie – na wykonanie kopii zapasowych swoich danych i poinformowanie użytkowników, gdzie teraz zamierzają działać, instagramerzy dostali 48 godzin. To pokłosie wiadomości, jakie spółka Meta – właściciel Facebooka, Instagrama oraz komunikatora WhatsApp – wysyłała do swoich moderatorów. W piątek, 11 marca, informacje o nich opublikowała Agencja Reutera. W rekomendacjach dla osób odpowiadających za kontrolowanie publikowanych treści miała znaleźć się informacja, by czasowo nie usuwać tych, które dotychczas były traktowane jako naruszające standardy społeczności. Chodziło np. o nawoływanie do zamordowania Władimira Putina albo Aleksandra Łukaszenki, a także o werbalną przemoc wobec rosyjskich żołnierzy i Rosjan w ogóle.
Blokada dla Instagrama (Facebook został wyłączony już wcześniej) to niejedyne kroki podjęte przez Rosjan. Uznali oni zapowiedź zmian w moderacji za tak poważny krok, że Komitet Śledczy Federacji Rosyjskiej wszczął postępowanie karne wobec pracowników Meta, a Biuro Prokuratora Generalnego wezwało do uznania firmy za organizację ekstremistyczną i zakazania jej działalności w Rosji. Akceptacja dla mowy nienawiści wobec żołnierzy Federacji to przestępstwo ujęte w tamtejszym kodeksie karnym. „Takie działania kierownictwa spółki nie tylko tworzą pogląd, że działalność terrorystyczna jest dozwolona, lecz także mają na celu podżeganie do nienawiści i wrogości wobec obywateli Federacji Rosyjskiej” – stwierdziła prokuratura.
Trudno się (nie) zgodzić
Na wieść o e-mailach do moderatorów zareagowała też ambasada Rosji w Waszyngtonie. „Żądamy, aby władze powstrzymały ekstremistyczne działania podejmowane przez Meta i podjęły wysiłki, by postawić sprawców przed wymiarem sprawiedliwości” – napisali na Twitterze dyplomaci i dodali: „Użytkownicy Facebooka i Instagrama nie dali właścicielom tych platform prawa do determinowania kryteriów prawdy i podjudzania narodów przeciwko sobie”. I choć w całej sytuacji inwazji na Ukrainę trudno przyznawać rację Rosjanom, to ostatnie zdanie warto jednak rozważyć. Na fali wojennego wzmożenia firma faktycznie przyznała sobie prawo, by decydować, co w danych okolicznościach jest moralne i dopuszczalne, a co nie.
– W pierwszym odruchu można spółce przyklasnąć, w końcu trwa wojna, w której Rosja jest agresorem. Jeśli się jednak zastanowić nad długofalowymi konsekwencjami takiego kroku, to trzeba uznać, że jest on co najmniej niepokojący – przekonuje dr Konrad Bocian, psycholog z Uniwersytetu SWPS, który naukowo zajmuje się mechanizmami leżącymi u podstaw wydawania sądów moralnych. – Meta pokazała, że można naginać standardy w zależności od okoliczności. I że to ona dyktuje, jakie warunki muszą zaistnieć, żeby można było szerzyć mowę nienawiści – dodaje.
Życzyć śmierci Putinowi mogły osoby postujące z Polski, Armenii, Azerbejdżanu, Estonii, Gruzji, Węgier, Łotwy, Litwy, Rumunii, Słowacji, Ukrainy oraz Rosji. Można było także podżegać do przemocy przeciwko Rosjanom, jeśli post był osadzony w kontekście wojny. Jak tłumaczyli w oficjalnym oświadczeniu przedstawiciele firmy, chodziło o to, by zagwarantować swobodę wypowiedzi osobom dotkniętym przez konflikt.
Meta nie po raz pierwszy dopuszcza publikowanie przemocowych treści. Podobny wyjątek wprowadzono w lipcu 2021 r. dla Irańczyków. Kiedy trwały protesty przeciwko władzy ajatollahów, uczestnicy dokumentowali je w mediach społecznościowych. Początkowo moderacja Instagrama usuwała najbardziej agresywne posty, w których można było usłyszeć powtarzane przez tłum wezwanie „śmierć Chameneiemu”. Po interwencjach aktywistów dopuszczono jednak umieszczanie takich materiałów. Tłumaczono wówczas, że to konkretne hasło nie jest de facto wezwaniem do zabicia przywódcy Iranu, ale lokalną specyfiką, wyrazem sprzeciwu wobec władzy.
Sprawa nie odbiła się tak szerokim echem jak wydarzenia w Rosji, bo Facebook i Instagram są tam już od lat nielegalne, a Irańczycy korzystają z nich tylko dzięki specjalnemu oprogramowaniu VPN. Pozwala ono ukrywać faktyczną lokalizację urządzenia łączącego się z internetem.
Zyski i wpływy
Zdaniem dr. Konrada Bociana to, że prywatna spółka decyduje, kiedy i w stosunku do kogo możemy zachowywać się agresywnie, jest patologią. – Zwłaszcza że nie robi tego w oparciu o konkretne wartości, np. moralne, ale decyduje arbitralnie. Jednego dnia coś jest zabronione przez regulamin usługi, lecz kiedy zaistnieją specyficzne okoliczności – o których uznaniu też decyduje spółka – zaczyna być dozwolone. Trzeba mieć na uwadze, że Meta to firma, a zatem jej głównym celem jest zarabianie pieniędzy i dbanie o interes akcjonariuszy. Wystarczy przyjrzeć się nowym wartościom firmy: „działaj szybko”, „skup się na celach długoterminowych”, „buduj wspaniałe rzeczy”. A treści przemocowe, czyli nacechowane silnymi emocjami, są jednymi z najbardziej angażujących w mediach społecznościowych. Spółce opłaca się je dopuszczać – ocenia psycholog i przekonuje, że agresywne wezwania na Facebooku i Instagramie mogą mieć doniosłe skutki w realnym życiu. – Agresja słowna budzi agresję w rzeczywistości. Jeśli więc w niedługim czasie będziemy mieć do czynienia np. z samosądami na Rosjanach mieszkających za granicą, Meta będzie za to po części odpowiedzialna – dodaje i przypomina, że przykład tego, jak tragicznie może skończyć się nakręcanie spirali przemocy w internecie, mieliśmy w Polsce trzy lata temu, kiedy został zamordowany prezydent Gdańska Paweł Adamowicz.
Propagowanie przemocy przy użyciu mediów społecznościowych już zresztą wpędziło Meta w kłopoty. W grudniu 2021 r. pełnomocnicy mjanmarskich muzułmanów z plemienia Rohingja ogłosili, że będą się domagać od Facebooka astronomicznego odszkodowania – 150 mld dol. Ich zdaniem niedostateczna moderacja treści na platformie przyczyniła się do rozpętania kampanii nienawiści wobec tej grupy etnicznej i śmierci 10 tys. jej członków w 2017 r. Prawnicy uważają, że Facebook przymykał oko na propagowanie nienawiści wobec Rohingja, bo takie treści „robiły mu zasięgi”. I że algorytmy Facebooka wzmacniały mowę nienawiści, a sama firma nie zapewniła znających lokalną specyfikę moderatorów i factcheckerów, przez co nie usuwano postów podżegających do przemocy ani nie zablokowano zachęcających do niej kont i grup. „Firma była gotowa wymienić życie ludu Rohingja za lepszą penetrację rynku w małym kraju w Azji Południowo-Wschodniej” – napisali prawnicy, cytując przy tym przykłady nienawistnych postów, które nie były usuwane z platformy.
Firma się przygląda
Wróćmy jednak do bieżących wydarzeń. Nową politykę amerykańskiego giganta potępił Stéphane Dujarric, rzecznik prasowy sekretarza generalnego ONZ. – Wyraźnie sprzeciwiamy się wszelkiej mowie nienawiści, wszelkim wezwaniom do przemocy. Ten rodzaj języka jest po prostu nie do przyjęcia bez względu na to, kto go używa – powiedział w czasie konferencji prasowej.
Do połajanek doszły też wyliczenia finansowe. Dave Wehner, dyrektor finansowy Meta, poinformował, że spółka traci na rosyjskiej blokadzie 4,7 mln dol. dziennie. Rosja miała 1,5 proc. udziału w jej przychodach reklamowych. Przedstawiciele Meta niemal natychmiast zaczęli wycofywać się z przekazanych pracownikom w e-mailach decyzji. Jeszcze tego samego dnia, kiedy wypłynęła informacja o nich, prezes spółki ds. globalnych Nick Clegg wydał oświadczenie. Według niego przemocowe treści mogą zamieszczać tylko Ukraińcy. Nie ma też mowy o dopuszczaniu hejtu na zwykłych Rosjan. „Będziemy przyglądali się sytuacji w najbliższym czasie” – napisał Clegg. Prezes nie wspomniał jednak, czy firma wyciągnie z tej sytuacji lekcję, np. wprowadzi jasne i stałe kryteria postępowania wobec mowy nienawiści. Oznacza to, że platforma społecznościowa w przyszłości ponownie będzie mogła arbitralnie zdecydować, wobec kogo i kiedy dopuścić agresywne treści.
Kiedy Mark Zuckerberg zakładał na Harvardzie portal do porównywania zdjęć koleżanek ze studiów, nie mógł przypuszczać, że w ciągu kilkunastu lat jego narzędzie będzie używane przez co trzeciego człowieka na świecie i będzie kształtować nastroje społeczne w Mjanmie czy Ukrainie. Zwiększanie wpływu nie poszło w parze z doprecyzowaniem zasad, jakimi mają się kierować media społecznościowe. Jak zauważyła w rozmowie z portalem Vice Jilian York z walczącej o prawa obywatelskie Electronic Frontier Foundation, Facebook po prostu nie radzi sobie z problemami na styku wolności wypowiedzi i polityki. Z tym problemem trzeba się zmierzyć, a będąc po prostu zachodnią firmą, nie można grać na nutach obiektywizmu i niezaangażowania. W świecie pełnym konfliktów coraz częściej będą to fałszywe tony. ©℗