Giganci technologiczni nie mogą dłużej sami siebie nadzorować. Ale kto i jak narzuci im ograniczenia?

Chociaż internet cieszy się ogromną swobodą, to usunięcie po zamieszkach na Kapitolu kont Donalda Trumpa na Twitterze, Facebooku oraz YT sprowokowało publiczną debatę o granicach władzy firm działających w sieci. „Fakt, że konta urzędującego prezydenta USA zostały trwale usunięte na podstawie niejasnych kryteriów i bez kontroli, może zagrażać wolności słowa. Choć podżeganie przez niego do przemocy wymagało odpowiedzi, jest jasne, że sieć nie może tak dalej działać” – pisze dla DGP wiceszefowa Komisji Europejskiej Věra Jourová, odpowiedzialna za praworządność.
„Potrzebujemy większej jasności co do zasad, jakimi kierują się internetowe platformy oraz sposobu, w jaki wdrażają te zasady. Musi stać się jasne, jakie powody stoją za ich decyzjami. Potrzebujemy mechanizmów, które umożliwią użytkownikom kwestionowanie tych decyzji. Do tej pory współpracowaliśmy z platformami na zasadach samoregulacji, ale przyniosło to ograniczone rezultaty. Musimy przejść do współregulacji, stawiając na ścisły i skuteczny nadzór. Platformy nie mogą same siebie nadzorować” – podkreśla.
Odwieczny dylemat
Ale jak pogodzić wolność wypowiedzi z usuwaniem kłamliwych, nielegalnych czy szkodliwych treści?
– Wyrzucenie Trumpa ze społecznościówek dobrze obrazuje ten problem: jedni mają do platform pretensje, że stało się to za późno, zaś drudzy zarzucają im cenzurę. Wyważenie między tymi wartościami jest bardzo trudne, nie ma przy tym uniwersalnego rozwiązania, więc każda sprawa wymaga indywidualnego rozstrzygnięcia – mówi Krzysztof Izdebski, dyrektor programowy Fundacji ePaństwo. – A przecież treści rozpowszechniane przez media społecznościowe potrafią czasem powodować poważne, a niekiedy wręcz tragiczne skutki. Parę lat temu Facebook nie zapobiegł mowie nienawiści w Birmie/Mjanmie i doszło tam do czystek etnicznych (pisaliśmy o tym w Magazynie DGP 22 września 2017 r. w tekście pt. „Żywe legendy tracą niewinność” – red.) – wskazuje.
Dorota Głowacka z Fundacji Panoptykon uważa, że te dwie wartości – wolność i ochrona – nie są sprzeczne. – Sieć, w której szanowana jest wolność słowa, nie oznacza przyzwolenia na mowę nienawiści, hejt, promocję przemocy – mówi. – Bez wątpienia platformy są bardzo ważnym ogniwem w walce z tego rodzaju naruszeniami. Ale równie ważne jest, aby przy okazji nie znikały rzeczy legalne i wartościowe. Do rozwiązania problemu może nas przybliżyć wprowadzenie mechanizmów, które zmniejszą arbitralność decyzji o usuwaniu treści przez platformy internetowe, dając użytkownikom możliwość ich zweryfikowania i poddania kontroli – stwierdza. Dodaje, że jeśli takie rozwiązania zostałyby wdrożone zgodnie ze standardami wypracowanymi przez środowisko ochrony praw cyfrowych, nie powinno to utrudnić walki z nielegalnymi treściami. – To wzmocni ochronę przed dyskryminacją w sieci. Są badania, które wskazują, że grupy szczególnie narażone na hejt to często te same środowiska, które padają ofiarą cenzury przez same platformy (prywatna cenzura), np. społeczność LGBT – wskazuje Głowacka.
Łukasz Olejnik, doradca ds. cyberbezpieczeństwa, uważa, że narzucenie dużym platform technologicznych regulacji to jedno z kluczowych wyzwań tej dekady. – Podejrzenie, że platformy technologiczne powoli przyswajają sobie, albo chcą to zrobić, prerogatywy zwykle związane z władzą państw, jest prowokacyjne. Ale w środowisku analityków krążą żarty, jakoby pewne firmy pragnęły dla siebie miejsca w ONZ – mówi. Ale w jego ocenie debata nad uregulowaniem internetu nie idzie w dobrym kierunku. – Podczas gdy w Polsce wypowiadane są życzenia, by w mniejszym stopniu blokować treści, w innych państwach politycy i rządy życzą sobie, by blokowania było więcej – komentuje.
Unia ma projekty
Dlaczego więc nie przyjąć rozwiązania na poziomie europejskim? Brukselscy urzędnicy o problemie zbyt dużej swobody gigantów technologicznych mówią od dawna. Wspólnota doszła nawet do konkretnych propozycji legislacyjnych – to Digital Services Act (DSA) i Digital Market Act (DMA), które określa się jako Kodeks usług cyfrowych. Oba akty mają nie tylko umożliwić większą kontrolę nad tym, jaki wpływ na społeczeństwo mają cyfrowi giganci, lecz także ograniczyć blokowanie przez nie konkurencji na rynku. Ponadto na ten rok Bruksela zapowiada Europejski plan działania na rzecz demokracji – z elementami walki z dezinformacją.
„Po pierwsze, potrzebujemy surowszych przepisów, aby zapewnić, że wpływ platform na debatę publiczną podlega jasnym zasadom, jest przejrzysty i odpowiedzialny. Dlatego zaproponowaliśmy Digital Services Act” – tłumaczy Jourová. Po drugie, konieczny jest jej zdaniem pakt przeciwko dezinformacji. Wiceprzewodnicząca KE uważa, że firmy powinny „przestać strzelać z biodra”, czyli działać pochopnie oraz iść na łatwiznę, i stać się częścią przewidywalnego i przejrzystego systemu. „Nie możemy jednak skupiać się na samych platformach. Musimy też dostosować naszą edukację do rzeczywistości cyfrowej. Wszyscy powinniśmy stać się bardziej piśmienni cyfrowo, zrozumieć podstawy tego, co dzieje się w internecie i dlaczego widzimy określone treści. Pozwoli nam to bezpiecznie poruszać się po sieci” – dodaje.
– Digital Services Act (o usługach cyfrowych) reguluje zasady odpowiedzialności platform za treść i wprowadza podstawowe zasady przejrzystości targetowania reklam oraz algorytmów wykorzystywanych do rekomendacji treści. Przepisy poświęcone zasadom moderacji treści – choć w kilku miejscach wymagają doprecyzowania – dają realną szansę na ograniczenie arbitralności decyzji platform – ocenia Karolina Iwańska z Fundacji Panoptykon.
– DSA pozwala zostawić rozstrzyganie tych kwestii niezależnym organom, a kontrolę ich działań sądom. I mimo że sądy są zawalone sprawami, niczego lepszego ludzkość nie wymyśliła – mówi Krzysztof Izdebski. Jego zdaniem takie rozwiązanie powinno być na rękę serwisom społecznościowym. – Ich właścicielom nie zależy na uprawnieniach do moderowania treści ani na tym, by podejmować decyzje o blokowaniu użytkowników. One zarabiają na naszych danych, nie na rozstrzyganiu zagadnień etycznych. Regulacje w tej sferze zrzucą z nich odpowiedzialność i nikt nie będzie miał pretensji do serwisu, że usunął konto albo że go nie usunął – stwierdza. – Swoją drogą, wymyślając serwis do oceny atrakcyjności studentek, Mark Zuckerberg nie mógł się spodziewać, że posłuży on do ataku na Kapitol. Jak Frankenstein, stworzył potwora – podkreśla.
Karolina Iwańska zaznacza, że unijny projekt regulujący zasady targetowania reklam jest jednak zbyt ogólny i zachowawczy. – Przejrzystość tych procesów jest niezbędna do wykrywania nadużyć i kontrolowania platform. Tymczasem wymogi, które platformom stawia Komisja, pozostawiają im zbyt szerokie pole interpretacji, a więc istnieje ryzyko, że najbardziej kontrowersyjne praktyki pozostaną ukryte, a treści nadal będą dobierane do użytkowników nie pod kątem ich preferencji czy interesu społecznego, ale pod kątem interesów reklamodawców – argumentuje.
Większy potencjał zmiany reguł gry widzi w Digital Markets Act (o rynkach cyfrowych). – Komisja proponuje konkretne obowiązki i zakazy dla platform, które stały się strażnikami dostępu, czyli nie dopuszczają na rynek konkurencji. Kilka z nich ma naprawdę rewolucyjny potencjał, np. zakaz łączenia danych z różnych źródeł może bardzo utrudnić Google’owi czy Facebookowi tworzenie głębokich profili użytkowników i oferowanie ich reklamodawcom – uważa.
Problem jednak w tym, że na regulacje UE możemy poczekać kilka ładnych lat, tymczasem wiele rządów chce działać natychmiast. Własne przepisy zamierzają wprowadzić Niemcy, Francja, Polska czy Austria. – A to tylko doprowadzi do fragmentacji, a nawet potencjalnie nacisków na przyszły kształt Digital Services Act. Bo jeśli w części krajów już istniałyby pewne zasady, to kraje te pragnęłyby ich przeniesienia na ogólne regulacje UE – zauważa Łukasz Olejnik.
W jego ocenie główną osią debaty winna być kwestia zagrożeń systemowych. – Platformy posiadają infrastruktury do reklam internetowych i to właśnie one służyły – i mogą służyć – do dezinformacji i wpływu na wybory i społeczeństwa. Stosowanie tych platform w kampaniach wyborczych widzieliśmy także u nas – podkreśla ekspert. Nadużycia takie były możliwe, bo duże platformy nie badały ryzyka użycia własnych technologii, a więc konsekwencji, jakie mogą przynieść ich usługi. – Można podejrzewać, że była to ich świadoma decyzja – dodaje ekspert.
Zmienić to ma DSA. Ale wiele zależy od tego, jak ostatecznie wymagania będą wyglądały i jak będą egzekwowane. – Jeśli ich spełnienie stanie się kolejnym punktem do mechanicznego odhaczenia przez działy prawne dużych firm, będzie to porażka Europy. Proces szacowania ryzyka wpływu technologii musi być realny. Uogólniłbym to na badanie różnego rodzaju zagrożeń systemowych, negatywnego wpływu na wartości i prawa podstawowe, a nawet prawa człowieka. Taki wymóg winien dotyczyć każdego oferowanego produktu i usługi. Szczęśliwie dziś wiele wskazuje na to, że Parlament Europejski być może zechce to zrobić – dodaje.
Ziobro w obronie wolności
Niezależnie od regulacji unijnych Polska próbuje rozwiązać problem wolnoamerykanki w internecie na własną rękę. Resort sprawiedliwości przedstawił wstępne założenia ustawy, która ma zapobiec skutkom arbitralnych decyzji podejmowanych przez właścicieli mediów społecznościowych. – Wolność słowa i wolność debaty są istotą demokracji. Ich zaprzeczeniem jest cenzurowanie wypowiedzi, zwłaszcza w internecie, gdzie toczy się najwięcej politycznych dyskusji i sporów światopoglądowych – mówił minister Zbigniew Ziobro 15 stycznia. Założenia ustawy przewidują utworzenie pięcioosobowej Rady Wolności Słowa, do której będą powoływani eksperci w dziedzinie prawa i nowych mediów. Sejm wybierze ich kwalifikowaną większością trzech piątych. Kadencja w radzie potrwa sześć lat, co ma gwarantować jej ponadpartyjny skład.
Jeśli Facebook, Twitter lub inna platforma zablokuje komuś konto lub usunie wpis, które nie naruszają polskiego prawa, użytkownik będzie mógł złożyć do tego serwisu skargę. Na jej rozpatrzenie będzie miał on 48 godzin. Jeśli skarga zostanie odrzucona, użytkownik będzie mógł się odwołać do Rady Wolności Słowa, która z kolei będzie mogła nakazać niezwłoczne przywrócenie zablokowanej treści lub konta. Od jej decyzji będzie przysługiwała skarga do sądu. Za niezastosowanie się do rozstrzygnięć rady lub sądu ma grozić kara od 50 tys. zł do 50 mln zł. Jak te grzywny mają być egzekwowane od zagranicznych, głównie amerykańskich, firm, minister Ziobro nie wyjaśnił.
– Nie znamy jeszcze projektu tej ustawy, ministerstwo zaprezentowało tylko slajdy – zastrzega Krzysztof Izdebski. – Warunek większości trzech piątych przy wyborze członków Rady Wolności Słowa brzmi dobrze. Pozytywnie oceniam też pozostawienie ostatecznych rozstrzygnięć sądom. Choć pomysł rodzi nadzieje, przyjmuję go bez entuzjazmu, bo ostatnie doświadczenia – jak choćby to, co się stało z Trybunałem Konstytucyjnym – nie nastrajają optymistycznie. Czy rzeczywiście w radzie będzie reprezentacja różnych poglądów? – zastanawia się.
Fundacja Panoptykon na zagrożenia związane z arbitralną władzą platform nad obiegiem informacji w sieci zwraca uwagę od kilku lat. Jest zaangażowana m.in. w proces sądowy przeciwko FB w związku z zablokowaniem konta jednej z organizacji społecznych (sprawa SIN kontra Facebook). Dorota Głowacka przyznaje, że projekt może sprawić, że moderacja stanie się przejrzystsza oraz otworzyć drogę do skutecznego odwołania się od decyzji technologicznych gigantów.
– Ale z propozycją resortu mam dwa problemy – dodaje. Pierwszym jest brak szczegółów regulacji. – Żałuję, że o kwestiach, które są dość skomplikowane, możemy rozmawiać, korzystając jedynie ze szczątkowych informacji podanych na konferencji. Po drugie, nie będę ukrywać, że podchodzę do tego projektu z pewnym dystansem z uwagi na działania rządu w dziedzinie wolności słowa, które moim zdaniem w wielu obszarach doprowadziły do obniżenia poziomu jej ochrony w Polsce – i w ogóle poziomu ochrony praw człowieka. To stawia pod znakiem zapytania rzeczywiste intencje projektodawcy – stwierdza Głowacka.
Krzysztof Izdebski zwraca ponadto uwagę, że wydarzenia w USA wskazują na głębszy problem niż blokowanie kont czy kasowanie wpisów. – Użytkownicy usuwani z jednego serwisu teoretycznie mogą się przenieść do innego. Ale to nie takie proste – wskazuje. – Prawicowe środowisko przeniosło się z TT na Parlera. Ale tylko na chwilę, bo Amazon, hostujący mu serwery, wyłączył je i Parler zniknął. Przekładając tę sytuację na media tradycyjne, to jakby ktoś zamknął gazecie drukarnię. Nie podzielam poglądów użytkowników Parlera, ale działanie Amazona to skrajny przykład cenzury. Władza, jaką mają dziś niektóre firmy kontrolujące kluczowe zasoby, wydaje mi się groźniejsza niż to, jak z użytkownikami postępują FB i TT – podkreśla. – W tym kontekście propozycja Ziobry nie jest odpowiedzią na największe problemy związane z wolnością w sieci. To bardziej puszczanie oka do elektoratu – stwierdza.
Dodaje, że regulacje w tej dziedzinie powinny być przyjmowane na szczeblu całej UE niż poszczególnych krajów. – Będzie wtedy większa możliwość ich wyegzekwowania. Mówimy przecież o nakładaniu obowiązków na potężne firmy o zasięgu globalnym. Dowodem słuszności takiego podejścia są przepisy RODO. Nie były one o wiele bardziej restrykcyjne od wcześniejszych zapisów polskiej ustawy o danych osobowych. Natomiast sam fakt uregulowania tej kwestii na poziomie europejskim zapewnił lepszą egzekucję – uzasadnia Izdebski.
Zróbmy sobie Facebooka
W odpowiedzi na arbitralne poczynania światowych gigantów w Polsce powstał ostatnio serwis społecznościowy WolniSlowianie.pl, a 20 stycznia zaczęła się rejestracja użytkowników platformy Albicla.com, przygotowanej przez Kluby „Gazety Polskiej”. Czy przyszłość internetu może właśnie tak wyglądać: że każda grupa wyląduje na osobnej platformie odpowiadającej jej poglądom?
– W rozmowach o mediach społecznościowych coraz częściej padają argumenty za rozbiciem gigantów. Ale ludzie wolą korzystać z serwisów, które zapewniają największy zasięg. Moja ściana na Facebooku wydaje mi się nudna, lecz jestem w tym serwisie, by się skontaktować ze znajomymi z różnych krajów. Podobnie Twitter dzięki swojej skali daje szansę najszybszego i najszerszego dostępu do informacji. Dlatego nie spodziewam się, by małe serwisy krajowe zmieniły ten krajobraz – odpowiada Krzysztof Izdebski.
Karolina Iwańska zwraca uwagę, że masowe przeniesienie się internautów na inną platformę niekoniecznie rozwiąże problem prywatnej cenzury. – Dziś strażnikiem treści jest Facebook, jutro to może być zupełnie inna platforma – wskazuje. – Nie chodzi o to, pod jakim szyldem będziemy się komunikować, ale jakie będą zasady wykorzystywania naszych danych i treści – podkreśla.
Jej zdaniem receptą byłyby prawne i techniczne mechanizmy odbierające platformom władzę nad treściami. – Chodzi tu przede wszystkim o obowiązek zapewnienia interoperacyjności, dzięki któremu użytkownicy mogliby „podpiąć” do Facebooka czy Google’a niezależne od nich rozwiązania technologiczne – wskazuje. Wtedy serwis pozostałby miejscem spotkań, lecz kontrola nad algorytmem zarządzającym treściami przeszłaby w ręce użytkowników.
– Mam nadzieję, że przełamanie dominacji dużych platform, do którego może się przyczynić planowana regulacja europejska, faktycznie spowoduje większy pluralizm, jeśli chodzi o dostępność różnych platform – stwierdza z kolei Dorota Głowacka. – Chciałabym, żeby ta konkurencja polegała raczej na możliwości wyboru między różnymi modelami funkcjonowania poszczególnych serwisów, w tym możliwości wyboru modelu innego niż „klikalność za wszelką cenę”, na który dziś jesteśmy właściwie skazani. Natomiast w takiej fragmentaryzacji, która miałaby doprowadzić do powstania jeszcze bardziej szczelnych baniek informacyjnych, widzę niestety wiele zagrożeń, takich jak pogłębiająca się polaryzacja społeczna czy łatwiejsze rozprzestrzenianie się dezinformacji – podsumowuje.
Amerykę też boli głowa
Pozostaje pytanie, jak do problemu uregulowania internetu podejdą teraz Amerykanie. Europejski komisarz, Francuz Thierry Breton, odpowiedzialny za rynek wewnętrzny, w komentarzu dla Politico uznał, że panujący w USA dogmat wolności internetu właśnie upadł. Chodzi o sekcję 230 Communications Decency Act z 1996 r., zwalniającą firmy technologiczne z prawnej odpowiedzialności za treści umieszczane na ich platformach. Przez lata uważano sekcję 230 za przepis, który w zasadzie stworzył internet, bo roztaczał nad firmami technologicznymi parasol ochronny. Teraz jednak staje się jasne, że pod jego osłoną w sieci swobodnie mogą się szerzyć także dezinformacja, manipulacja i nawoływanie do nienawiści.
Ostatnie dni pokazały też, że giganci cyfrowi być może tworzą medialny kartel, ale na pewno nie mają monopolu na internet. Aplikacja Parler, z której korzystała skrajna prawica w Stanach Zjednoczonych, w ubiegłym tygodniu wznowiła działalność – zaś do końca stycznia mają zostać przywrócone wszystkie jej funkcje. Specjalista od internetu Ronald Guilmette powiedział Reutersowi, że Parler korzysta teraz z infrastruktury zarejestrowanej w Wielkiej Brytanii firmy Ddos-Guard. Jej właścicielami jest dwójka Rosjan, którzy wcześniej współpracowali z Kremlem.
Nad uregulowaniem internetu nie będzie się już musiała głowić administracja Donalda Trumpa, bo prezydentem jest już Joe Biden. Na razie nie wiadomo, jak wysoko ta kwestia będzie na agendzie nowego amerykańskiego przywódcy, choć po wtargnięciu tłumu do Kongresu Biden zapowiedział, że podejmie się uzdrowienia amerykańskiej demokracji. A że to właśnie w internecie grupowali się protestujący, to możliwe, że nowa amerykańska administracja baczniej będzie się przyglądać także sieci. ©℗
Do tej pory współpracowaliśmy z platformami internetowymi na zasadach samoregulacji, ale przyniosło to ograniczone rezultaty. Musimy przejść do współregulacji, stawiając na ścisły i skuteczny nadzór. Platformy nie mogą same siebie nadzorować – pisze dla DGP wiceszefowa Komisji Europejskiej Věra Jourová, odpowiedzialna za praworządność