Wprowadzanie opłat za szanowanie prawa powoduje, że to ostatnie traci sens. Tak może się stać, jeśli platformy wprowadzą abonamenty na profile bez reklam.

Wielu z nas pamięta, jak różnego rodzaju media społecznościowe pozwoliły odnowić kontakt z przyjaciółmi ze szkolnej ławki. Dawno jednak przestało tu chodzić o sentymenty. Media społecznościowe to biznes, w którym liczy się maksymalizacja zysku. Algorytmy sztucznej inteligencji śledzą naszą aktywność i podsuwają treści, które mogą nas zainteresować, aby wydłużyć czas spędzony przed ekranem.

Nie zawsze jednak są one dla nas odpowiednie. Nie chodzi o nietrafione podpowiedzi, lecz o treści, które szkodzą – potęgują nasze lęki lub ugruntowują błędny obraz otaczającego świata. Działa tutaj „efekt dostępności” – tak psycholodzy nazywają zjawisko, w którym budujemy swoje przekonania na podstawie częstotliwości, z jaką spotykamy się z daną informacją. To wszystko może powodować lub nasilać traumę czy utrudniać wyjście z nałogu. Nowe prawo przyjęte w Unii Europejskiej daje możliwość wpływania na to, co chcemy oglądać, a co uznajemy za szkodliwe. Może to jednak przynieść przeciwny efekt. Jak się okazuje, zasada Machiavellego – cel uświęca środki – odnosi się również do sztucznej inteligencji. Jest ona w stanie wywieść w pole nasze – odpowiedzialne za abstrakcyjne myślenie – płaty przedczołowe mózgu. Efektywnie manipuluje atawistycznymi ośrodkami strachu, popędu i agresji. Celem algorytmu jest wydłużenie czasu spędzonego przed ekranem, a nie dbanie o nasz dobrostan psychiczny.

Nic za darmo

Media społecznościowe zyskały popularność m.in. dzięki skali, w jakiej działają. Duża liczba znajomych, którzy już mają profil na danej platformie, zachęca do założenia własnego. Z reguły nie jest to związane z żadnymi opłatami, co nie oznacza, że jest darmowe. Media społecznościowe zarabiają dzięki przedsiębiorcom, którzy chcą się w nich reklamować. Coraz doskonalsze algorytmy sztucznej inteligencji potrafią ustalić, jakie mamy preferencje, gusta czy nawet to, czego będziemy potrzebować za chwilę. Dla przedsiębiorców jest to doskonałe narzędzie, aby dotrzeć do konsumentów ze swoimi towarami lub usługami. Reklama staje się w ten sposób profilowana, a usługa szyta na miarę. Samo w sobie może to być korzystne dla obu stron. Ceną za to jest jednak wejście w sferę naszej prywatności.

Dopasowanie reklamy do preferencji to jednak tylko część zagadnienia. Jeśli potrzeby konsumenta są już znane, to w interesie platform jest wydłużenie czasu, jaki spędzamy przed ekranem. Pozwala to pokazać nam więcej reklam, a rosnące wskaźniki zaangażowania użytkowników podnoszą wartość rynkową platformy, pokazując, że jest to miejsce, w którym warto być obecnym.

Za pozornie darmową usługę płacimy więc na dwa sposoby. Po pierwsze, odsłaniając nasze tajemnice i często nieświadomie rezygnując z prywatności. Po drugie, poświęcając czas już nie tylko na oglądanie tego, co publikują znajomi, lecz często na przyswajanie angażujących treści, jakie zostały przygotowane specjalnie dla nas, żeby podtrzymać naszą aktywność. Ich dobór opiera się na dotychczasowej aktywności lub preferencjach osób do nas statystycznie podobnych. To, jak dużo warte są te dwa nieuchwytne i często pomijane przez konsumentów elementy, można sobie uświadomić, patrząc, jak duże koszty (np. pracy programistów) gotowe są ponosić platformy społecznościowe, żeby oferować swoje teoretycznie darmowe usługi.

Coraz szczelniejsze regulacje związane z ochroną przed toksycznymi treściami zwiększają koszty działania platform. Nowe regulacje UE zachwieją zatem modelem biznesowym mediów społecznościowych

O ile prawo ogranicza zakres treści, nie pozwalając na przekroczenie pewnych granic (np. nie można propagować nazizmu lub innego ustroju totalitarnego), o tyle dużo trudniej jest uchwycić problem eksploatowania indywidualnych słabości. Poza tym, że pewne treści mogą być szkodliwe dla każdego lub dla pewnej grupy (np. dzieci), są jeszcze takie, które mogą być nieodpowiednie dla konkretnej osoby, podczas gdy dla innych są co najwyżej neutralne. Może to być związane np. z hipochondrią, depresją, samotnością, ze strachem przed utratą kogoś bliskiego czy z szukaniem łatwego wyjścia z trudnej sytuacji finansowej. Osobliwych lęków, traum i słabości jest tak wiele, jak wielu jest ludzi. Przykładowo algorytm może prezentować osobie walczącej z chorobą alkoholową artkuły opisujące „dobroczynny” wpływ małych ilości alkoholu na krążenie. Wystawia w ten sposób jej silną wolę na wielką próbę. Innymi słowy, są osoby bardziej niż inne wrażliwe na pewnego rodzaju bodźce (ich katalog jest otwarty). To doskonałe pole do nadużyć i manipulacji.

Na wokandzie

Problem ten trafił już przed sądy w Stanach Zjednoczonych. W sprawie znanej jako Dyroff v. Ultimate Soft ware Group Inc., w której orzeczenie sądu apelacyjnego zapadło w 2019 r., skład orzekający musiał rozstrzygnąć, czy system rekomendujący treści w jednym z portali społecznościowych mógł przyczynić się do śmierci człowieka. Pozew złożyła matka, której 29-letni syn zmarł w wyniku przedawkowania heroiny z domieszką fentanylu. Zarzuciła ona dostawcy usług internetowych, że stworzony przez niego algorytm wykorzystał słabość jej syna i polecał mu treści związane z narkotykami, aż w końcu pozwolił mu nawiązać kontakt z dilerem, który sprzedał mu śmiercionośny narkotyk. Jak ustalił sąd, dostawca usług rzeczywiście wykorzystywał algorytmy do analizowania postów użytkowników i ich aktywności, a następnie rekomendował treści dopasowane do ich profilu. Dotyczyło to też grupy dyskusyjnej związanej z heroiną, w której aktywnie działał diler narkotyków. Platforma zapewniała przy tym anonimowość i wysyłała powiadomienia o nowych wpisach. Sąd jednak ostatecznie pozew oddalił, uznając, że pozwany nie stworzył ani nie opracował postów, które doprowadziły do śmierci syna powódki. Ten zaś sam wykazywał się aktywnością, zadając w mediach społecznościowych pytanie, gdzie może zdobyć heroinę. Jaką dokładnie rolę w rozbudzeniu zainteresowania narkotykami miał algorytm, pewnie nigdy nie zostanie ustalone. Gdyby jednak syn powódki w jakiś sposób (np. za pomocą ustawień) zaznaczył, że takich treści otrzymywać nie chce, wynik procesu mógłby być inny. Problem w tym, że samodzielna możliwość wyboru rekomendowanych treści wcale nie jest oczywista.

Pojawia się regulacja

Szybki rozwój mediów społecznościowych był w dużej mierze rezultatem długiego braku aktywności regulacyjnej na tym polu. Wobec pojawienia się technologii tak wyrafinowanej, że potrafi wykorzystać niedoskonałości naszej psychiki, Unia Europejska, w trosce o swoje podstawowe wartości, w tym też zdrowie publiczne (także psychiczne), postanowiła wreszcie uregulować sposób działania mediów społecznościowych.

Rozporządzenie z 19 października 2022 r. (UE) 2022/2065 w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (zwane również „aktem o usługach cyfrowych” lub od angielskiego skrótu „DSA”) wprowadza ograniczenia w zakresie doboru treści prezentowanych na platformach. Z założenia mają one zapewnić jasność i przejrzystość stosowanych algorytmów rekomendacji treści. Dostawca usług ma chociażby (zgodnie z art. 34 DSA) obowiązek sporządzenia oceny ryzyka wystąpienia negatywnych skutków, biorąc pod uwagę takie czynniki jak płeć, konieczność ochrony zdrowia publicznego i małoletnich, oraz skutków dla fizycznego i psychicznego dobrostanu osoby. Modeli przeciwdziałania tego rodzaju zagrożeniom jest kilka. Platforma może np. wprowadzić możliwość samodzielnego oznaczenia przez użytkownika treści, jakich nie chce oglądać. Jak się okazuje, nie jest to wcale takie proste. To też informacja, że materiał spotkał się z reakcją – i to mocną – skoro użytkownik zadał sobie trud przeglądania (często niezbyt intuicyjnych) ustawień. Inaczej rzecz ujmując, pokazuje to, że treść uderzyła w czuły punkt.

Dla algorytmów ważniejsze od tego, co deklarujemy, jest to, co faktycznie robimy. Strach i inne negatywne emocje często działają silniej i skuteczniej niż te pozytywne, przyciągając uwagę. Widząc, że treści padają na podatny grunt, algorytm będzie… pokazywać jeszcze więcej podobnych treści. W końcu jego celem jest maksymalizacja czasu, jaki konsument spędza przed ekranem, bo zwiększa to atrakcyjność platformy w oczach inwestorów lub reklamodawców. To, że efekt ten występuje w praktyce, pokazują badania empiryczne. Jak wynika z raportu Fundacji Panoptykon (Anna Obem, Maria Wróblewska we współpracy z Małgorzatą Szumańską, Dorotą Głowacką, Piotrem Sapieżyńskim, „Martwisz się o zdrowie? Facebook nie pozwoli ci o tym zapomnieć”), odsetek toksycznych treści po skorzystaniu z opcji oznaczenia niechcianych informacji nie tylko nie spada, lecz nawet wzrasta. Przedstawiono to na przykładzie użytkowniczki obawiającej się o swoje zdrowie. Prezentowane jej treści bez wątpienia obawy te potęgowały. Trudno je też było uznać za wiarygodne źródło wiedzy. Epatowały one drastycznymi określeniami i wykorzystywały lęki (np. „Swędzą cię pachy? Jedna przyczyna jest wyjątkowo niebezpieczna”, „Ból, który może zwiastować tętniaka. Uważaj, to tykająca bomba”).

Reklama odwołująca się do uczuć przez wywoływanie lęku, wykorzystywanie przesądów lub łatwowierności dzieci jest co do zasady zabroniona (art. 16 ustawy z 16 kwietnia 1993 r. o zwalczaniu nieuczciwej konkurencji i art. 8 ustawy z 23 sierpnia 2007 r. o przeciw działaniu nieuczciwym praktykom rynkowym). W tym jednak przypadku nie chodzi o reklamę w ścisłym znaczeniu tego słowa. Treści te nie zachęcają bezpośrednio do nabycia konkretnego produktu czy też usługi. Ich zadanie jest inne – mają przyciągnąć uwagę użytkownika, tak aby spędził on przed ekranem więcej czasu i obejrzał więcej reklam. Nie są też publikowane przez producentów czy dystrybutorów konkretnych towarów. Niekoniecznie muszą też być wprowadzane przez administratorów platformy. Ci ostatni mają z reguły ograniczony wpływ na to, co jest publikowane w ich mediach. W końcu nie chodzi o to, żeby wprowadzać cenzurę. Problem leży w sposobie doboru i prezentowania treści, który algorytmy wykorzystujące sztuczną inteligencję wprowadziły na zupełnie nowy poziom zaawansowania.

Okazuje się więc, że narzędzie, które miało służyć do ochrony użytkowników i ich zdrowia, stało się kolejnym narzędziem do zwiększania efektywności platform społecznościowych. Pokazuje to, że regulacja niekoniecznie może spełnić oczekiwania, jakie w niej pokładano. W praktyce z punktu widzenia konsumenta nie ma znaczenia, czy usługodawca przeprowadził ocenę zgodności i czy wdrożył środki zaradcze zgodnie z przepisami, skoro algorytm wykorzystał wygenerowane w ten sposób dane do osiągnięcia zupełnie innego (z jego punktu widzenia ważniejszego) celu.

W tym przypadku trzeba zdać sobie sprawę z tego, że cel algorytmu i interes biznesowy usługodawcy nie są spójne z interesami i celami użytkownika. Aby ochronić interes konsumenta, podmiot prowadzący platformę musiałby ograniczyć swoje potencjalne korzyści. W ten sposób stałby się mniej konkurencyjny i mógłby przegrać z innym graczem, który będzie działał bardziej agresywnie na tym polu.

Planowane zmiany

Żeby wymusić faktyczne działanie w pożądanym kierunku, konsekwencje naruszenia muszą być rzeczywiście dolegliwe, a wszystkich graczy na rynku trzeba traktować tak samo. Nawet jednak surowa sankcja nie zadziała, gdy związek przyczynowy nie będzie mógł być wykazany. Działanie algorytmu w dużej mierze jest tajemnicą nie tylko dla konsumenta, lecz nawet dla jego autora i administratora. Przed sądem trudno będzie zatem wykazać, że działanie to było celowe. Możemy dowiedzieć się co najwyżej tego, jakie kryteria algorytm bierze pod uwagę i jakie wagi zostały im przydzielone. To już coś, ale sam „tok myślenia AI” pozostaje owiany tajemnicą.

Z tego powodu planowane jest prowadzenie wielu domniemań prawnych, które ułatwią wyjście z tej sytuacji. Ciężar dowodu zostanie przerzucony na przedsiębiorcę. Rozwiązania mają zostać wprowadzone na poziomie projektowanej dyrektywy UE. W związku z różnicami w prawie różnych państw członkowskich dyrektywa jako forma pozostawiająca pewną swobodę w sposobie implementacji wydaje się w tym przypadku najpraktyczniejszym rozwiązaniem, choć do załatwienia problemu nie wystarczy jeden akt prawny.

Zapłacisz za swoje prawa?

Jest jednak jeszcze druga strona medalu. Coraz szczelniejsze regulacje i potencjalne konsekwencje związane z ochroną przed toksycznymi treściami zwiększają koszty działania. Nowe regulacje UE zachwieją zatem samym modelem biznesowym mediów społecznościowych. Dochody z reklam mogą niedługo przestać wystarczać, jeśli usługodawca będzie chciał wypełnić wszystkie obowiązki nałożone prawem (a dodatkowo musi liczyć się z zapłatą kar czy wypłatą zadośćuczynień). Może także utracić korzyści, jakie przy bardziej liberalnej polityce byłyby do osiągnięcia. Już teraz zaczyna się więc poszukiwanie alternatywnych źródeł finansowania. Mogą nim być np. płatne profile. Użytkownik, który wykupi taką usługę, z założenia będzie mógł się cieszyć korzystaniem z profilu bez reklam. Konsumenci mogą jednak niezbyt chętnie sięgać do kieszeni, zwłaszcza jeśli chodzi o płacenie za coś, co do tej pory wydawało im się darmowe. Może to być prawdziwa weryfikacja tego, ile warta jest dla nas obecność w mediach społecznościowych.

Jednak problem jest szerszy i sprowadza się do tego, że nie można płacić za to, że ktoś nie narusza naszego prawa do prywatności. Relacja powinna być w tym przypadku odwrotna – możemy w zamian za wynagrodzenie zrezygnować z części swoich praw. Do tej pory duża część użytkowników godziła się na pewne ograniczenie prywatności z braku świadomości. Inni akceptowali to, bo dostawali w zamian pewną usługę (np. możliwość utrzymywania kontaktu ze znajomymi). Można więc powiedzieć, że była w tym jakaś może niedoskonała, ale jednak symetria. W modelu płatnych profili będzie inaczej, bo konieczna będzie dodatkowa zapłata.

Wprowadzanie opłat za szanowanie prawa powoduje, że to ostatnie traci sens. Prawo do prywatności jest przy tym gwarantowane przez art. 47 Konstytucji RP. Co więcej, w tym przypadku powstałyby dwie kategorie użytkowników: uprzywilejowana, mogąca się cieszyć prywatnością w pełni, i taka, której nie byłoby stać na wykupienie usługi – w różny sposób manipulowana i wykorzystywana w dużo większym stopniu.

Prowadziłoby to do jeszcze jednego paradoksu. Osoba płacąca abonament za korzystanie z mediów społecznościowych, który sprawiałby, że specjalnie dobrane do niej treści nie byłyby jej prezentowane, siłą rzeczy spędzałaby przed ekranem dużo mniej czasu. Byłaby więc mniej atrakcyjna jako konsument. Z czasem sama też mogłaby uznać, że usługa, jaką dostaje, nie jest warta płaconej ceny.

Który model ostatecznie zwycięży, pokaże rynek, warto jednak pamiętać o wartości swojej prywatności, a przede wszystkim czasu – w końcu jest to zasób ograniczony. ©℗