Ragebaiting i sympathy baiting, czyli na co się nabieramy w dobie generatywnej AI i dlaczego obowiązki platform w tym zakresie są takie ważne. W świecie coraz bardziej nasyconym przez treści tworzone za pomocą sztucznej inteligencji niebezpieczeństwa wynikające z manipulacji internetowej przybierają nowe formy.

W listopadzie 2024 r. brytyjski oddział operatora telefonii komórkowej O2 wypuścił chatbota stworzonego do długich i trudnych do przerwania rozmów. Daisy, bo tak go nazwano, jest „starszą panią”. W realistyczny sposób potrafi przeciągnąć każdą rozmowę – czy to z powodu rzekomego braku umiejętności cyfrowych, czy dzięki charakterystycznemu, babcinemu stylowi. Zagaduje o mało istotne szczegóły i skutecznie zajmuje rozmówcę. Według twórców ma umieć utrzymać oszustów telefonicznych przy słuchawce przez niemal godzinę i marnować ich czas, który mogliby wykorzystać na wyłudzanie danych i pieniędzy. Byłoby idealnie, gdyby osoby starsze – statystycznie najbardziej narażone na manipulację w przestrzeni cyfrowej – faktycznie mogły poszczycić się taką odpornością na oszustwa. Tymczasem w mediach społecznościowych, nawet na pozornie przyjaznych grupach, na seniorów czekają różne pułapki. Zresztą nie tylko na nich.

Wydaje się, że każdy użytkownik internetu, niezależnie od wieku, potrafi rozpoznać zmanipulowany przekaz. Ale w praktyce wiele osób reaguje intuicyjnie, nie zastanawiając się, skąd dana treść się wzięła, kto za nią stoi i jaki jest jej prawdziwy cel.

W świecie coraz bardziej nasyconym przez treści tworzone za pomocą sztucznej inteligencji niebezpieczeństwa wynikające z manipulacji internetowej przybierają nowe formy. Dwie z nich, ragebaiting i sympathy baiting, są szczególnie roz powszechnione. Ich mechanizm opiera się na prowokowaniu emocji po to, by użytkownicy komentowali i udostępniali określone treści. Prowadzi to do sztucznego pompowania zasięgów, dzięki którym właściciele profili publikujących kontrowersyjne lub emocjonalne treści mogą generować wyższe statystyki i być atrakcyjniejsi dla reklamodawców.

Co czyha na użytkowników

Treści pojawiające się na różnych platformach społecznościowych często są kierowane do użytkowników (szczególnie starszych), którzy szukają w sieci rozrywki, towarzystwa czy emocji. Szczególnie przemawiają do nich treści oparte na sympathy baitingu – czyli prośbach o polubienia lub komentarze odwołujące się do współczucia/współodczuwania.

Jednym z najczęściej spotykanych przykładów tego typu manipulacji są pozornie niewinne posty z grafikami generowanymi przez AI. Należą do nich np. ilustracje przedstawiające starszą kobietę lub mężczyznę z podpisem „Nikt nie docenia mojej pracy”. Jeszcze częściej natrafić można na sceny „rodzinne”, np. rzekome stare zdjęcie matki z dziećmi zestawione z jego współczesnym odwzorowaniem, gdy u boku staruszki siedzą już dorosłe osoby. Kolejnym przykładem są obrazki z dopiskiem „tak wyglądały wasze babcie w czasach swojej młodości”, prezentujące rzekome fotografie z dawnych festynów czy festiwali, w których bohaterki mają odważne stylizacje i przybierają nietypowe pozy. U wielu użytkowników internetu taka treść może budzić pozytywne skojarzenia czy ciepłe wspomnienia lub wydawać się wzruszająca i wartościowa. Autorzy takich postów liczą właśnie na tę spontaniczną reakcję – lajk, komentarz, udostępnienie – by wygenerować jak najwięcej interakcji i w efekcie podbić widoczność danego konta czy fanpage’u.

Kto korzysta na sympathy baitingu

Dla wielu graczy w przestrzeni internetowej kluczowe jest błyskawiczne przyciągnięcie uwagi jak największej liczby użytkowników i wykorzystanie tego w odpowiednim momencie do promowania konkretnej sprawy czy produktu. Najłatwiej osiągnąć taki cel dzięki taniemu w produkcji i łatwemu do masowej dystrybucji content, który wywołuje emocje skłaniające do komentowania i udostępniania. Algorytmy mediów społecznościowych premiują treści o wysokim współczynniku zaangażowania, każda reakcja użytkownika działa więc jak kula śnieżna: strona czy profil zyskują rozgłos, a kapitał w postaci lajków rośnie. Raz rozbudowana baza odbiorców może być w dowolnej chwili wykorzystana do rozpowszechniania bardziej kontrowersyjnych czy wręcz szkodliwych treści – np. dezinformacji czy agitacji politycznej.

Szybki wzrost popularności takich stron lub kont opiera się często na zewnętrznych usługach umożliwiających niemal natychmiastowe kupowanie polubień, komentarzy czy nawet kont obserwujących. W rezultacie profile, które wczoraj udostępniały wzruszające ilustracje przedstawiające seniorów, dziś mogą się stać wylęgarnią nieprawdziwych newsów, zmanipulowanych fotografii lub agresywnych kampanii światopoglądowych. Mimo że wielu użytkowników już zaczyna rozpoznawać pewne schematy i uważa na fałszywe lub wątpliwe strony, wciąż istnieje duża grupa osób, które dają się zmanipulować.

Co ważne, wpływowi gracze regularnie doskonalą swoje metody, pojawiają się coraz nowsze techniki maskowania tożsamości i automatyzacji kont, a generatywna sztuczna inteligencja tylko ułatwia produkcję kolejnych pozornie prawdziwych treści. W ciągu ostatnich miesięcy w różnych częściach świata zdemaskowano co najmniej kilkanaście kolejnych sieci zaangażowanych w dezinformację. Do najbardziej aktywnych źródeł fałszywych kont i stron wciąż zalicza się Rosja, ale liczą się także Chiny oraz Iran. Z tego powodu powstają regulacje mające zmusić platformy do skuteczniejszego przeciwdziałania nadużyciom, a użytkowników do ostrożniejszego korzystania z sieci. Jednym z kluczowych rozwiązań jest Digital Services Act (DSA) – pakiet unijnych przepisów zaprojektowanych tak, by zagwarantować bardziej odpowiedzialne moderowanie treści i lepszą ochronę praw użytkowników w przestrzeni online.

Czy DSA może sobie poradzić?

DSA nakłada na platformy społecznościowe liczne obowiązki, które mają pomóc w tworzeniu bezpiecznego dla użytkowników świata online. Przykładami są m.in. konieczność wyznaczenia specjalnego punktu kontaktowego czy też wprowadzenia mechanizmów do zgłaszania nielegalnych treści. Jednym z głównych celów DSA jest zwalczanie nielegalnych treści oraz przeciwdziałanie dezinformacji w sieci, dlatego konieczne jest również niwelowanie przez platformy takich form manipulacji jak ragebaiting i sympathy baiting.

Co więcej, DSA wymaga zapewnienia przez platformy przejrzystości, m.in. w kontekście treści generowanych przez AI, a zatem również w kwestii tzw. deepfake’ów wykorzystywanych do dezinformowania użytkowników i manipulowania nimi. Platformy muszą uwzględnić specyfikę odbiorców, którzy często nie mają dostatecznej wiedzy na temat generatywnej sztucznej inteligencji. Dlatego konieczne jest odpowiednie oznaczenie takiej treści, żeby użytkownik był w stanie bez problemu stwierdzić, że została ona wygenerowana przy użyciu AI.

Niezbędna jest także większa przejrzystość działania algorytmów odpowiedzialnych za rekomendowanie postów. W praktyce oznacza to, że platformy powinny ograniczać widoczność treści, które zostały uznane za wprowadzające w błąd bądź nakierowane wyłącznie na emocjonalną reakcję. Istotne jest przy tym wyeliminowanie tzw. ciemnych wzorców (dark patterns) w samym interfejsie – chodzi o takie elementy, które mogą utrudniać zauważenie źródła przekazu lub przekierowywać użytkownika do kolejnych treści wywołujących silne, często nieprzyjemne emocje. Szczególnie groźne są sytuacje, w których użytkownicy internetu stają się ofiarami zarówno manipulacji psychologicznej, jak i ewentualnych wyłudzeń danych, a platformy nie dostarczają wystarczająco jasnych ostrzeżeń czy informacji o możliwości łatwego zgłaszania podejrzanych postów.

Właściwe wdrożenie zapisów DSA w tym obszarze wymaga zbudowania solidnych procedur. Wszelkie mechanizmy raportowania, współpracy z moderatorami czy komunikacji z organami ścigania muszą działać tak, aby użytkownik w każdym wieku mógł szybko i bez trudu zareagować. Niezmiernie istotne jest przy tym dostarczanie przez platformy prostych i zrozumiałych komunikatów informujących o tym, jak rozpoznać nienaturalne elementy na zdjęciach lub filmach.

Jednym z wyzwań jest wprowadzenie nowych przepisów w życie w taki sposób, żeby użytkownicy faktycznie dostrzegli zmianę. Dopiero realne zmniejszenie liczby fałszywych kont bazujących na ragebaitingu, generatywnych obrazów żerujących na współczuciu czy nieuczciwych mechanizmów reklamowych będzie świadczyło o tym, że unijne regulacje takie jak DSA działają zgodnie z założeniami i stwarzają bezpieczniejszą przestrzeń w sieci dla osób w każdym wieku.

DSA potrzebne nie tylko seniorom

Choć może się wydawać, że to przede wszystkim osoby starsze padają ofiarą manipulacji w postaci sympathy czy rage baitingu, faktyczna skala zjawiska pokazuje, że nikt nie jest na nie w pełni odporny. Wystarczy się przyjrzeć popularnym, a kontrowersyjnym wyzwaniom w social mediach czy nagłaśnianym na TikToku i Instagramie dramom, by zauważyć, że również osoby młodsze intuicyjnie klikają w posty wywołujące gniew czy oburzenie.

Stąd tak istotne jest z jednej strony przypominanie użytkownikom o skutecznych sposobach na unikanie pułapek rage i sympathy baitingu, a z drugiej – egzekwowanie od platform konkretnych narzędzi ograniczających wątpliwe praktyki. Internetowej gorączce emocji i prowokacji ulega bowiem każdy, kto choć na chwilę odpuści zdrowy rozsądek – a o to, w dobie błyskawicznej wymiany treści, nietrudno. ©℗