Przez granice państwowe od dawna przenikały nowe idee i trendy, włącznie z tymi krzewionymi z rozmyślnie szkodliwymi zamysłami – nigdy jednak nie działo się to na taką skalę jak teraz. Choć ogólnie panuje konsensus odnośnie do istotności zapobiegania temu, by intencjonalnie upowszechniana, oszczercza dezinformacja kształtowała społeczne tendencje i polityczne wydarzenia, realizacja tego zamiaru rzadko okazuje się precyzyjna czy kończy się całkowitym powodzeniem.

Jednak w przyszłości zarówno „ofensywa”, jak i „defensywa” – czyli zarówno upowszechnianie dezinformacji, jak i próby jej zwalczania – będą w coraz większym stopniu zautomatyzowane i powierzane SI (sztucznej inteligencji).

Sztuczna inteligencja

GPT-3, czyli SI generująca język, wykazuje się zdolnością do tworzenia syntetycznych osobowości, wykorzystywania ich do tworzenia takiego języka, któremu właściwa jest mowa nienawiści, oraz podejmowania konwersacji z użytkownikami w celu rozsiewania uprzedzeń, a nawet zachęcania do przemocy. Gdyby tego typu SI zaprzęgnięto do upowszechniania nienawiści i podziałów na wielką skalę, ludzie mogliby nie być w stanie samodzielnie z tym walczyć.

Jeśli działania takiej SI nie zahamuje się wystarczająco wcześnie, manualna identyfikacja i unieszkodliwianie rozsiewanych przez nią treści za pomocą jednostkowych analiz i decyzji okazałyby się czymś niezwykle trudnym dla nawet najbardziej sprawnych technicznie władz rządowych i operatorów platform sieciowych.

Do wykonania tak obszernego i żmudnego zadania trzeba byłoby sięgnąć – jak zresztą dzieje się to już obecnie – po algorytmy SI służące moderacji treści. Przez kogo są one jednak tworzone oraz monitorowane i w jaki sposób się to dokonuje?

SI służące moderacji treści

Jeśli wolne społeczeństwo polega na platformach sieciowych działających w oparciu o SI, generujących, transmitujących i filtrujących treści na skalę ponadpaństwową i ponadregionalną, oraz jeśli platformy te postępują w sposób mimowolnie promujący nienawiść i podziały, społeczeństwo to staje w obliczu nowych zagrożeń, pod wpływem których powinno rozważyć przyjęcie nowego podejścia w odniesieniu do kontrolowania swego środowiska informacyjnego.

Kryjący się tu problem jest pilny, lecz z takimi próbami jego rozwiązania, które pozostają zależne od SI, wiążą się osobne, kluczowe trudności. Nie możemy stracić z oczu potrzeby zachowania po obu stronach właściwej równowagi między ludzkim osądem a automatyzacją dokonującą się na podstawie SI.

Henry A. Kissinger, Eric Schmidt, Daniel Huttenlocher, „Era Sztucznej Inteligencji”, Wydawnictwo Nowej Konferedacji 2023 / nieznane

W społeczeństwach przyzwyczajonych do swobodnej wymiany idei konieczność zmierzenia się z rolą odgrywaną przez SI w ocenianiu i potencjalnym cenzurowaniu informacji zapoczątkowała trudne i fundamentalne debaty.

W miarę jak narzędzia upowszechniania dezinformacji stają się coraz potężniejsze i bardziej zautomatyzowane, proces definiowania i tłumienia dezinformacji w coraz większym stopniu wydaje się niezbędną funkcją społeczną i polityczną. Prywatnym korporacjom i demokratycznym władzom rządowym konieczność odgrywania tej roli zapewnia nie tylko nadzwyczajny, lecz także często niepożądany zakres wpływów i odpowiedzialności w odniesieniu do przemian zachodzących w zjawiskach społecznych i kulturowych – które to przemiany jak dotąd nie były kierowane ani kontrolowane przez jakikolwiek pojedynczy podmiot, ale wynikały z milionów indywidualnych interakcji w świecie fizycznym.

Niektórzy będą się skłaniać ku powierzeniu tego zadania procesom technicznym, które wydają się wolne od ludzkich uprzedzeń i stronniczości – SI o obiektywnej funkcji identyfikowania i hamowania przepływu dezinformacji oraz fałszywych wiadomości. Co jednak z treściami, które nigdy nie docierają do publiczności? Kiedy poziom zauważalności lub udostępniania danej wiadomości jest tak niski, że w praktyce ona zanika, mamy do czynienia z cenzurą. Jeśli zwalczająca dezinformację SI popełnia błąd, dławiąc treść niebędącą szkodliwym zmyśleniem, ale autentyczną informacją, jak możemy to rozpoznać? Czy jesteśmy w stanie dowiedzieć się tyle i w odpowiednim czasie, by tę pomyłkę skorygować? Z kolei czy mamy prawo (lub w ogóle faktyczny interes), by czytać wygenerowane przez SI „fałszywe” informacje?

Władza trenowania SI mającej bronić przed obiektywnym (lub subiektywnym) fałszem – oraz możliwość monitorowania jej funkcjonowania (jeśli taka możliwość jest w naszym zasięgu) – sama w sobie stałaby się istotną i wpływową funkcją, konkurencyjną wobec ról tradycyjnie odgrywanych przez władze rządowe. Niewielkie zmiany w projekcie obiektywnej funkcji SI, parametrach treningowych lub definicjach tego, co fałszywe, mogłyby prowadzić do rezultatów mających duże konsekwencje dla społeczeństwa. Kwestie te stają się tym bardziej palące, że platformy sieciowe wykorzystują SI do dostarczania swoich usług miliardom ludzi.

Debata nad sztuczną inteligencją

Międzynarodowe debaty nad polityką i regulacjami odnośnie do TikToka – platformy sieciowej działającej na podstawie SI, służącej tworzeniu i udostępnianiu krótkich, często dziwacznych filmików – niespodziewanie zapewniają wczesny wgląd w wyzwania mogące się wiązać z poleganiem na SI przy kształtowaniu komunikacji, zwłaszcza jeśli ta SI jest opracowana przez jedno państwo, zaś używana przez obywateli innego kraju.

Użytkownicy TikToka nagrywają i udostępniają filmy za pomocą swoich telefonów, a dzieła te są z chęcią oglądane przez miliony osób. Prawnie zastrzeżone algorytmy SI rekomendują treści mogące się spodobać potencjalnym widzom, a kierują się przy tym ich dotychczasowym sposobem korzystania z platformy. Powstały w Chinach i cieszący się globalną popularnością TikTok ani sam nie tworzy treści, ani nie wydaje się narzucać im jakichś szczegółowych ograniczeń – wyjątkiem są tu czasowe limity trwania filmów oraz wytyczne społeczności, zakazujące „dezinformacji”, „gwałtownego ekstremizmu” i niektórych rodzajów treści drastycznych.

Z punktu widzenia przeciętnego użytkownika podstawową cechą właściwą temu, jak przez pryzmat TikToka z jego SI patrzy się na świat, jest dziwaczność: zamieszczane tu treści obejmują przede wszystkim śmieszne i krótkie filmiki, przedstawiające ludzi tańczących, żartujących lub chwalących się nietypowymi umiejętnościami. Jednak ze względu na rządowe wątpliwości co do gromadzenia przez aplikację danych użytkowników i przypisywaną jej ukrytą zdolność cenzurowania i dezinformacji władze zarówno Indii, jak i Stanów Zjednoczonych zdecydowały się w 2020 r. ograniczyć zakres jej działania.

Ponadto Waszyngton zajął się wymuszeniem sprzedaży amerykańskich operacji TikToka przedsiębiorstwu mającemu siedzibę w Stanach Zjednoczonych, które mogłoby przechowywać dane użytkowników w kraju, co zapobiegłoby ich eksportowi do Chin. Z kolei Pekin odpowiedział zakazem eksportu kodu wspierającego algorytm rekomendowania treści, decydujący o efektywności TikToka i jego atrakcyjności dla użytkowników.

Wkrótce dalsze platformy sieciowe – być może w największym stopniu te ułatwiające komunikację, rozrywkę, handel, zarządzanie finansami i procesy przemysłowe – będą polegać na coraz bardziej wyrafinowanych, ściśle do nich dopasowanych SI, odpowiadających za ich kluczowe funkcje i moderujących oraz kształtujących zamieszczane na nich treści, i to często na skalę ponadpaństwową. Polityczne, prawne i technologiczne implikacje tych manewrów wciąż dopiero się odsłaniają. Fakt, że jedna działająca na podstawie SI aplikacja, zajmująca się dostarczaniem dziwacznej rozrywki, wzbudza tak oficjalne zaniepokojenie w wielu państwach, wskazuje, iż w bliskiej przyszłości czeka nas więcej skomplikowanych zagwozdek o geopolitycznym i regulacyjnym charakterze. ©Ⓟ