Dezinformacja bardzo groźnym narzędziem

Walka z dezinformacją w sieci to ogromne wyzwanie, zarówno dla serwisów społecznościowych jak i biznesu. Z drugiej strony to ogromne zagrożenie dla użytkowników, ale także dla całych społeczności, organizacji, państw czy firm. Różnego rodzaje kampanie dezinformacyjne potrafią uderzać nie tylko bezpośrednio w polityków, ale także mniejszości narodowe.

Przyczyną słabości serwisów społecznościowych są ich algorytmy. To właśnie algorytm Facebooka był odpowiedzialny między innymi za rozpowszechnianie negatywnych treści, a także szkalowanie mniejszości etnicznej Rohinja w Mjanmie. Co ciekawe słabości w swoim algorytmie dostrzegł także Twitter.

Reklama

Twitter zarzucony rosyjską propagandą

Gigant mediów społecznościowych kilka miesięcy temu dokonał ciekawego odkrycia, badając, w jaki sposób jego algorytm rekomenduje użytkownikom treści polityczne. - Okazało się, że stosowane przez niego algorytmy wzmacniają tweety prawicowych partii politycznych i serwisów informacyjnych bardziej niż tych lewicowych czy też liberalnych – informowało BBC. Co więcej, przedstawiciele Twittera przyznawali wtedy, że nie do końca wiedzą, dlaczego tak się dzieje.

Reklama

Nie dziwi zatem fakt, że to właśnie na Twitterze pojawiaj się codziennie tysiące postów dezinformacyjnych na temat wojny w Ukrainie. Wiele firm i organizacji stara się walczyć z dezinformacją, ale także z rosyjskimi trollami. Efekt na razie nie jest zadowalający. Jednak do walki wkracza sztuczna inteligencja i to może być prawdziwy gamechanger.

Sztuczna inteligencja idzie na wojnę z dezinformacją

Stworzone przez Polaków algorytmy wykorzystujące głębokie uczenie maszynowe już działają na Twitterze i rozpoznają rosyjskich trolli z bardzo wysoką skutecznością. Za projekt odpowiedzialna jest firma MIM Solutions. Codziennie specjalny model sztucznej inteligencji sczytuje dane dostępne na Twitterze w poszukiwanie postów i profili „zajmujących się” dezinformacją. Wychwytuje je i oznacza. Co jest najbardziej innowacyjne to fakt, że polska firma, aby „złapać” rosyjskiego trolla, potrzebuje tylko 50 przykładów takich profili i tweetów, zamiast tysięcy przeanalizowanych zbiorów danych jak to miało miejsce w przypadku algorytmów sztucznej inteligencji do tej pory.

- Chcemy pokazać prawdziwe możliwości sztucznej inteligencji w walce z dezinformacją. Nasz projekt pozwala skutecznie wyszukiwać m.in. trolli rosyjskich na Twitterze. Algorytmy czytają to, co pojawia się codziennie na serwisie społecznościowym, a następnie analizują i oznaczają podejrzane profile na podstawie tweetów. Na razie projekt jest na etapie proof of concept, chcemy pokazać, ze to naprawdę działa. Już dziś wiemy, że z dużą skutecznością jesteśmy w stanie przeciwdziałać dezinformacji – zauważa Piotr Sankowski, założyciel MIM Solutions, profesor w Instytucie Informatyki Uniwersytetu Warszawskiego, a od niedawna także prezes IDEAS NCBR.

Proces w pełni zautomatyzowany

Co ciekawe dziś wiele firma walczy z dezinformacją, ale nie jest to proces zautomatyzowany. - W Polsce zajmuje się tym m.in. NASK, który weryfikuje tego typu profile, ale jest to robione ręcznie. Pracują nad tym ludzie, którzy to wyszukują i oznaczaj bardzo prostymi metodami uwierzytelniającymi. Codziennie analizują teksty dotyczące Ukrainy i wojny w Ukrainie oraz wypowiedzi ekspertów czy użytkowników Twittera. Nasz model pozwala na pełną automatyzację tego procesu – dodaje prof. Sankowski.

Eksperci z MIM Solutions stworzyli model oparty na głębokich sieciach neuronowych, który co pozwala czytać Twittera automatycznie. Analizuje zarówno profile jak i tweety autorów, których podejrzewa o propagandę i na tej podstawie wskazuje, kto jest rosyjskim trollem, a kto nie.

Skuteczność wysoka i bardzo wysoka

Kiedy mowa o działaniu algorytmów sztucznej inteligencji, zawsze pada słowo – sprawdzam, czyli jak skuteczne są te modele. W przypadku MIM Solutions mówimy o bardzo dobrych parametrach.

- Poziom skuteczności naszego modelu jest bardzo wysoki i wynosi w okolicach 95 procent i więcej. Z tego wynika, że jeśli system wytypuje 20 profili, tylko jeden „strzał” jest niecelny. Na tym etapie wydaje się, że tak wysoka skuteczność pozwoli odsiać z internetu większość niebezpiecznego trollingu. Z kolei w przypadku tweetów ta skuteczność jest nieco niższa, na poziomie 80-90 procent, ale trzeba brać po d uwagę, że wiele kont poza fake newsami czy trollingiem publikuje także tweety o neutralnym, lub zbliżonym do neutralnego poziomie. Na szczęście model cały czas się uczy, i jest w stanie analizować ewentualne zmiany działania systemu dezinformacji stosowanego przez konkretne państwa, firmy czy osoby – zauważa prof. Sankowski.

Model MIM Solutions nie tylko na trolle

Wkrótce model przekształcony zostanie w bota działającego na Twitterze, który będzie wyszukiwał trollingu, nie tylko tego związanego z wojną w Ukrainie. System bowiem zyska w najbliższym czasie możliwość oceny, analizy i przewidywania konkretnych publikacji w sieci, z jednoczesnym przełożeniem na wartość tego dla firm. To o czym rozmawia się na Twitterze czy innych serwisach społecznościowych, ale także jak się rozmawia, ma ogromny wpływ na biznes. Oraz na to jak komunikować się ze użytkownikami w serwisach społecznościowych.

Dlatego firma będzie oferować za pomocą stworzonego modelu konkretne produkty, dzięki którym klient s za pomocą prostego interfejsu będzie mógł obsługiwać sieci społecznościowe, reagować na wszelkiego rodzaju publikacje, ale także sam przygotowywać odpowiednie kampanie pod użytkowników sieci.