Do domu Krzysztofa Stanowskiego zapukała policja. Przyjechała sprawdzić, czy faktycznie brutalnie zamordował swoją żonę. Takie zgłoszenie funkcjonariusze przyjęli z… numeru telefonu Stanowskiego. Żona okazała się cała i zdrowa, a cała sprawa to skutek cyberprzestępstwa – spoofingu.

Ofiarą takiego nadużycia może paść każdy, nie tylko dziennikarz celebryta. Oszuści korzystają z serwisów, które umożliwiają podszywanie się pod dowolny numer. Jeśli jest wpisany w książkę telefoniczną osoby, do której dzwonią, to odpowiednio się wyświetli: jako „mama”, „kierownik” czy „obsługa banku”. Jeśli przestępca zdobędzie zaufanie ofiary, ma szansę wyłudzić dostęp do jej konta czy przelew. Co ciekawe, osoba odbierająca połączenie nie ma możliwości wykrycia, że numer jest przechwycony przez przestępców – może to zrobić operator sieci albo już po fakcie policja. Przestępcy posługują się w rozmowach techniką „na wnuczka” – przekonują, że bliska nam osoba wpadła w kłopoty i potrzebuje pieniędzy. Ewentualnie „na pracownika ZUS”, próbując wmówić nam problemy z wypłaceniem emerytury.

Z innego podwórka: amerykańska piosenkarka Taylor Swift została gwiazdą filmów pornograficznych, które zdobywały gigantyczną popularność na X (dawniej Twitter). Oczywiście w żadnej takiej produkcji nie występowała – jej twarz została nałożona na ciało aktorki porno. Podobne przypadki jak te zza oceanu przywędrowały do Polski. W serwisach z syntetycznie wytworzoną pornografią jest pełno filmów przedstawiających np. Justynę Steczkowską, Katarzynę Cichopek, Dodę czy tenisistkę Igę Świątek. Do ich „wyprodukowania” wystarczą pojedyncze zdjęcia twarzy. Eksperci ds. bezpieczeństwa w sieci zapewniają, że używanie techniki deepfake stanie się niedługo codziennością znudzonych nastolatków czy zazdrosnych znajomych z pracy – i będzie mogło dotknąć każdą, nawet prywatną osobę.

Jeszcze z innej beczki: Scarlett Johansson wydała w tym tygodniu oświadczenie, w którym zarzuca firmie technologicznej OpenAI wykorzystanie głosu przypominającego jej własny w systemie ChatGPT-4o. To nowy model sztucznej inteligencji, który ma analizować dane z otoczenia i rozmawiać z użytkownikiem tak, jak gdyby robiła to druga osoba. Rozwiązanie ma nawiązywać do filmu „Her”, w którym asystentka AI ma głos Johansson.

Aktorka ujawniła, że we wrześniu ub.r. Sam Altman zaproponował jej, by użyczyła go także systemowi od OpenAI. Ofertę jednak odrzuciła. W czasie prezentacji modelu zauważyła, że głos użyty w oprogramowaniu brzmi niepokojąco podobnie do jej głosu, co wywołało konsternację.

Wszystkie wymienione przypadki nadużyć łączy jedno: ich ofiarą padła znana osoba. Tylko z tego powodu informacje o oszustwach trafiły do szerokiego grona. I wywołały silną reakcję. Niedawno w Kongresie USA zaprezentowano tzw. Taylor Swift Act – tak popularnie określa się prawo, które ma ograniczyć wykorzystanie technologii deepfake. Ustawa definiuje zjawisko oraz przewiduje kary finansowe za tworzenie i rozpowszechnianie takich materiałów. Ofiary będą mogły się domagać zadośćuczynienia za szkody emocjonalne i reputacyjne.

Firma OpenAI musiała zareagować na oświadczenie Scarlett Johansson, bo aktorkę stać na zatrudnienie sztabu prawników, którzy skierowali do Altmana pisma w tej sprawie. Inne osoby, które padły ofiarami nadużyć ze strony spółki pracującej nad modelem sztucznej inteligencji, takich możliwości nacisku nie mają. Jeśli mieszkają w Europie, to mogą złożyć skargę do instytucji odpowiedzialnej za ochronę danych osobowych. Tyle że to wymaga określonych kompetencji, a rozpatrzenie skargi trwa miesiącami, a nawet latami. W ubiegłym roku skargę na OpenAI złożył dr Łukasz Olejnik, niezależny konsultant cyberbezpieczeństwa. ChatGPT wyświetlał użytkownikom nieprawdziwe informacje na jego temat. Sprawa ciągle jest w toku, a błędne informacje można nadal wygenerować za pomocą narzędzia.

Celebryci są gotowi zaangażować ogromne środki w walkę z cyberprzestępcami, bo oszustwa z wykorzystaniem nowoczesnych technologii bezpośrednio zagrażają ich egzystencji. Wytwórnie mają nagrania ich ruchów, głosu, w sieci zostały opublikowane miliony zdjęć. Kto wie, czy AI z powodzeniem nie zastąpi ich w kolejnych produkcjach. Znane osoby nie powinny jednak występować tylko w swoim imieniu. Broniąc własnych interesów w starciu z cyberprzestępcami czy spółkami technologicznymi, powinny się stać jednocześnie rzecznikami milionów anonimowych użytkowników internetu, którzy miewają podobne problemy, ale nie mają sił i środków, by toczyć boje.

Tak zrobiła Zelda Williams, córka zmarłego 10 lat temu aktora Robina Williamsa. Kiedy w USA trwał strajk scenarzystów (studia chciały wytrenować AI na ich pracy, a potem zastąpić ich maszynami) i aktorów (wytwórnie miały skanować ich wizerunki, by później maszynowo je odtwarzać), opublikowała apel, w którym przekonywała, że należy ograniczyć rozwój takich technologii. Wykorzystała znane nazwisko, aby upomnieć się o prawa osób, które nie mają tak dużych jak ona możliwości. Jeśli celebryci chcą, aby ludzie stanęli za nimi, niech sami najpierw ujmą się za tymi, którym brakuje siły przebicia. ©Ⓟ