Fotografie wygenerowane przez sztuczną inteligencję wkrótce mogą się stać codziennością kampanii dezinformacji politycznej w internecie. Od strony prawnej nie jesteśmy na to gotowi.

Premier Mateusz Morawiecki wychodzi z hotelu pod rękę z piękną kobietą, a następnie omdlewa w miejscu publicznym. Donald Tusk zostaje zatrzymany przez Centralne Biuro Antykorupcyjne. Te wiadomości, choć fałszywe mogą zdobyć popularność w sieci, zwłaszcza jeśli są poparte zdjęciami. Takie fotografie w kilkadziesiąt minut wygenerowaliśmy w wykorzystującym sztuczną inteligencję programie Midjourney. Za 10 dol. może to zrobić każdy, a później wykorzystać do kampanii dezinformacyjnej.

Zdjęcie wygenerowane przez AI / Dziennik Gazeta Prawna

Choć fotomontaże czy zmanipulowane filmy wideo od lat są częścią cyberprzestrzeni, tworzenie fałszywych wiadomości jeszcze nigdy nie było tak proste. Od ubiegłego roku popularność zdobywają programy, które pozwalają generować fałszywe obrazy bez znajomości programów graficznych. Wystarczy wpisać zamówienie, by po minucie aplikacja wyświetliła spreparowane zdjęcie. Jeśli opis jest wystarczająco dobry, fotografia może być bardzo przekonująca. – Czas, żeby politycy w Polsce zainteresowali się tym tematem, bo każdy z nich może paść ofiarą zmanipulowanych fotografii. Dzisiaj to żaden problem, by pokazać na zdjęciach choćby zabójstwo ważnego polityka – mówi Wojtek Kardyś, specjalista w dziedzinie komunikacji internetowej. – Minimum to choćby wprowadzenie i egzekwowanie oznaczeń dla treści typu deep fake – uważa.

– Wciąż nie mamy jednolitych regulacji w zakresie dezinformacji – przypomina Piotr Mieczkowski z fundacji Digital Poland. I dodaje, że są one rozmieszczone w kilku miejscach, m.in. w prawie telekomunikacyjnym, które mówi, że Agencja Bezpieczeństwa Wewnętrznego może zablokować stronę zagrażającą bezpieczeństwu Polski, czy w ustawie o ochronie dóbr osobistych, na mocy której można pozwać kogoś, jeśli treści godzą w jego dobre imię. O to, czy w Polsce trwają prace nad uregulowaniem obrazów generowanych przez AI, zapytaliśmy pełnomocnika rządu ds. dezinformacji, pełnomocnika ds. cyberbezpieczeństwa oraz Ministerstwo Rozwoju i Technologii. Do zamknięcia numeru od nikogo nie otrzymaliśmy jednak odpowiedzi. Nad regulacjami dotyczącymi użycia AI pracuje tymczasem Unia Europejska. Aktualnie są one na etapie ustaleń w Parlamencie Europejskim. Mają one się zakończyć do końca roku, a sam „AI Act” ma zacząć obowiązywać do 2025 r.

Zdjęcie wygenerowane przez AI / Dziennik Gazeta Prawna

– Jednym z jego głównych założeń jest to, by treści wygenerowane przez sztuczną inteligencję były wyraźnie oznaczane – mówi Filip Konopczyński z fundacji Panoptykon, który przygląda się pracom nad dokumentem. – W pracach Parlamentu Europejskiego pojawiają się także pewne wyjątki, np. wykorzystanie w sztuce i satyrze, a także w mediach – zastrzega. To z kolei może prowadzić do nadużyć. Wystarczy bowiem założyć stronę, która udaje portal informacyjny, i w ten sposób korzystać z takiego udogodnienia, jednocześnie rozsiewając dezinformację. Być może najszybciej do zmian zaadaptują się same platformy. W Stanach Zjednoczonych od kilku dni popularne stały się fałszywki przedstawiające zatrzymanie Donalda Trumpa. Trafiły na podatny grunt, bo były prezydent sam mówił w mediach, że „prawdopodobnie zostanie aresztowany we wtorek”.

Zdjęcie wygenerowane przez AI / Dziennik Gazeta Prawna

I choć nic takiego się nie stało, w odpowiedzi na wysyp fałszywych treści TikTok zmienił przedwczoraj swój regulamin. Będzie zabronione umieszczanie spreparowanych filmów, które przedstawiają realistyczne sytuacje bez wyraźnego oznaczenia. Moderacja będzie również usuwać treści, które przypominają prawdziwe osoby (zarówno w warstwie wideo, jak i dźwiękowej) oraz takie, które zostały zmontowane tak, by wprowadzać ludzi w błąd odnośnie do rzeczywistych wydarzeń. Pozostałe platformy nie wprowadziły jeszcze podobnych rozwiązań. Pracuje nad nimi sam Midjourney, czyli generator, którego użyliśmy do stworzenia fałszywych zdjęć na potrzeby tego artykułu. Wprowadzono w nim ograniczenia dotyczące użycia konkretnych słów do generowania obrazów. O ile jeszcze we wtorek można było zamówić w narzędziu, by wytworzyło scenę zatrzymania przez policję, o tyle w środę rano było to już niemożliwe. Żądanie opierające się na słowie „zatrzymany” zaczęło łamać standardy społeczności. Zdaniem Mieczkowskiego najważniejsza pozostanie edukacja medialna. – Potrzebne są działania w szkołach i na uniwersytetach, nauka krytycznego myślenia. Tego dziś brakuje. Ważne będą też szeroko rozumiane kampanie edukacyjne, które powinny być przygotowane na szczeblu rządowym – przekonuje nasz rozmówca. ©℗