„W ostatnich miesiącach w Polsce zaczęły pojawiać się przypadki, w których twórcy internetowi, dziennikarze czy osoby publiczne informują o nieuprawnionym wykorzystaniu ich głosu i wizerunku przez systemy generatywnej sztucznej inteligencji. Wykorzystanie modeli zdolnych do syntetycznego odtwarzania głosu lub wizerunku realnych osób bez ich zgody stanowi poważne zagrożenie dla ochrony dóbr osobistych, prywatności i zaufania społecznego do informacji rozpowszechnianych w sieci. Z uwagi na coraz większą dostępność narzędzi tego typu można przewidywać, że skala zjawiska będzie się w najbliższym czasie tylko zwiększać” – napisały.

I rzeczywiście, siedem posłanek KO, które pod koniec października zgłosiły do ministra cyfryzacji interpelację w sprawie ochrony osób fizycznych przed nieautoryzowanym wykorzystaniem ich głosu, wizerunku i innych cech osobistych przez systemy sztucznej inteligencji, miało rację.

Usłyszał swój głos w reklamie oczyszczalni ścieków

W listopadzie dowiedzieliśmy się o wykorzystaniu zmienionego przez AI głosu znanego lektora Jarosława Łukomskiego bez jego wiedzy przez spółkę wodno-kanalizacyjną. Firma wykorzystała jego głos do reklamy przydomowych oczyszczalni ścieków.

Próbki głosu Łukomskiego były zarejestrowane w internetowym banku głosów Mikrofonika. Media donoszą, że firma wykorzystała głos Łukomskiego, przetworzony przez sztuczną inteligencję, w reklamach swoich produktów. A więc było to wykorzystanie do celów komercyjnych.

Lektor ma podpisaną umowę z firmą Mikrofonika dotyczącą klonowania jego głosu i używania go. Spółka wodno-kanalizacyjna nie pytała, czy może użyć głosu Łukomskiego, ani nawet nie poinformowała, że to zrobi.

Łukomski mówi, że ktoś wysłał mu reklamę, w której słyszał jego głos, ale wydał mu się podejrzany. „Doznałem pewnej krzywdy, która ma wymiar materialny i niematerialny, i będę dochodził swoich praw z tego tytułu. Będę oczekiwał, że to, co zostało uczynione, będzie naprawione” – mówi Łukomski i dodaje, że w ten sposób walczy też o prawa innych lektorów.

Kradzież głosu przez sztuczną inteligencję. Mikrofonika złożyła pozew

Mikrofonika złożyła pozew w Sądzie Okręgowym w Warszawie, m.in. o naruszenie dóbr osobistych. Wiktoria Stasiewicz z kancelarii Meritum w Gdyni, która przygotowywała pozew, mówi, że „po raz pierwszy w polskiej judykaturze będzie rozpatrywane powództwo, które dotyczy prawa do wyjątkowo rozpoznawalnego głosu. Przy czym naruszenie to nie nastąpiło w tradycyjny sposób, a z wykorzystaniem sztucznej inteligencji”.

„Nie koncentrujemy się jedynie na szkodzie niemajątkowej, czyli krzywdzie lektora, ale przede wszystkim odwołujemy się do koncepcji Right of publicity, czyli tzw. prawa do persony, które daje każdej osobie rozpoznawalnej możliwość kontrolowania i decydowania o komercyjnym wykorzystaniu swojego wizerunku, czy jakichkolwiek cech ją identyfikujących, czyli w przypadku lektorów przede wszystkim głosu. Będziemy dowodzić przede wszystkim, że głos zasługuje na ochronę, także w aspekcie majątkowym. Wykażemy jego realną i wymierną wartość rynkową” – mówi Stasiewicz.

Jej zdaniem, wykorzystanie deepfake’ów w przypadku rozpoznawalnych głosów, zwłaszcza w celach komercyjnych, nie prowadzi tylko do krzywdy osób, do których te dobra należą, ale też prowadzi do zwyczajnego bezpodstawnego wzbogacenia naruszycieli lub do szkody także majątkowej po stronie poszkodowanego. „Mamy nadzieję, że ta sprawa wyznaczy nowe standardy dla ochrony praw osobistych również w ujęciu majątkowym, biorąc pod uwagę znaczącą rolę sztucznej inteligencji w działalności biznesowej w każdej branży” – mówi.

Posłanki zwracają uwagę na braki w prawie

Jednak posłanki w październikowej interpelacji zwracały uwagę, że w obecnym stanie prawnym ochrona przed tego rodzaju działaniami jest rozproszona i pośrednia.

Ich zdaniem pewien poziom ochrony zapewniają przepisy kodeksu cywilnego dotyczące dóbr osobistych, ustawa o prawie autorskim i prawach pokrewnych oraz kodeks karny w zakresie podszywania się pod inną osobę, RODO oraz ustawa o ochronie danych osobowych. Jednak żaden z tych aktów prawnych nie odnosi się bezpośrednio do zjawiska syntetycznego generowania treści przez systemy sztucznej inteligencji.

Jednak „obecne przepisy nie przewidują ani jasnych zasad odpowiedzialności za wykorzystanie czyjegoś głosu lub wizerunku przez modele AI, ani procedur pozwalających na szybkie usuwanie takich treści z internetu. W praktyce osoby poszkodowane mają ograniczone możliwości reakcji, a proces dochodzenia ochrony dóbr osobistych jest czasochłonny i kosztowny” - napisały.

Posłanki zwróciły też uwagę na unijne rozporządzenie AI, które przewiduje m.in. obowiązek oznaczania materiałów audio, wideo lub obrazów wygenerowanych lub zmodyfikowanych przez AI oraz zakazuje wykorzystywania systemów mogących w sposób nieuprawniony manipulować ludźmi lub naruszać ich godność.

Jak zauważyły, pozostawia ono wiele kwestii – takich jak ochrona indywidualnych praw do głosu, wizerunku i tożsamości – do uregulowania na poziomie krajowym. „Dlatego państwa członkowskie, w tym Polska, stoją obecnie przed koniecznością opracowania krajowych mechanizmów wdrożeniowych oraz ewentualnego rozszerzenia ochrony ponad minimum wynikające z AI Act”.

Zwróciły uwagę, że w Danii zaproponowano przypisanie każdej osobie fizycznej prawa do własnego głosu, wizerunku i cech twarzy jako elementu ochrony prawnej przed nieautoryzowanym generowaniem treści przez AI.