W ostatnich latach temat sztucznej inteligencji przyciąga coraz większą uwagę ze względu na szeroki zakres jej zastosowań. Na wzrost zainteresowania tą tematyką szczególnie miało wpływ pojawienie się pod koniec 2022 r. ChatGPT, chatbota opartego na generatywnej sztucznej inteligencji. Niewątpliwie, rozwój tego rodzaju technologii przynosi nie tylko nowe możliwości, lecz także istotne wyzwania prawne.

W odróżnieniu od narzędzi AI służących przede wszystkim do analizy danych i przewidywania określonych zjawisk, generatywna sztuczna inteligencja potrafi tworzyć nowe treści na podstawie istniejących materiałów, takich jak teksty, obrazy czy melodie. Do najpopularniejszych modeli tego rodzaju należą ChatGPT, Microsoft Copilot czy Midjourney.

Choć generatywna sztuczna inteligencja niesie nowe możliwości, jej stosowanie wiąże się również z ryzykiem. Jednym z nich jest możliwość naruszenia prawa do wizerunku lub innych dóbr osobistych.

Ryzyka związane ze stosowaniem AI w kontekście ochrony dóbr osobistych. Czym jest wizerunek?

Wizerunek jest pojęciem, które nie ma powszechnie obowiązującej definicji prawnej, chociaż wielokrotnie próbowano określić, z jakich elementów się on składa. Najczęściej wskazuje się, że obejmuje on przede wszystkim dostrzegalne cechy fizyczne człowieka, które kształtują jego wygląd i pozwalają na identyfikację spośród innych osób. Może on składać się także z takich elementów jak charakterystyczny ubiór czy sposób poruszania się. Niektórzy zwracają uwagę na to, że częścią wizerunku jest także głos, ponieważ jego barwa czy skala mogą ułatwić identyfikację danej osoby.

Ważne jest, aby wizerunek pozwalał na rozpoznanie osoby przedstawionej na zdjęciu czy nagraniu. Możliwość identyfikacji nie musi mieć charakteru powszechnego – wystarczy, że osoby bliskie mogą na jego podstawie rozpoznać daną osobę.

W Polsce ochronę wizerunku zapewniają przepisy kodeksu cywilnego, ustawy o prawie autorskim i prawach pokrewnych oraz unijnego rozporządzenia o ochronie danych (RODO).

Na gruncie kodeksu cywilnego wizerunek jest dobrem osobistym przysługującym każdemu człowiekowi. Do jego naruszenia dochodzi, gdy spełnione są trzy warunki jednocześnie:

  • istnieje dobro osobiste w postaci wizerunku,
  • cudzy wizerunek został naruszony lub istniało zagrożenie jego naruszenia,
  • naruszenie lub zagrożenie miało charakter bezprawny.

Przy ocenie, czy doszło do naruszenia, nie ma znaczenia, czy działanie naruszyciela było zawinione.

Z kolei zgodnie z ustawą o prawie autorskim i prawach pokrewnych do naruszenia praw do wizerunku dochodzi wtedy, gdy jest on rozpowszechniany bez zezwolenia osoby na nim przedstawionej. Zezwolenie nie jest wymagane, gdy:

  • osoba otrzymała wynagrodzenie za pozowanie,
  • wizerunek osoby powszechnie znanej został rozpowszechniony w związku z pełnieniem przez nią funkcji publicznych, np. politycznych,
  • wizerunek stanowi wyłącznie szczegół większej całości, np. zgromadzenia, krajobrazu czy publicznej imprezy.

Ponadto, zgodnie z RODO, wizerunek traktowany jest jako dana osobowa, ponieważ pozwala on na identyfikację konkretnej osoby. Na podstawie takich cech jak kolor oczu lub włosów, karnacja czy charakterystyczne znamiona możliwe jest rozpoznanie danej osoby. Naruszenie przepisów RODO zachodzi wtedy, gdy wizerunek jest przetwarzany bez odpowiedniej podstawy prawnej, np. bez zgody osoby, której dotyczy.

Deepfake i digital cloning, czyli jakie zagrożenia wynikają ze stosowania narzędzi AI

Jedną z najpowszechniejszych form ingerencji w cudze prawo do wizerunku są deepfaki. W unijnym rozporządzeniu AI Act zdefiniowano je jako wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.

Deepfaki powstają w różnych kontekstach, np. edukacyjnym, rozrywkowym, dezinformacyjnym czy dyskredytacyjnym. Szczególnie niebezpieczne są dwa ostatnie, ponieważ ich twórcy celowo chcą wprowadzić odbiorców w błąd. Jako przykład niebezpiecznego deepfake’a można wskazać niedawny materiał przedstawiający prezydenta Karola Nawrockiego, w którym rzekomo namawiał on Polaków do rejestracji na platformie służącej do inwestycji w kryptowaluty. Nagranie wyglądało na prawdziwe, a to, że zostało wygenerowane przez narzędzie generatywnej sztucznej inteligencji, nie było od razu widoczne.

Jeszcze większe wyzwania wiążą się z materiałami przedstawiającymi nieżyjące postaci. Dzięki narzędziom generatywnej AI możliwe staje się tworzenie nowych nagrań, wypowiedzi czy wystąpień zmarłych osób, co rodzi poważne wątpliwości zarówno prawne, jak i etyczne.

W przeciwieństwie do deepfake’ów w rozporządzeniu AI Act nie zdefiniowano pojęcia digital cloning. Polega ono na cyfrowym odtworzeniu wyglądu i głosu konkretnej osoby, często za jej zgodą, co umożliwia generowanie nowych treści z jej udziałem, mimo że faktycznie nie uczestniczyła ona w ich tworzeniu. Jako przykład takiej formy można wskazać cyfrową rzeczniczkę Ministerstwa Spraw Zagranicznych Ukrainy, Victorię Shi, stworzoną na wzór influencerki Rosali Kovbasa. Mimo że influencerka zgodziła się na stworzenie swojego cyfrowego klona, istnieje ryzyko, że jej wizerunek mógłby zostać wykorzystany do stworzenia innej postaci w nieprzewidzianym przez nią celu.

Nie należy mylić pojęcia digital cloningu z deepfake’ami. Te drugie polegają na modyfikacji istniejących materiałów, np. twarzy w nagraniu wideo, często bez wiedzy osoby, której wizerunek jest wykorzystywany w treści, w sposób trudny do wykrycia jako nieprawdziwy. Z kolei digital cloning polega na stworzeniu cyfrowego sobowtóra danej osoby od podstaw.

Obie formy stwarzają nowe wyzwania dla ochrony wizerunku. Nawet przy zgodzie danej osoby na wykorzystanie jej wizerunku istnieje ryzyko jego wykorzystania w sposób przez nią nieprzewidziany. Deepfaki i digital cloning pokazują, jak ważne staje się świadome podejście do własnego wizerunku w dobie rozwoju narzędzi generatywnej AI.

Ryzyko naruszeń dóbr osobistych. Jak możemy się chronić przed nadużywaniem narzędzi AI

Obecnie w Polsce nie istnieje jeden akt prawny, który kompleksowo regulowałby ochronę wizerunku z uwzględnieniem specyfiki narzędzi generatywnej sztucznej inteligencji. Unijne rozporządzenie AI Act wprowadza co prawda wymóg przejrzystości polegający na oznaczaniu treści generowanych przez AI, jednak nie eliminuje to ryzyka naruszeń prawa do wizerunku. W efekcie ochrona przed wykorzystywaniem wizerunku przez narzędzia generatywnej sztucznej inteligencji musi opierać się na przepisach krajowych lub na unijnym rozporządzeniu RODO (gdy wizerunek stanowi dane osobowe).

Jeżeli dochodzi do naruszenia dobra osobistego w postaci wizerunku, osoba poszkodowana może przede wszystkim domagać się zaniechania bezprawnej ingerencji oraz podjęcia działań zmierzających do usunięcia jej skutków, np. złożenia odpowiedniego oświadczenia. Możliwe jest także żądanie zadośćuczynienia pieniężnego lub zapłaty określonej kwoty na wskazany cel społeczny. W przypadku szkody majątkowej poszkodowany może domagać się jej naprawienia na zasadach ogólnych. Podobne środki przysługują również na gruncie ustawy o prawie autorskim i prawach pokrewnych w razie nielegalnego rozpowszechniania cudzego wizerunku. Gdy naruszenie wiąże się z przetwarzaniem danych osobowych w postaci wizerunku, można skorzystać ze środków przewidzianych w RODO, m.in. z prawa do usunięcia danych osobowych.

W praktyce jednak wskazane mechanizmy nie zawsze okazują się wystarczające w przypadku naruszeń dokonywanych przy użyciu narzędzi generatywnej AI. Obowiązujące regulacje nie uwzględniają w pełni specyfiki tej technologii, co szczególnie jest widoczne na przykładzie deepfake’ów. Tego rodzaju materiały rozpowszechniane są w szybkim tempie, a ustalenie ich faktycznego twórcy bywa znacznie utrudnione. Choć deepfaki podlegają wymogom przejrzystości wynikającym z AI Act, obowiązek oznaczania treści wygenerowanych przy wykorzystaniu sztucznej inteligencji nie zapewnia pełnej ochrony praw do wizerunku. Co więcej, wciąż stosunkowo rzadko dostrzega się zagrożenia związane z digital cloningiem. Tymczasem także ta forma wykorzystania wizerunku może stanowić realne niebezpieczeństwo dla jego ochrony.

Różnorodność form ingerencji w prawo do wizerunku, możliwych przy użyciu powszechnie dostępnych narzędzi generatywnej sztucznej inteligencji, pokazuje, że obecnie obowiązujące regulacje prawne nie zawsze zapewniają pełną ochronę. Wizerunek może być rozpowszechniany bezprawnie, często w sposób trudny do wykrycia. Dlatego w przypadku naruszeń kluczowa jest szybka reakcja.