Sztuczna inteligencja jest już nieodłącznym elementem cyfrowego świata. Ale dyskusja o podstawie prawnej przetwarzania danych do jej trenowania dopiero nabiera rozpędu.

Szkolenie modeli generatywnej sztucznej inteligencji, takich jak ChatGPT, wymaga ogromnych ilości danych, w tym danych osobowych. Pojawia się więc pytanie, na jakiej podstawie prawnej mogą być one przetwarzane. Wybrzmiało ono szczególnie głośno niedawno, gdy Meta postanowiła trenować AI na treściach dorosłych użytkowników Facebooka i Instagrama w całej Unii Europejskiej.

Zgoda czy interes

Co zatem powinno być podstawą przetwarzania danych osobowych do trenowania AI?

– W przypadku danych wrażliwych mamy możliwość powołania się na podanie ich do publicznej wiadomości przez osobę, której one dotyczą – odpowiada dr Paweł Litwiński, adwokat, partner w kancelarii Barta Litwiński i członek Społecznego Zespołu Ekspertów przy PUODO.

Podaniem do publicznej wiadomości może być np. opublikowanie w mediach społecznościowych swojego zdjęcia z tęczowej demonstracji albo z kościoła.

– Takie dane mogą być wykorzystane, oczywiście jeśli są spełnione przesłanki RODO: minimalizacja, celowość itd. – wylicza ekspert.

Dane wrażliwe stanowią jednak margines. Większość potrzebnych do szkolenia AI to zwykłe dane osobowe.

– W ich przypadku w grę wchodzi tylko zgoda albo uzasadniony interes – wyjaśnia Paweł Litwiński.

Jakub Pawłowski, radca prawny z LexDigital, podkreśla, że zgoda spełniająca przesłanki RODO – a więc dobrowolna, konkretna i jednoznaczna – jest najbezpieczniejszą podstawą przetwarzania danych.

– Chociaż dla administratorów to utrudnienie, bo do trenowania AI są potrzebne ogromne ilości informacji. Trzeba więc zaprojektować system zbierania zgód i uzyskać je od dużej liczby użytkowników. To trudne zadanie i dlatego największe firmy rozwijające AI idą w kierunku uzasadnionego interesu – mówi Jakub Pawłowski.

Doktor Iga Małobęcka-Szwast, radca prawny i adiunkt z Wydziału Prawa i Administracji Uniwersytetu Warszawskiego, zaznacza, że żadnej z tych podstaw nie można z góry wykluczyć, ale zastosowanie każdej z nich w odniesieniu do trenowania AI będzie rodzić problemy.

– W przypadku zgody trzeba m.in. wskazać cel przetwarzania danych, a to niełatwe do ustalenia ex ante, na etapie szkolenia AI. Ogólnikowa informacja, że chcemy przetwarzać dane w celu trenowania naszego chatbota, będzie niewystarczająca. Bardziej szczegółowe sformułowanie mogłoby mieć brzmienie: w celu trenowania chatbota, który będzie wykorzystywany do wyboru najlepiej dopasowanych ofert pracy. Ale powstanie problem, jeśli po wytrenowaniu model AI będzie miał inne zastosowanie – mówi Małobęcka-Szwast.

Meta mówi stop

Ponieważ zgody na masową skalę trudno uzyskać, głównym kierunkiem jest prawnie uzasadniony interes (PUI). Jednak Paweł Litwiński podchodzi do tej podstawy sceptycznie.

– Jest bardzo wątpliwe, aby dało się uzasadnić jej zastosowanie. Podstawowym warunkiem jest tu świadomość, że nasze dane są wykorzystywane – abyśmy mogli zgłosić sprzeciw. Tymczasem przeważnie nie jesteśmy informowani, że nasze dane służą do szkolenia AI, a więc nie możemy skorzystać z prawa do zgłoszenia sprzeciwu – argumentuje.

Nawet przekazanie takiej informacji nie załatwia sprawy. Na PUI chciała się oprzeć Meta, aby użyć do szkolenia AI danych osobowych np. z postów czy zdjęć umieszczanych na jej platformach. Wysłała wiadomości do wszystkich użytkowników Facebooka i Instagrama w UE, ale i tak spotkała się z powszechnym oburzeniem i ze skargami – które austriacka organizacja Noyb złożyła w czerwcu do organów w 11 krajach, w tym do polskiego Urzędu Ochrony Danych Osobowych.

Argumenty Noyb przemawiają do Jakuba Pawłowskiego. Aby PUI nie był nadużywany, stosuje się test równowagi, sprawdzający cel, niezbędność i równowagę przetwarzania danych. Noyb uważa, że Meta nie zdefiniowała swojego interesu. Co więcej, samo zwiększanie zysków firmy lub zbieranie danych nie stanowi uzasadnionego interesu. Noyb zwraca też uwagę na oczekiwania osób, których dane dotyczą. Skoro użytkownik platformy nie może mieć uzasadnionych oczekiwań, że jego dane są przetwarzane w celu profilowania reklam (mowa jest o tym w wyroku Trybunału Sprawiedliwości UE, jaki zapadł w sprawie C-252/21), to tym bardziej nie może oczekiwać, że posłużą do trenowania sztucznej inteligencji.

– To jedna z kluczowych kwestii w tej sprawie – podkreśla Jakub Pawłowski.

W rezultacie META zawiesiła realizację swojego pomysłu.

– Gdyby Meta była pewna tego rozwiązania, nie zrezygnowałaby. Skoro jednak udało się skłonić jednego z największych globalnych graczy do zmiany zdania, to znaczy, że dużo więcej jest argumentów przeciwko istnieniu uzasadnionego interesu w tym przypadku – komentuje dr Litwiński.

Twardy orzech

Kolejny problem dotyczy obu podstaw przetwarzania. – Danych, które wykorzystamy do trenowania AI, ten system już się nie oduczy – mówi Iga Małobęcka-Szwast. – A to oznacza, jak wyjaśnia nasza rozmówczyni, że zaprzestanie przetwarzania, gdy podmiot danych cofnie swoją zgodę, jest praktycznie niewykonalne. Analogicznie w przypadku uzasadnionego interesu mamy szansę wyrażenia sprzeciwu tylko do momentu rozpoczęcia treningu AI.

Tak było w przypadku Mety, która dała czas na ewentualny sprzeciw tylko do 26 czerwca br., bo potem miała zacząć przetwarzanie danych.

– To też jest sprzeczne z RODO. Nie ma żadnych podstaw, aby prawo do sprzeciwu i prawo do cofnięcia zgody były ograniczane – stwierdza prawniczka. I dodaje, że AI stoi w poprzek RODO: założenia tej technologii nie spełniają chociażby zasady minimalizacji danych i ograniczenia celu przetwarzania. Realizacja praw podmiotów danych też jest mocno utrudniona.

– Bez naginania obecnych przepisów czy zmiany w zakresie ich – raczej restrykcyjnej – interpretacji przez właściwe organy, ale też bez zmiany podejścia samych dostawców systemów AI (np. skupienie się nie na ilości, tylko na jakości danych treningowych) nie widzę przestrzeni do rozwoju AI w zgodzie z RODO. To twardy orzech do zgryzienia – mówi dr Małobęcka-Szwast.

Czy to oznacza czerwone światło dla rozwoju sztucznej inteligencji?

– Europa nie jest samotną wyspą na oceanie nowych technologii. Coś trzeba zrobić, bo inaczej zostaniemy z pustymi rękami. Zerowanie możliwości rozwoju AI nie jest dobrym rozwiązaniem. Konieczne są więc zmiany – odpowiada Paweł Litwiński.

Zaznacza, że nie chodzi o zmianę przepisów RODO, lecz o zmianę podejścia do ich stosowania.

– Musimy być bardziej elastyczni, RODO na to pozwala. Regulacja ma nadążać za rozwojem nowych technologii. W wielu przypadkach można moim zdaniem dopuścić przetwarzanie danych osobowych do szkolenia AI na podstawie uzasadnionego interesu, jeśli zastosuje się przy tym odpowiednie mechanizmy ograniczania ryzyka po stronie systemów AI – uważa dr Litwiński. I dodaje, że w przypadku Facebooka jednak, jak widać, ta podstawa się nie utrzymała, co może być skutkiem ogromnej nierównowagi między nami, użytkownikami platformy, a samą platformą. I zapewne test równowagi to pokazał.

Skargi Noyb na Metę wywołały do tablicy organy ochrony danych.

– Nie odpowiem dzisiaj, która podstawa będzie właściwa, bo toczy się postępowanie – zastrzegał Piotr Drobek, radca prezesa UODO, na konferencji „Ochrona danych osobowych w świetle aktu o sztucznej inteligencji i innych aktów wdrażających europejską strategię danych”, zorganizowanej w końcu czerwca przez UODO i WPiA UW.

Dodawał, że Europejska Rada Ochrony Danych przygotowuje w tym zakresie wytyczne – dotyczące m.in. tego, na jakich zasadach można by się powoływać na PUI. ©℗

ikona lupy />
Zaufanie Polaków do sztucznej inteligencji (AI) / Dziennik Gazeta Prawna - wydanie cyfrowe