Wyzwań na styku prawa, technologii i człowieka jest bardzo dużo. Zakazy i nakazy nie rozwiążą wszystkich problemów.

Jakiś czas temu w internecie zawrzało w związku z listem otwartym podpisanym przez m.in. Elona Muska i Steve’a Wozniaka, w którym wezwano do czasowego wstrzymania prac nad sztuczną inteligencją. Powodem ma być zbyt dynamiczny rozwój rozwiązań jak ChatGPT, które mogą zaszkodzić ludzkości na wiele sposobów. Sygnatariusze wskazują na potrzebę uporządkowania spraw związanych ze sztuczną inteligencją, także w obszarze prawa i regulacji oraz przeciwdziałania ryzyku powstania czegoś, co w nauce nazywamy silną sztuczną inteligencją, będącą próbą odwzorowania człowieka. W wielu miejscach nie sposób nie zgodzić się z jego autorami, którzy postulują m.in. konieczność tworzenia dedykowanych organów nadzorczych czy wprowadzenia niezależnych audytów systemów AI, lecz jednocześnie narracja opierająca się na budowaniu strachu przed hollywoodzką wizją narzędzia, jakim jest sztuczna inteligencja, odbiera w jakimś sensie powagę tego listu.

Wkrótce pojawiły się informacje na temat planowanych i wdrażanych zakazów i nakazów związanych z wykorzystaniem narzędzia OpenAI w związku z naruszeniami w obszarze prywatności i ochrony danych osobowych. Działania te – przynajmniej oficjalnie – rozpoczął włoski organ, a w jego ślad zamierzają iść także inne państwa, nie tylko w Unii Europejskiej. Temat moratorium na rozwiązania oparte na uczeniu maszynowym i przetwarzaniu języka naturalnego stał się przedmiotem szerszej dyskusji, także wśród przeciętnych obywateli.

Brak definicji

Rozwiązania prawne tworzone na poziomie Unii Europejskiej, ale także w Stanach Zjednoczonych, mają na celu zabezpieczyć nas – ludzi – przed ryzykiem związanym z wykorzystaniem systemów sztucznej inteligencji (jakkolwiek dyskusyjne jest, czym jest sztuczna inteligencja), które próbuje się definiować na różne sposoby, nie zawsze do końca poprawnie „technicznie” i przez to wzbudzające wątpliwości co do tego, co właściwie ma być przedmiotem regulacji. Z perspektywy pewności prawa proponowane definicje są po prostu zbyt szeroko opisane, a stosowane w nich pojęcia mogą budzić wiele wątpliwości interpretacyjnych. W efekcie adresaci norm określonych chociażby w projekcie rozporządzenia w sprawie sztucznej inteligencji (AI Act) mogą być – w przyszłości – zmuszeni do dokonywania bardzo czasochłonnego i kapitałochłonnego ćwiczenia polegającego na klasyfikacji wszystkich rozwiązań, które choćby w najmniejszym stopniu mogą dotykać przedmiotu tego aktu prawnego. W tym zakresie postulowane jest stworzenie bardziej skonkretyzowanej definicji systemów AI, co ma zminimalizować ryzyko po stronie zarówno deweloperów czy użytkowników tych systemów, jak i samych organów, które będą odpowiadały za nadzór nad rynkiem AI.

Prawo to za mało

Rozwiązania jak ChatGPT czy Bard mają też swoją specyfikę i mogą być określane mianem generatywnej sztucznej inteligencji czy systemami sztucznej inteligencji ogólnego przeznaczenia. W ten sposób Unia Europejska próbuje też uporządkować kwestię związaną z ryzykami określonymi w liście, tworząc specyficzną definicję dla tych narzędzi i wiążąc ją z konkretnymi wymaganiami, które w znacznej mierze odpowiadają tym odnoszącym się do systemów AI wysokiego ryzyka. Postuluje się więc konieczność wdrożenia odpowiedniego systemu zarządzania ryzykiem i danymi, tworzenie szczegółowej dokumentacji technicznej czy zapewnienie nadzoru człowieka oraz wysokiego poziomu cyberbezpieczeństwa, na co wskazuje także ostatni raport ENISA – unijnej agencji odpowiedzialnej właśnie za ten obszar. W tym ostatnim aspekcie nie sposób nie zwrócić uwagi na podatność takich systemów na ataki związane z wpływaniem na model i nie chodzi tutaj tylko o zatruwanie danych (data poisoning), ale i preparowanie promptów (zapytań), które są kierowane do narzędzia. Tu same rozwiązania prawne nie będą wystarczające.

W kontekście tych rozwiązań list, ale i głosy ekspertów słusznie odnoszą się do ryzyka związanego z manipulacją i dezinformacją, gdyż osiągnięcia OpenAI i podobnych podmiotów pozwalają dzisiaj na tworzenie obrazów czy dźwięku (głosu) w sposób niezwykle realistyczny. Czasem nawet zbyt realistyczny. Podobnie jest z tekstem. ChatGPT potrafi w kilka sekund dostarczyć treść sprawiającą wrażenie rzetelnej relacji dziennikarskiej, reportażu czy wywiadu. Pytanie, czy jest w ogóle możliwe uporządkowanie tej kwestii poprzez regulację, czy też może warto skupić się przede wszystkim na edukacji. Niektóre państwa, jak Wielka Brytania czy Indie, przyjmują zupełnie różny od unijnego sposób uporządkowania kwestii wykorzystania takich rozwiązań. Nie zawsze twardy akt prawny musi być rozwiązaniem, szczególnie jeżeli jednocześnie chcemy stymulować rozwój jakiejś technologii. A tak podchodzi do tego Unia w swojej strategii dla danych.

Pojawia się więc pytanie, jak zapewnić prawo do prawdy. Kto ma decydować o tym, co nią jest, a co nie jest, a także czy w ogóle jest to technicznie możliwe, a prawnie egzekwowalne. Rozwiązania oparte na systemach sztucznej inteligencji często mają charakter eksterytorialny i dokonanie właściwej oceny tego, gdzie dochodzi do przetwarzania lub gdzie występuje rezultat działania systemu, może sprawiać trudności. Wyzwaniem jest też wspomniana przejrzystość, która ma dać przynajmniej wskazówkę co do tego, że to, co widzimy lub słyszymy, jest de facto nieprawdziwe. W AI Act ma to się odbywać poprzez wyraźne wskazanie, że mamy do czynienia z tzw. deep fake, choć szczegóły mają być jeszcze wypracowane, prawdopodobnie także w formie aktów wykonawczych czy też norm standaryzacyjnych. Samo nałożenie takiego obowiązku, na który wskazuje także list otwarty, sugerując wprowadzenie systemu znaków wodnych, w praktyce może być trudne do wyegzekwowania (nawet jeśli technicznie możliwe), szczególnie jeżeli obowiązek będzie obejmował nie tylko twórców, lecz także użytkowników, którzy będą się posiłkowali takimi rozwiązaniami. Jeżeli nie pojawią się w tym zakresie odpowiednie instrumenty, także prawne, pozostanie to tylko pustym wymogiem, do którego część będzie się stosowała, a który reszta (większość?) będzie ignorowała. Jego egzekwowanie wymaga zasobów, wiedzy oraz edukacji, ale także globalnego podejścia, które jest raczej wątpliwe ze względu na napięcia polityczne czy poszanowanie zupełnie innych wartości w różnych częściach świata.

A co z człowiekiem?

Można próbować także nakładać na deweloperów czy użytkowników takich systemów konkretne obowiązki w zakresie nadzoru człowieka, na co wskazuje chociażby art. 14 AI Act, który miałby opierać się na szerokim wachlarzu narzędzi i środków, które pozwolą na mitygację ryzyk związanych z systemami AI. Przynajmniej w teorii. Problem w tym, że o ile sam fundament jest godny pochwały, o tyle w świecie, w którym generowanie treści czy obrazów odbywa się w sekundy (lub krócej), będzie to zadanie realizowane post factum, najczęściej po tym, jak powstanie jakaś szkoda. W takiej sytuacji pozostaje więc jedynie jej naprawienie, ale pod warunkiem, że dochodzenie roszczenia będzie w ogóle możliwe.

Zarówno w liście, jak i projekcie stosownej dyrektywy unijnej (a w przyszłości może i rozporządzenia) postuluje się przyjęcie jasnych zasad odpowiedzialności za szkodę wyrządzoną przez jakiś system sztucznej inteligencji – nie jest jeszcze do końca jasne, czy mowa tylko o systemach AI wysokiego ryzyka, czy także o pozostałych. Odwrócenie ciężaru dowodu, przekazywanie dokumentacji technicznej czy przedstawienie wyjaśnienia działania modelu to podstawowe założenia, które jednak w przyszłości może być trudno wyegzekwować, zarówno ze względu na eksterytorialność AI (szczególnie biorąc pod uwagę uczenie federacyjne), jak i brak doświadczenia czy wiedzy technicznej rozstrzygających spory w tym zakresie. Zadanie będzie tym trudniejsze, im bardziej zaawansowane techniki i podejścia będą stosowane przez twórców systemów AI.

W rzeczywistości wyzwań na styku prawa, technologii i człowieka jest więcej. List również na nie wskazuje, a AI Act próbuje jakoś na nie odpowiedzieć. Cała dyskusja nad potencjalnym (i mało prawdopodobnym) globalnym moratorium pokazuje dobitnie, że prawo znów nie nadąża za rzeczywistością. To trend, z którym mierzymy się od lat. Problem jednak w tym, że dzisiaj rzeczywiście potrzebujemy jakiegoś „bezpiecznika” i gwarancji. Rozwój tych rozwiązań, które określamy mianem sztucznej inteligencji, stanowi dzisiaj duże zagrożenia dla człowieka. Nie w sposób, do którego przyzwyczaiły nas filmy dostępne na platformach streamingowych, ale poprzez naruszenie naszych praw. Wprowadzenie takich rozwiązań wymaga jednak przemyślanego podejścia, bo obok ryzyka mamy też wiele pozytywów, które systemy sztucznej inteligencji mogą przynieść ludzkości. ©℗

Cała dyskusja nad potencjalnym (i mało prawdopodobnym) globalnym moratorium pokazuje dobitnie, że prawo znów nie nadąża za rzeczywistością