Osobowość prawna stanowi fundamentalną kategorię prawną. Przyznaje podmiotom zdolność do bycia nosicielem praw i obowiązków, ponoszenia odpowiedzialności prawnej oraz uczestniczenia w postępowaniu sądowym. Podmioty takie jak spółki kapitałowe, fundacje, stowarzyszenia oraz jednostki samorządu terytorialnego mają osobowość prawną na podstawie konstytucji lub ustaw szczegółowych. Przyznanie jej transformuje zorganizowaną działalność człowieka w samodzielny podmiot obrotu prawnego, odrębny od jego kreatorów.

AI jeszcze sporo brakuje do tego, by mieć osobowość prawną

Głównym argumentem przeciwko przyznaniu osobowości prawnej sztucznej inteligencji jest brak wewnętrznych organów decyzyjnych, w których zasiadaliby ludzie odpowiedzialni za podejmowane przez nią decyzje. AI nie posiada autonomii i świadomości rozumianej w kategoriach człowieka. Brak ten stanowi fundamentalną różnicę między AI a innymi podmiotami prawnymi, które zawsze dysponują strukturą organów reprezentujących interesy podmiotu i odpowiadających za jego działania.

Sztuczna inteligencja nie posiada też woli, intencji ani zamiaru działania w znaczeniu przypisywanym podmiotom prawnym. Nie rozumie norm prawnych ani moralnych, lecz działa wyłącznie w granicach wyznaczonych przez człowieka za pośrednictwem algorytmów. AI stanowi narzędzie pracy człowieka, nie jest samodzielnym uczestnikiem obrotu prawnego.

Ponadto AI nie prowadzi działalności ani nie podejmuje czynności w rozumieniu prawnym. Zamiast tego wykonuje algorytmy stworzone i inicjowane przez ludzi. Konsekwencją tego jest brak możliwości przypisania AI statusu nosiciela praw i obowiązków. Nie może ona być stroną umowy, posiadaczem majątku czy zaciągającym zobowiązania.

Nie można nałożyć sankcji

Z uwagi na całkowity brak czynnika ludzkiego reprezentującego sztuczną inteligencję, nie ma możliwości stosowania wobec niej sankcji w trybie cywilnym, karnym czy administracyjnym. AI nie posiada majątku, który byłby przedmiotem egzekucji, a brak jest również interesów prawnych, które mogłyby podlegać ochronie. Sztuczna inteligencja nie ma poczucia obowiązku, godności, empatii ani zdolności do odczuwania szkody i krzywdy. Wszystkie te cechy stanowią elementy konstytutywne osobowości prawnej zgodnie z doktryną prawa cywilnego.

Jednak brak przyznania osobowości prawnej sztucznej inteligencji nie oznacza, że AI funkcjonuje ponad prawem. Wprowadzone i stale doskonalone są akty prawne regulujące obowiązki twórców i operatorów AI w zakresie tworzenia, wdrażania i eksploatacji sztucznej inteligencji.

Aby sztuczna inteligencja została dopuszczona do obrotu, musi spełniać wymagania techniczne, prawne i etyczne przewidziane w obowiązujących aktach prawnych. Za szkody wyrządzone przez AI odpowiadają producenci AI, jej operatorzy oraz użytkownicy. Kierunek regulacyjny Unii Europejskiej został potwierdzony w Europejskim Akcie o Sztucznej Inteligencji.

Kant w świecie algorytmów

Rozważania nad brakiem osobowości prawnej AI znajdują swoje głębokie uzasadnienie w etyce nowych technologii, a w szczególności w deontologii Immanuela Kanta – etyce obowiązku. Z perspektywy kantowskiej status moralny (a co za tym idzie – prawny w głębokim sensie) przysługuje wyłącznie istotom rozumnym, które posiadają autonomiczną wolę i zdolność do kierowania się prawem moralnym.

Według Kanta tylko istota zdolna do działania „z obowiązku”, a nie zgodnie z instrukcją, może być uznana za podmiot moralny. Sztuczna inteligencja, wykonująca algorytmy stworzone przez ludzi, nie podejmuje wyborów moralnych, lecz jedynie techniczne operacje. Przyznanie jej osobowości prawnej byłoby błędem, ponieważ AI nie posiada godności, która według Kanta jest wartością bezwzględną i odróżnia osoby od rzeczy (narzędzi).

Uznanie AI za osobę prawną mogłoby się stać narzędziem dla korporacji i twórców do unikania ich własnych obowiązków moralnych i prawnych, co uderzałoby w godność ofiar błędów technologii. W systemie Kanta to człowiek, jako istota wolna, ma obowiązek sprawowania nadzoru nad stworzonymi przez siebie narzędziami. Odpowiedzialność nie może zostać przypisana maszynie, ponieważ nie jest ona zdolna do zrozumienia idei obowiązku ani do moralnego samoograniczenia.

Między innymi z tego względu Europejski Akt o Sztucznej Inteligencji (EU AI Act) nie przewiduje przyznania AI osobowości prawnej. Osłabiłoby to bowiem ochronę człowieka. W przypadku powstania szkody podmioty zaangażowane w tworzenie i wdrażanie AI mogłyby przerzucać odpowiedzialność na AI, która nie jest w stanie ponieść żadnych sankcji. Stanowiłoby to przesunięcie odpowiedzialności poza sferę kontroli człowieka, co byłoby niezgodne z zasadami prawa, które powinno chronić interesy człowieka.

Potrzebne nowe konstrukcje prawne

Chociaż współcześnie kwestia braku osobowości prawnej AI wydaje się przesądzona, nie można wykluczyć, iż dyskusja na ten temat powróci w przyszłości. AI funkcjonuje coraz bardziej autonomicznie, uczy się w nieprzewidywalny sposób i podejmuje decyzje bez bezpośredniego polecenia człowieka. Ewolucja tych cech może skłonić doktrynę i ustawodawcę do rozważenia nowych konstrukcji prawnych.

Szczególnie warte uwagi są zautomatyzowane narzędzia podejmujące decyzje o kupnie czy sprzedaży instrumentów finansowych, które mogą doprowadzić do znaczących strat finansowych. Ustalenie odpowiedzialności człowieka, np. twórcy systemu, w takich scenariuszach może się okazać praktycznie niemożliwe. Przeniesienie odpowiedzialności na AI mogłoby w tym przypadku wypełnić dotychczasową lukę prawną.

Za AI odpowiada wiele podmiotów

Choć sztuczna inteligencja nie posiada osobowości prawnej, prawo nie pozostawia jej działań w próżni regulacyjnej. Europejski Akt o Sztucznej Inteligencji (AI Act) opiera się na założeniu, że za każdą decyzją algorytmu stoi człowiek lub organizacja, na których spoczywają konkretne obowiązki staranności. Odpowiedzialność ta nie jest jednak rozłożona równomiernie – jest precyzyjnie przypisana do roli, jaką dany podmiot pełni w cyklu życia systemu, co ma zapobiegać rozmyciu odpowiedzialności w skomplikowanym łańcuchu technologicznym.

Ważne

Największy ciężar obowiązków spoczywa na dostawcy, czyli podmiocie, który tworzy model i wprowadza go do obrotu. Z perspektywy AI Act dostawca musi zagwarantować bezpieczeństwo systemu już na etapie jego projektowania. Wiąże się to z koniecznością wdrożenia rygorystycznego systemu zarządzania ryzykiem oraz zapewnienia najwyższej jakości danych treningowych.

Kiedy system AI trafia do banku, szpitala czy urzędu, odpowiedzialność przechodzi na wdrażającego (operatora). Jego zadaniem jest użytkowanie technologii ściśle według instrukcji oraz monitorowanie jej wpływu na otoczenie. Wdrażający musi wyznaczyć kompetentne osoby do nadzoru i przechowywać logi systemowe, co w razie awarii pozwala biegłym sądowym zrekonstruować łańcuch przyczynowo-skutkowy.

Prawo do prawdy i kompetencji

AI Act kładzie ogromny nacisk na przejrzystość wobec nas wszystkich – użytkowników końcowych. Każdy ma prawo wiedzieć, że rozmawia z automatem, a treści zmanipulowane (deepfake) muszą być wyraźnie oznaczone. Jest to fundament ochrony ludzkiej autonomii; aby człowiek mógł podjąć wolną decyzję, nie może być wprowadzany w błąd co do natury swojego rozmówcy czy źródła informacji.

Uzupełnieniem tego jest nowatorski obowiązek dbania o kompetencje w zakresie AI (AI literacy). Organizacje są zobowiązane do edukowania swoich pracowników, by rozumieli oni działanie technologii, z którą pracują.

Wszystkie te regulacje, choć ujęte w paragrafy, są w istocie próbą przełożenia uniwersalnych zasad etycznych na język technologii. Skoro sztuczna inteligencja nie posiada serca ani poczucia obowiązku, to my – projektanci, operatorzy i użytkownicy – musimy stać się jej moralnym kompasem. Systemy AI nie mogą być traktowane jako tarcza chroniąca przed odpowiedzialnością, lecz jako narzędzia, które wymagają od nas jeszcze większej dyscypliny etycznej. Jak postulował Kant: działaj tak, byś człowieczeństwa w osobie własnej, jako też w osobie każdego innego, używał zawsze zarazem jako celu, nigdy tylko jako środka – również wtedy, gdy tym „środkiem” jest najnowocześniejszy algorytm.

Rola biegłych sądowych

W ewentualnym procesie sądowym dotyczącym odszkodowania powołanie jednego biegłego może się okazać niewystarczające. Strona prawdopodobnie będzie zmuszona złożyć wniosek o dopuszczenie dowodu z kilku biegłych z różnych dziedzin ze względu na złożoność łańcucha odpowiedzialności AI.

  • Biegły z zakresu informatyki i sztucznej inteligencji (uczenie maszynowe, algorytmy) odpowiadałby na pytania dotyczące: projektowania modelu, zgodności algorytmu ze stanem wiedzy, błędów architektury, zgodności systemu z dokumentacją oraz przewidywalności systemu.
  • Biegły z zakresu analizy danych i statystyki (data science, jakość danych, bias) udzielałby odpowiedzi na pytania w zakresie: kompletności danych treningowych, reprezentatywności danych, występowania stronniczości (bias) oraz prawidłowości procedur walidacji.
  • Biegły z zakresu inżynierii systemów i IT governance (DevOps, MLOps, bezpieczeństwo systemów) odpowiadałby na pytania dotyczące: zgodności wdrożenia z dokumentacją, zapewnienia nadzoru człowieka (human-in-the-loop), funkcjonowania monitoringu i logowania oraz zgodności użytkowania z przeznaczeniem.
  • Biegły z zakresu danej dziedziny aplikacyjnej (np. medycyny, transportu) rozwiewałby wątpliwości z zakresu: racjonalności decyzji AI w danym kontekście, tego, czy człowiek powinien był zauważyć błąd, oraz zgodności z standardami branżowymi.
  • Natomiast biegły z zakresu zarządzania ryzykiem i AI governance będzie odpowiadał na pytania co do: istnienia procedur, identyfikacji ryzyka oraz wdrożenia środków zapobiegawczych. ©℗