Jeśli sto razy maszyna się nie pomyli, to za sto pierwszym już jej nie sprawdzimy. To jest chyba główny problem, któremu trzeba będzie stawić czoła w przyszłości - mówi w rozmowie z DGP Tomasz Zalewski, radca prawny, partner w kancelarii Bird & Bird Szepietowski i wspólnicy.

Czy sztuczna inteligencja (dalej: SI) może zastąpić prawnika?
Nie, nie może być prawnikiem czy prawniczką, ponieważ nie jest człowiekiem. Może natomiast swoim działaniem symulować prawnika - człowieka - to, jak działa czy funkcjonuje.
Wątpliwości pojawiły się ze względu na to, że 22 lutego aplikacja DoNotPay miała bronić osoby w sądzie w USA. Jednak ostatecznie na to nie zezwolono.
No cóż, myślę, że to był świetny trick marketingowy. Miał na celu przykucie uwagi i chyba się to udało. Zresztą była jeszcze jedna propozycja. Mianowicie ogłoszono, że DoNotPay zapłaci 1 mln dol. prawnikowi, który pójdzie ze słuchawkami na uszach połączonymi z aplikacją DoNotPay do Sądu Najwyższego. Bardzo szybko jednak okazało się, że przede wszystkim do Sądu Najwyższego nie wolno wnosić żadnych urządzeń elektronicznych, a poza tym, jeżeli ktoś jest na tyle „daleko” w ramach swojej kariery prawniczej, że występuje przed Sądem Najwyższym w Stanach Zjednoczonych, to nie zaryzykuje swojej kariery dla 1 mln dol. Przyznam szczerze, że od samego początku nie bardzo wierzyłem w powodzenie tej inicjatywy. Na czym miałby polegać udział DoNotPay w rozprawie sądowej? Myślę, że w praktyce szanse na zrealizowanie tego pomysłu były naprawdę bardzo niewielkie.
A czysto teoretycznie. Są w ogóle jakieś sprawy, w których SI mogłaby występować w sądzie?
Jak powiedziałem, sztuczna inteligencja nie jest osobą, więc nie może występować w sądzie. Mogę sobie natomiast wyobrazić, że byłaby pewnego rodzaju wsparciem dla osoby, która w tym sądzie występuje. Na przykład obywatel, który sam siebie reprezentuje w sądzie jako powód, pozwany czy oskarżony, mógłby posługiwać się takim programem w celu np. szybszego znalezienia jakichś istotnych faktów dla jego sprawy. Ale szczerze: czy to się różni znacznie od takiej sytuacji, która już w tej chwili jest dopuszczalna? Już teraz większość sądów pozwala na to, żeby mieć laptopa przed sobą, dzięki czemu - kiedy druga strona się wypowiada, np. powołuje się na jakieś orzeczenie - to można szybko to orzeczenie znaleźć. Wydaje mi się, że to będzie jedynie kolejna generacja technologii wspomagającej czy to prawników, czy obywateli w momencie, kiedy stykają się z wymiarem sprawiedliwości, jednak nie zastępującej prawników.
SI jest już też pozywana, choćby o naruszenia praw autorskich. Kto w takiej sytuacji odpowiada za naruszenie praw autorskich?
To jest akurat bardzo proste. Po pierwsze, sztuczna inteligencja nie może być pozwana, bo nie jest osobą. Po drugie, za naruszenie praw autorskich odpowiada zawsze ten, kto swoim działaniem naruszył prawa autorskie, a więc np. człowiek korzystający z systemu AI, w wyniku działania którego powstaje dzieło naruszające czyjeś prawa autorskie.
Kto ponosi odpowiedzialność cywilną za SI, np. czy za szkodę spowodowaną błędną diagnozą medyczną postawioną przez sztuczną inteligencję odpowiedzialność poniesie lekarz, który oparł się na diagnozie SI, czy też podmiot, który stworzył tę SI?
W obecnym stanie prawa zawsze odpowiada lekarz. To lekarz podejmuje decyzję na podstawie np. diagnozy stawianej przez sztuczną inteligencję. Przykładowo mamy zdjęcie rentgenowskie, które jest opisywane przez sztuczną inteligencję. SI nie wykryła nowotworu, mimo że był widoczny, lekarz tego nie zweryfikował i podpisał się pod opisem wykonanym przez SI. Odpowiedzialność ponosi lekarz.
Tomasz Zalewski, radca prawny, partner w kancelarii Bird & Bird Szepietowski i wspólnicy / nieznane / fot. Agnieszka Murak/Materiały prasowe
Inny przykład: ktoś jedzie samochodem autonomicznym. Załóżmy, że byłoby to legalne (bo na razie w Polsce nie jest) i ten samochód jest rzeczywiście całkowicie autonomiczny, tzn. kierowca nie trzyma rąk na kierownicy, a być może nawet ten samochód w ogóle kierownicy nie ma. Wtedy pojawia się pytanie: kto odpowie za wypadek spowodowany przez taki pojazd? Czy ten, kto ma największy wpływ na to, że mogło dojść do wypadku, czyli producent lub np. ten, kto serwisował to urządzenie, czy jednak ten, kto korzystał z takiego samochodu? W obecnym stanie prawnym byłby to bardzo skomplikowany przypadek. Unia Europejska przygotowuje już przepisy dyrektywy, która będzie to regulowała.
Czy robot może być autorem lub wynalazcą?
Nie może. Prawo autorskie mówi wyraźnie, że utworem, który podlega ochronie prawa autorskiego, może być wyłącznie to, co stworzył człowiek, i musi być to indywidualny przejaw twórczości ludzkiej. Czyli jak nie ma człowieka, to nie ma twórczości, czyli nie ma utworu. Muszę jednak zaznaczyć, że przesłanka indywidualnej twórczości wymaga często dokładnej analizy i wykładni. Nikt nie ma wątpliwości, że jeżeli w tej chwili namalowałbym na ścianie jakieś graffiti, nie patrząc na żaden wzór, to stworzę utwór. Natomiast są takie dzieła, w których zakres swobody twórczej jest bardzo niewielki. Przykładowo kiedyś Trybunał Sprawiedliwości Unii Europejskiej zastanawiał się nad tym, czy zdjęcie portretowe jest utworem. Stwierdzono, że zdjęcie portretowe może być utworem, bo z jednej strony jest wykonywane według pewnej konwencji, ale swoboda twórcza jest wystarczająca duża, by powstało dzieło. Natomiast jest jasne, że fotografia legitymacyjna nie może być utworem, dlatego że niezależnie od tego, do jakiego fotografa się udamy, to zdjęcie powinno wyglądać dokładnie tak samo.
A co z tak głośnym ostatnio ChatGPT?
Trzeba jasno powiedzieć, że człowiek nie jest autorem tekstów tworzonych przez ChatGPT. Można oczywiście zadać pytanie o to, czy jednak nie można za autora uznać osób, które stoją za powstaniem takiego tekstu. Być może autorem jest użytkownik tego narzędzia, bo przecież żeby uzyskać rezultat, to musiał zadać najpierw jakieś pytanie i tym pytaniem wywarł wpływ na to, co otrzymał. Wydaje mi się jednak, że mało prawdopodobne jest, aby można było autora pytania skierowanego do ChatGPT uznać za autora wygenerowanej odpowiedzi, dlatego że wynik jest bardzo często przypadkowy, np. to samo pytanie zadane kilka razy spowoduje otrzymanie różnych rezultatów. Można zastanawiać się, czy autorem albo kimś, kto miałby prawa autorskie majątkowe do tego, co ChatGPT tworzy, mógłby być np. producent tego narzędzia. Jednak tu chyba też trzeba odpowiedzieć negatywnie.
Czy należy zatem wprowadzić ochronę prawem autorskim rezultatów SI?
Tak naprawdę dyskusja dotycząca tego zagadnienia dopiero się zaczęła, bo przed upublicznieniem ChatGPT chyba nikt sobie nie zdawał sprawy, jak daleko zaszła już sztuczna inteligencja w swoim rozwoju i jakie niesamowite rezultaty może dawać. Są już wydawcy, którzy mówią wprost: „Tak, część naszych artykułów będzie tworzona przez sztuczną inteligencję”, ale z drugiej strony ci sami wydawcy mają bardzo restrykcyjną politykę ochrony praw własności intelektualnej, która mówi: „Nie wolno kopiować niczego, co jest na naszej stronie”. Stąd pytanie, czy takie „utwory” nie powinny być oznaczane? Druga kwestia, która się pojawia, dotyczy programów, które tworzą utwory graficzne, np. Midjourney czy DALL-E. Jest ich cała masa i potrafią one wytworzyć dzieło imitujące oryginał, czyli np. obraz w stylu konkretnego autora. Jeżeli jest utwór w stylu „Słoneczników” Van Gogha, to nic się nie dzieje, ponieważ prawa autorskie Van Gogha dawno już wygasły, ale co z autorami żyjącymi? Tacy autorzy zarzucają naruszenie praw autorskich do ich dzieł przez te programy. Patrząc na to przez pryzmat słuszności i sprawiedliwości, to coś w tym jest. Ktoś przez 20 lat tworzy jakieś ilustracje w określonym stylu. Wyrobił sobie markę, jest bardzo ceniony, jego prace są zamawiane bardzo chętnie przez wydawców, ponieważ ma bardzo charakterystyczny styl. I nagle się okazuje, że przy pomocy takich programów można w kilka sekund wygenerować bardzo podobne obrazy.
Myślę jednak, że jest trochę za wcześnie, żeby wyciągać tu jakieś definitywne wnioski.
Czy unijna regulacja odnośnie do SI jest potrzebna i czy jest w stanie rozwiązać wszystkie problemy?
Na razie mamy taką sytuację, że wszyscy zastanawiają się, jak zachować się w tej nowej sytuacji powstałej w związku z pojawieniem się narzędzi opartych na SI, pozwalających na łatwe generowanie różnych dzieł i wręcz prowokujących do korzystania z nich na co dzień. Czy wykorzystać to biznesowo, czy poczekać, czy też może aktywnie przeciwdziałać, chroniąc swoje interesy? Trzeba także pamiętać, że tak naprawdę dopiero od niedawna testujemy te systemy na masową skalę i jest trochę za wcześnie na ostateczne sądy.
Będziemy korzystać ze sztucznej inteligencji i nie uważam jej za specjalne zagrożenie. Zagrożeniem mogą być tylko takie sytuacje, w których systemy oparte na sztucznej inteligencji rzeczywiście zaczną być wykorzystywane w sferach, w których jest ryzyko naruszenia czyichś praw. Mamy w związku z tym unijny projekt rozporządzenia o sztucznej inteligencji (AI Act), które w tym roku pewnie zostanie uchwalone i opublikowane.
Niezależnie od regulacji prawnych człowiek ma tendencję do lenistwa, a z drugiej strony - nadmiernego zaufania do technologii. Trochę jest tak, że nawet jak nam się powie: „Słuchaj maszyna nie jest nieomylna. Sprawdź rezultaty”, to jeśli sto razy maszyna zadziała dobrze, to za sto pierwszym już nie sprawdzimy wyników jej działania. To jest chyba główny problem, któremu trzeba będzie stawić czoła w przyszłości.
Myślę, że to jest dobre podsumowanie. Summa summarum decyzyjny i tak będzie człowiek, i w ostatecznym rozrachunku wszystko zależeć będzie od człowieka.
Tak myślę. Wracając jednak do pytania o DoNotPay z początku rozmowy, sądzę, że są pewne sfery życia, takie jak np. wymiar sprawiedliwości, które powinny być ostoją wzajemnego zaufania stron do siebie. Myślę, że to, co się dzieje m.in. w sądzie, to są sprawy zbyt ważne, by wprowadzać tam sztuczną inteligencję bez refleksji, zwłaszcza traktować wymiar sprawiedliwości jako dźwignię reklamową dla swojej działalności. Mimo wszystko miejmy świadomość, że reprezentowanie kogoś w sądzie to branie odpowiedzialności za czyjeś sprawy, czasami za czyjeś życie. Dlaczego mielibyśmy robić z tego maskaradę?
Rozmawiała Nikola Budzińska